Robot assassini? No. Il vero pericolo che si cela dietro l’intelligenza artificiale (IA) sono gli umani. O meglio, i loro pregiudizi. Ne è convinto anche John Giannandrea, direttore del settore dell’IA di Google.
Giannandrea ha spiegato le sue motivazioni durante una conferenza di Google sulla relazione tra umani e sistemi di IA.
I nostri pregiudizi nelle IA
Gli algoritmi in futuro potrebbero prendere milioni di decisioni importanti, ogni minuto. “La vera questione sulla sicurezza, se vogliamo chiamarla così“, ha detto Giannandrea, “è che se diamo a questi sistemi dati tendenziosi, diventeranno prevenuti.”
Il problema è che i pregiudizi nell’IA, trasmessi da noi umani, in futuro potrebbero diffondersi in settori delicati. Ad esempio nella medicina e nella giurisprudenza. Alcuni esperti sostengono che questi pregiudizi hanno già invaso alcune industrie e che nessuno sta provando a rimediarvi.
“È importante che siamo trasparenti sui dati di addestramento che stiamo usando e per trovarvi dei pregiudizi nascosti. Altrimenti stiamo costruendo sistemi prevenuti“, ha aggiunto Giannandrea. “Se qualcuno sta cercando di venderti un sistema a scatola nera per il supporto alle decisioni mediche e non sai come funziona o quali dati sono stati utilizzati per addestrarlo, allora non mi fiderei.”
Eppure i sistemi di machine learning a scatola nera stanno già avendo un impatto nella vita di alcune persone. Ad esempio, un sistema chiamato COMPAS realizzato da Northpointe prevede la probabilità di recidività degli imputati e viene usata da alcuni giudici per concedere la libertà vigilata. I lavori di COMPAS sono segreti, ma un’indagine di ProPublica ha dimostrato che il modello potrebbe avere dei pregiudizi nei confronti delle minoranze.
Ma anche i sistemi di IA più trasparenti possono risultare davvero complessi. I ricercatori stanno cercando una soluzione per fare in modo che le tecnologie di IA forniscano delle approssimazioni sul loro funzionamento agli ingegneri e agli utenti finali. Un compito arduo, ma non impossibile.
Google è una delle grandi aziende che stanno vendendo piattaforme di IA e cloud computing a diverse industrie.
Questi sistemi di apprendimento automatico basati sul cloud sono progettati per essere molto più semplici da usare rispetto agli algoritmi che li compongono. Ciò rende la tecnologia più accessibile, ma allo stesso tempo facilita la formazione di pregiudizi.
Per attenuare i danni si potrebbero offrire tutorial e strumenti per aiutare gli scienziati e gli ingegneri meno esperti a individuare e rimuovere i pregiudizi dai dati raccolti. Si tratta quindi di un problema che bisogna risolvere a monte, non dopo che l’IA è stata realizzata o addirittura messa sul mercato.
Algoritmi: questi sconosciuti
Su questo problema sono intervenuti anche altri esperti. Maya Gupta, ricercatrice presso Google, ha descritto l’impegno del team Glassbox nel sviluppare algoritmi meno opachi. In breve, Gupta ha ideato metodi matematici per ridurre l’influenza delle anomalie che possono colpire un sistema di machine learning.
Karrie Karahalios, professoressa di informatica presso l’Università dell’Illinois, ha presentato una ricerca che evidenzia come può essere difficile individuare pregiudizi anche negli algoritmi più comuni. Ha spiegato che molti utenti non capiscono come Facebook filtra i post mostrati nella loro sezione notizie.
Roba da poco? Non proprio. L’algoritmo della sezione notizie di Facebook può modellare la percezione pubblica delle interazioni sociali e persino dei grandi eventi. Altri algoritmi possono già sottilmente distorcere i tipi di cure mediche che una persona riceve, o come questa viene trattata nel sistema della giustizia penale.
Altro che robot assassini. Gli algoritmi che funzionano in base ai nostri pregiudizi sono il pericolo principale attuale.
Ma sarà davvero possibile sviluppare IA senza i nostri pregiudizi? Diverse organizzazioni ci stanno lavorando.
I pregiudizi nelle IA potrebbero distruggere tutto ciò che di buono questi sistemi possono procurare. Un esempio molto semplice ce lo offre uno studio dell’Università di Bath pubblicato su Science. I ricercatori hanno esaminato uno strumento di machine learning di “word embedding“, ovvero rappresentazione distribuita delle parole.
Si tratta di uno strumento che sta già modificando il modo in cui i computer interpretano il linguaggio e il testo. Secondo alcuni esperti, il passo successivo di questa tecnologia sarà lo sviluppo di macchine dalle capacità simili a quelle umane, come la logica e il senso comune.
Ecco una parte dei risultati dello studio. L’IA ha associato le parole “female” (femmina) e “woman” (donna) con professioni d’arte, umanistiche e con l’ambiente domestico. Invece ha associato “male” (maschio) e “man” (uomo) alla matematica e alle professioni ingegneristiche.
Il sistema, inoltre, associava con più probabilità nomi europei e americani con parole piacevoli come “regalo” o “felice”, mentre i nomi afroamericani erano più comunemente associati a parole sgradevoli.
I risultati suggeriscono quindi che gli algoritmi hanno acquisito gli stessi pregiudizi che le persone adottano (almeno nel Regno Unito e negli Stati Uniti) nei test di associazione implicita.
Questi pregiudizi possono avere un impatto negativo notevole nelle società. Immagina sistemi di IA scremare i candidati per un lavoro in base alla loro provenienza e ai loro interessi. Oppure un sistema di IA che stabilisce delle polizze assicurative in base a questi e molti altri dati che non dovrebbero essere considerati. Così non può funzionare.
Tuttavia, c’è un lato positivo. Gli algoritmi potrebbero essere un’opportunità per individuare i pregiudizi e contrastarli.
“Almeno con gli algoritmi possiamo potenzialmente sapere quando l’algoritmo non è obiettivo“, ha detto Sandra Wachter, ricercatrice presso l’Università di Oxford. “Gli esseri umani, per esempio, potrebbero mentire sui motivi per cui non hanno assunto qualcuno. Al contrario, non ci aspettiamo che gli algoritmi possano mentire o ingannare.”
In effetti le macchine possono ingannarci perché un umano le ha programmate per assolvere a questo compito. Oppure perché ha fornito loro dati sbagliati. La manipolazione avverrebbe comunque ad opera di un essere umano, non per l'”intenzione” di una macchina. Almeno per ora.
Per ricevere le ultime novità del blog e altro materiale sull’evoluzione digitale, iscriviti alla newsletter.
Fonte: MIT Technology Review