Righe di codice circondano una sagoma umana

L’IA senza i nostri pregiudizi: sarà possibile?

Apocalisse robotica? Forse c’è un problema più concreto e immediato che dobbiamo affrontare nell’ambito dell’intelligenza artificiale (IA). Da un paio d’anni stiamo assistendo al progresso di questa tecnologia che sta permeando sempre più le nostre vite. E spesso dimentichiamo che nella costruzione di queste macchine c’è sempre un’impronta umana.

Il lato negativo di questa impronta umana riguarda i nostri pregiudizi. Razzismo, sessismo, discriminazione degli anziani: nei sistemi di IA può esserci tutto ciò e anche altro. È un problema, soprattutto se consideriamo che in futuro vivremo sempre più a stretto contatto con questi sistemi.

Esiste una soluzione? Come facciamo a costruire macchine che non abbiano i nostri pregiudizi?

 

L’IA con pregiudizi provoca danni

Risolvere questo problema è diventato l’obiettivo primario di un gruppo di esperti che ha fondato Diversity.ai. Loro credono che le macchine possono comportarsi meglio dei loro creatori quando si tratta di abbattere gli stereotipi. Le discriminazioni di genere, d’età, razziali ed etniche tramite sistemi di IA esistono già e riguardano le profilazioni individuali e di gruppo.

Abbiamo assistito all’azione di macchine pregiudiziose già nel 2015: l’app di Google “Foto” aveva taggato con “gorilla” l’immagine di 2 afroamericani. Un recente studio, invece, ha riportato la presenza diffusa di pregiudizi umani all’interno del database di Flickr usato per potenziare le reti neurali artificiali. Inoltre, l’anno scorso una ricerca di ProPublica ha rilevato che un software per prevedere il comportamento criminale era prevenuto nei confronti degli afroamericani.

Anastasia Georgievskaya (Diversity.ia) ha avuto esperienza diretta con il pregiudizio delle macchine durante un concorso di bellezza giudicato da un’IA. Quasi tutti i vincitori scelti dalla giuria digitale erano bianchi. “Ho pensato che la discriminazione dei robot è probabile, ma solo in un futuro molto lontano“, ha dichiarato. “Ma quando abbiamo iniziato a lavorare su Beauty.AI, ci siamo resi conto che le persone discriminano altre persone per l’età, il sesso, la razza e molti altri parametri, e nessuno ne parla.”

Anche Alex Zhavoronkov, CEO di Insilico Medicine, Inc., ha dovuto affrontare un problema simile. L’azienda combina la genomica, l’analisi di big data e l’apprendimento profondo per scoprire farmaci e malattie legate all’invecchiamento. Un progetto chiamato Aging.ai, che adotta una rete neurale profonda basata su centinaia di esami del sangue umano per prevedere l’età, ha commesso grandi errori nelle popolazioni anziane.

La nostra azienda è arrivata a studiare l’invecchiamento non solo perché vogliamo estendere la longevità sana e produttiva, ma per risolvere un problema importante nel settore farmaceutico: i pregiudizi sull’età“, ha spiegato Zhavoronkov. “Molti studi clinici tagliano fuori dei pazienti per l’età, e migliaia di persone sane ma anziane perdono la loro possibilità di ottenere un trattamento.”

È evidente che qui abbiamo un problema che non possiamo trascurare. Gli algoritmi possono essere sempre migliorati, è vero, ma le macchine apprendono tramite i dati che forniamo loro.

 

Quali soluzioni?

Georgievskaya e altri scienziati che la pensano allo stesso modo hanno cominciato a studiare la questione e ad agire. “Ci siamo resi conto che è essenziale sviluppare programmi che testano gli algoritmi di intelligenza artificiale per la discriminazione e i pregiudizi“, ha affermato Georgievskaya. “E abbiamo iniziato a sperimentare con i dati, i metodi e le metriche. La nostra azienda non è solo incentrata sulla bellezza, ma anche sulla sanità e sui biomarcatori visual-imaging della salute. E lì abbiamo trovato molti problemi nei pregiudizi sull’età, il sesso, la razza e la ricchezza“.

Zhavoronkov, invece, prevede che Diversity.ai riunirà un gruppo eterogeneo di persone con una prospettiva “nuova”, che non avrà paura di pensare in modo creativo. Gli obiettivi immediati di Diversity.ai sono i seguenti.

  • Stabilire un forum di discussione per gli esperti sui problemi di IA, razza, genere, età e per i biologi, i responsabili politici e gli studiosi di etica.
  • Fissare degli incontri per discutere i possibili problemi di discriminazione nell’IA e delle strategie per ridurre al minimo l’esclusione e i pregiudizi.
  • Sviluppare una serie di linee guida e di meccanismi di validazione per testare i sistemi con apprendimento profondo e altre soluzioni di elaborazione cognitiva per i pregiudizi di razza, sesso, età ed etnia.
  • Creare un database con accesso libero per consentire agli sviluppatori di addestrare gli algoritmi su insiemi di dati di minoranza.

Il gruppo consultivo di Diversity.ai deve ancora formarsi del tutto, ma ci sono già rappresentanti di un certo spessore. C’è chi proviene dall’organizzazione no-profit OpenAI, da Nvidia e dal Future of Humanity Institute dell’Università di Oxford.

C’è Nell Watson che ha fondato OpenEth, ovvero una società no-profit che compie ricerche sull’etica delle macchine e che ha lo scopo di sviluppare sistemi di IA etici e imparziali.

C’è anche Roman Yampolskiy, esperto informatico che studia il futuro dell’intelligenza artificiale e dei robot. Di recente ha anche pubblicato, insieme a Federico Pistono, uno studio su come costruire un’intelligenza artificiale cattiva proprio per evidenziare alcuni problemi etici e morali.

Insomma, sta nascendo una rete di società ed organizzazioni che hanno l’obiettivo di sviluppare macchine che evitino errori basati su pregiudizi. Di sicuro programmare la morale per l’intelligenza artificiale non è un compito facile. Fattori culturali e sociali hanno un peso importante e creare delle linee guida generali sarà un compito arduo. Ma abbiamo iniziato a discuterne e a pensare a delle possibili soluzioni: questo è un passo fondamentale.

 

Troppa supervisione blocca il progresso?

C’è chi sostiene che un’eccessiva supervisione, il costante controllare e testare possa provocare l’interruzione del progresso tecnologico. Ciò può essere vero in alcuni casi, in altri un po’ meno. Per la questione dell’IA, credo che il processo di supervisione sia non solo utile, ma anche necessario. Non perché alla fine ci ritroveremo a combattere macchine alla Terminator, ma perché già abbiamo a che fare con macchine che agiscono in base a pregiudizi umani.

I danni attualmente possono essere minimi, ma cosa potrebbe succedere in futuro? Sistemi di IA che collezionano, organizzano e analizzano miliardi di dati avranno un ruolo sempre più importante nelle società. E se continueranno a commettere errori macchiati dal pregiudizio dovremo confrontarci con spiacevoli conseguenze. Immagina sistemi di IA offrire servizi con contenuti offensivi, etichettare come criminali persone innocue, suggerire alle risorse umane candidati che possiedono solo determinate qualità a discapito di altre, formulare ipotesi scientifiche ed economiche che si riveleranno sbagliate e che causeranno problemi alla sanità, all’ambiente e alla società.

Discutere, supervisionare e agire nel presente significa avere a disposizione tecnologie che si adatteranno al meglio ai nostri valori. Come ha detto Georgievskaya: “Le tecnologie e gli algoritmi ci circondano ovunque e diventano parte essenziale della nostra vita quotidiana. Abbiamo sicuramente bisogno di insegnare agli algoritmi a trattarci nel modo giusto, cosicché in futuro possiamo vivere pacificamente.

Sono completamente d’accordo. E tu?

Fonte: Singularity Hub


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.