L’intelligenza artificiale dimostra la sua utilità con il riconoscimento vocale, le traduzioni, il controllo di robot e dei veicoli autonomi. Ma ha anche dei difetti non trascurabili, come acquisire bias razziali e di genere attraverso i dati che le diamo in pasto. E quando le IA hanno questi pregiudizi, sistemi di riconoscimento facciale come quelli adottati dalla polizia USA possono fallire miseramente.

Come evitare di trasmettere i nostri bias alle macchine? Possiamo farlo in modo che la polizia possa svolgere il suo lavoro in modo imparziale? Possiamo rendere qualsiasi sistema di IA più equo?

Se avessimo tutte le risposte non ci sarebbe da discutere. Fei-Fei-Li, però, ci risolleva il morale grazie a un’intervista di Wired. Lei insegna informatica alla Stanford University, ha lavorato in Google, cofondato l’istituto Human-Centerd Artificial Intelligence e da maggio di quest’anno è entrata nel consiglio d’amministrazione di Twitter.

Riprendo alcuni passaggi dell’intervista perché spiega con semplicità e chiarezza i problemi dell’IA con bias razziali e quali potrebbero essere le soluzioni.

IA senza bias: responsabilità dei produttori

I colossi come Facebook, Amazon, IBM e Microsoft producono anche sistemi di riconoscimento facciale. Di recente, però, hanno limitato le vendite alla polizia. Forse si stanno rendendo conto (era ora) di quanto possano risultare ancora discriminanti queste tecnologie. Ma non basta limitare le vendite: bisogna assicurarsi che le aziende non lancino sul mercato IA con bias.

Come fare? Secondo Fei-Fei Li, è necessario un dialogo tra gli stakeholder e un piano d’azione comune.

«Ciò significa riunire le parti interessate della nostra società, tra cui organizzazioni no profit, comunità, tecnologi, industrie, politici, accademici e non solo. La tecnologia di riconoscimento facciale è un’arma a doppio taglio, e ovviamente dobbiamo considerare i diritti individuali e la privacy rispetto alla sicurezza pubblica. La società civile deve riunirsi per pensare a come regoliamo le applicazioni di queste tecnologie. Le aziende devono svolgere un ruolo. Sono responsabili e dovrebbero essere ritenute responsabili proprio come le altre parti interessate.»

Se i produttori fossero considerati responsabili penalmente, non avremmo in vendita IA con pregiudizi di qualsiasi tipo. Ma il problema di fondo è il razzismo.

Al momento facciamo ancora fatica a ritenere responsabile chi è violento nei confronti di altre persone per motivi di “razza”. Figuriamoci preoccuparsi di IA razziste oppure omofobe.

Facciamo ancora fatica a condannare un poliziotto per un omicidio di matrice razzista, nonostante ci siano filmati che ne testimoniano le crudeltà. Se non cambia questo, il problema non verrà mai sradicato, e nemmeno scalfito.

L’IA può rendere più equi gli interventi della polizia?

Per rispondere a questa domanda, Fei-Fei Li ha fatto riferimento ad alcuni lavori svolti presso la Stanford University.

Uno di questi è firmato dai suoi colleghi Dan Jurafsky e Jennifer Eberhardt che hanno usato l’intelligenza artificiale per analizzare il linguaggio adottato dalla polizia attraverso i filmati delle bodycam.

«Hanno dimostrato che esiste una significativa discrepanza tra chi è stato fermato dalla polizia e il linguaggio della polizia: gli agenti parlavano in modi meno rispettosi con le persone nere. Usando le tecniche di intelligenza artificiale del linguaggio naturale, possiamo ottenere approfondimenti su noi stessi e sulle nostre istituzioni in modi che non avremmo potuto fare prima.»

Il secondo lavoro di riferimento è quello del professor Sharad Goel che sta studiando come migliorare l’equità nei rapporti scritti della polizia.

Se in un rapporto di polizia si scrive “c’è una donna asiatica nel parcheggio, l’altezza è di 5,3 piedi, guida una Toyota, ha urtato contro un’auto”, le informazioni possono influenzare il processo decisionale.

«Usando le tecniche di elaborazione del linguaggio naturale, [il rapporto] lo si potrebbe anonimizzare efficacemente con “donna” o “persona A” invece di “donna asiatica”, oppure “colore di capelli B” invece di “capelli castano scuro”, per esempio.»

In questo modo chi leggerà i rapporti otterrà solo le informazioni essenziali, libere da qualsiasi preconcetto che possa condizionare il lavoro della polizia. Non sarebbe più giusto così?

Lezioni da fare nostre

Credo che Fei-Fei Li ci abbia dato delle valide idee su cui riflettere. Il filo che le lega è che, per risolvere il problema dei pregiudizi nelle intelligenze artificiali, i protagonisti devono essere diversi e collaborare.

Devono provenire da vari ambiti disciplinari, dall’informatica alle scienze sociali, dall’economia alla giurisprudenza. Con la collaborazione è più facile definire le responsabilità riguardo la produzione e l’uso di tecnologie di riconoscimento facciale.

«Dobbiamo lavorare insieme per mettere i giusti guardrail nell’applicazione di tecnologie come il riconoscimento facciale che riflettono i valori della nostra società. Dalla tecnologia alla società civile, dalle forze dell’ordine ai responsabili politici, credo che tutti dovremmo cercare di far parte delle soluzioni.»

Un altro aspetto importante è promuovere l’uso positivo della tecnologia, proprio come ha fatto la professoressa citando gli esempi dei suoi colleghi. Ora sappiamo che usare l’IA nella polizia senza recare danni o discriminare è possibile. Le dimostrazioni ci aiutano a contestare chi afferma che un sistema di riconoscimento facciale senza bias è inevitabile.

Inoltre, i dati che provano la differenza di comportamento dei poliziotti nei confronti degli afroamericani sono l’ulteriore conferma che il razzismo è presente anche nelle istituzioni che dovrebbero farci sentire sicuri e tutelati. Forse dovremmo rivedere anche il modo in cui si reclutano i futuri poliziotti. Magari i suggerimenti potrebbero arrivare proprio da un’IA priva di pregiudizi.

Prima di riparare le macchine, dunque, dovremmo riparare il nostro sistema operativo. Fei-Fei Li ha citato una frase di Shannon Vallor, filosofa della tecnologia, che avrà sempre senso:

“Non esistono valori indipendenti delle macchine. I valori delle macchine sono valori umani.”

È inaccettabile che una tecnologia di riconoscimento facciale continui a commettere errori a causa dei bias umani.

Come è successo a Robert Julian-Borchak Williams, un afroamericano che è stato arrestato solo perché un sistema di riconoscimento facciale ha sbagliato l’identificazione. Aggiungiamoci lo scarso lavoro della polizia di Detroit e la frittata è fatta. Tra l’altro il signor Williams non assomigliava per niente al sospettato. L’unica cosa che aveva in comune con l’indiziato era il colore della pelle.

Per quanto tempo ancora persone innocenti dovranno essere accusate, arrestate, condannate o addirittura uccise?

Rimani aggiornato sulle novità delle tecnologie digitali dirompenti.

Iscriviti al gruppo #DigitalEvolution

Digital Evolution

Qui possiamo discuterne insieme.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.