Le discussioni sull’etica nell’intelligenza artificiale (IA) sono necessarie, ma al momento si sta agendo poco.
Molte di queste si perdono in generalità del tipo “la persona al centro di tutto”. Si limitano ad essere delle linee guida e a rimanere tali.
Un nuovo documento dell’AI Now Institute, però, sembra adottare tutt’altra lente di ingrandimento sulle implicazioni sociali dell’IA. Il succo del report è che i tentativi fatti finora per inquadrare l’IA in una cornice etica sono stati fallimentari.
Kate Crawford, cofondatrice dell’AI Now Institute, è stata intervistata da Wired sull’argomento. Ha spiegato perché c’è ancora confusione nell’etica dell’IA e quali dovrebbero essere i prossimi passi.
Il punto di vista di Kate Crawford
Verso la fine del nuovo report, esci allo scoperto e dici: “Le definizioni attuali dell’etica dell’IA stanno fallendo”. Il che suona tragico.
Si discute molto su come mettere insieme codici etici per questo settore. Ancora non ne abbiamo uno. Abbiamo un insieme di ciò che penso siano importanti sforzi guidati da diverse organizzazioni, tra cui IEEE, Asilomar e altre.
Ma quello che vediamo ora è un vero e proprio divario tra i principi di alto livello – chiaramente molto importanti – e quello che sta accadendo nel campo dello sviluppo quotidiano di sistemi di apprendimento su larga scala.
Abbiamo letto tutti i codici etici esistenti che sono stati pubblicati negli ultimi due anni che considerano specificamente i sistemi algoritmici e di IA. Poi abbiamo osservato la differenza tra gli ideali e quello che stava realmente accadendo. Quello che occorre più urgentemente ora è che queste linee guida etiche siano accompagnate da meccanismi di responsabilità molto forti.
Possiamo dire che vogliamo che i sistemi di IA siano guidati con i più alti principi etici, ma dobbiamo assicurarci che ci sia qualcosa in ballo.
Spesso quando parliamo di etica, dimentichiamo di parlare di potere. Le persone hanno spesso le migliori intenzioni. Ma vediamo una mancanza di riflessione su come le asimmetrie di potere reale stiano interessando comunità diverse.
Il messaggio di fondo del rapporto sembra essere che ci stiamo muovendo troppo in fretta: non ci stiamo prendendo il tempo per fare bene queste cose.
Probabilmente lo definirei diversamente. Il tempo è un fattore, ma lo è anche la priorità. Se avessimo speso tanto denaro e avessimo impiegato molte persone a pensarci, a lavorarci e a testare empiricamente gli effetti sociali ed economici più ampi di questi sistemi, usciremmo da una base molto più forte.
Chi è che sta creando standard industriali che dicono, ok, questo è il sistema di prova di base d’anteprima che devi superare, ecco come mostrare pubblicamente come hai testato il tuo sistema e con quali tipi diversi di popolazioni, e questi sono i limiti di fiducia che sei disposto a mettere dietro il tuo sistema o prodotto?
Queste sono le cose alle quali siamo abituati nei settori del test di farmaci e di altri sistemi indispensabili, anche per cose come la sicurezza delle acque nelle città. Ma solo quando li vediamo fallire, ad esempio in luoghi come Flint, Michigan, che ci rendiamo conto di quanto ci affidiamo sulla prova di questa infrastruttura, così che possa essere sicura per tutti.
Nel caso dell’IA, non abbiamo ancora questi sistemi. Dobbiamo formare le persone per far testare loro i sistemi di IA e creare questi meccanismi di sicurezza e di equità. È qualcosa che possiamo fare adesso.
Dobbiamo mettere un po’ di urgenza dietro la priorità della sicurezza e dell’equità, prima che questi sistemi vengano distribuiti tra le popolazioni umane.
Vuoi ottenere ciò prima che ci sia un’equivalente IA del disastro Flint.
Penso sia essenziale.
Adesso il panorama tecnologico è dominato da una manciata di società gigantesche. Allora come si farà?
Questo è il nocciolo della questione. Come ricercatrice in quest’area, vado per gli strumenti che conosco. Possiamo davvero fare un enorme importo aumentando il livello e il rigore della ricerca sugli impatti umani e sociali di queste tecnologie.
Un posto in cui riteniamo di poter fare la differenza: chi siede al tavolo della progettazione di questi sistemi? Al momento ci sono ingegneri ed esperti di informatica che stanno progettando sistemi che riguardano tutto, dalla giustizia penale all’assistenza sanitaria, all’educazione.
Ma allo stesso modo in cui non ci aspetteremmo che un giudice federale ottimizzi una rete neurale, non dovremmo aspettarci che un ingegnere capisca il funzionamento del sistema giudiziario penale.
Pertanto, abbiamo una raccomandazione molto forte: l’industria dell’IA dovrebbe assumere esperti di discipline che vanno oltre l’informatica e l’ingegneria e assicurare che queste persone abbiano potere decisionale.
Ciò che non sarà sufficiente è portare consulenti alla fine, quando hai già progettato un sistema e stai già per distribuirlo. Se non stai pensando al modo in cui i pregiudizi sistemici possono essere propagati attraverso il sistema della giustizia penale o la polizia predittiva, allora è molto probabile, se stai progettando un sistema basato su dati storici, che stia perpetuando quei pregiudizi.
Affrontare ciò è molto più che una soluzione tecnica. Non si tratta solo di modificare i numeri per provare a rimuovere le diseguaglianze sistemiche e i pregiudizi.
Si tratta di una specie di piano di riforma dall’interno. Ma in questo momento sembra più che i ricercatori si trovino all’esterno, ottengono accesso a un po’ di dati e se ne escono con questi studi bomba che mostrano come sono negative le cose. Ciò può generare preoccupazione pubblica e vincere la copertura mediatica, ma come si fa a fare quella svolta per cambiare le cose dall’interno?
Di sicuro quando pensiamo alla quantità di capacità e risorse nel settore dell’IA in questo momento, non è così difficile. Dovremmo vederlo come un problema di sicurezza di base.
Si influenzerà la capacità di qualcuno di ottenere un posto di lavoro, di uscire dalla prigione, di entrare in un’università. Almeno dovremmo aspettarci una profonda comprensione di come questi sistemi possano essere resi più giusti e di quanto siano importanti queste decisioni per la vita delle persone.
Non credo che sia chiedere troppo. E penso che i produttori più responsabili di questi sistemi vogliano veramente che funzionino bene. Si tratta di iniziare a sostenere quelle buone intenzioni con una forte ricerca e una forte soglia di sicurezza.
Non è al di là della nostra capacità. Se l’IA si muoverà a questo rapido ritmo nelle nostre istituzioni sociali fondamentali, lo considero assolutamente essenziale.
Sei associata con Microsoft Research e Meredith Whittaker [l’altra cofondatrice] è associata con Google. Non puoi semplicemente andare alle giuste riunioni e dire: “Perché non lo facciamo?”
È assolutamente vero che sia Meredith sia io abbiamo un posto a tavola con aziende che hanno un ruolo qui, e questo è parte del perché queste raccomandazioni provengono da un luogo di conoscenza.
Capiamo come questi sistemi vengono costruiti e possiamo vedere passi positivi che potrebbero renderli più sicuri e più giusti. Per questo motivo pensiamo sia davvero importante che lavoriamo in un contesto indipendente, e possiamo anche fare ricerche fuori dalle aziende tecnologiche per contribuire a rendere tali sistemi il più sensibili possibile al complesso terreno sociale in cui stanno iniziando a trasferirsi.
Il nostro documento ha richiesto sei mesi, non è solo un gruppo di noi che dice, “Ehi, sono cose che pensiamo e consigliamo”. Viene fuori dalla profonda consultazione con i migliori ricercatori.
Le raccomandazioni sono raggiungibili, ma non sono facili. Non sono un modo per lanciare il fumo negli occhi della gente e dire: “Va tutto bene, abbiamo tutto sotto controllo”. Stiamo dicendo che sono necessari interventi e che sono urgenti.
Negli ultimi 18 mesi abbiamo visto un aumento di interesse in queste domande sui pregiudizi e sul machine learning, ma spesso vengono compresi in modo molto limitato come un problema puramente tecnico. E non lo è – per comprenderlo abbiamo bisogno di ampliare l’obiettivo. Pensare a come capiamo i pregiudizi sistemici a lungo termine e a come questo sarà perpetuato dai sistemi se non ne siamo consapevoli.
Cinque anni fa c’era questa affermazione che i dati erano neutrali. Ora è stato dimostrato che non è così. Ma ora c’è una nuova rivendicazione: i dati possono essere neutralizzati! Nessuna di queste cose è vera. I dati recano sempre i segni della loro storia.
Questa è la storia umana, detenuta in questi set di dati. Quindi, se stiamo provando ad usarli per addestrare un sistema, formulare raccomandazioni o prendere decisioni autonome, dobbiamo essere profondamente consapevoli di come questa storia ha funzionato. È molto più che una questione puramente tecnica.
Parlando della storia, alla fine degli anni di Obama questo tipo di ricerca stava ricevendo un gran numero di sostegno dal governo. Quanto sei ottimista per questo programma ora che l’amministrazione di Trump non sembra interessata?
Il governo dovrebbe assolutamente seguire questi problemi molto attentamente. Tuttavia, non si tratta solo degli Stati Uniti. Ciò che sta accadendo in Europa adesso è di importanza cruciale: quello che sta succedendo in India, in Cina. Cosa succederà il prossimo anno a maggio con il GDPR [le norme rigorose della nuova privacy dell’Unione europea]?
Continueremo a fare la ricerca che pensiamo guiderà la politica in futuro. Quando e dove verrà adottata non è una nostra decisione – è ben oltre il nostro livello contrattuale. Ma quello che possiamo fare è fare il lavoro migliore, in modo che quando le persone prenderanno decisioni sui sistemi critici di sicurezza, sui diritti e le libertà, sul lavoro e sull’automazione, potranno fare politica basata su una forte ricerca empirica.
Desideri anche maggiore diversità nelle squadre che creano IA, e non solo nei settori di competenza.
È molto più importante di assumere semplicemente – dobbiamo parlare della cultura sul posto di lavoro e dobbiamo parlare di quanto siano difficili queste questioni di inclusione.
Soprattutto in seguito al documento di James Damore, non è mai stato più chiaro di così quanto lavoro bisogna fare.
Se si hanno camere molto omogenee, che hanno tutte le stesse esperienze di vita e contesti educativi, e sono tutti relativamente ricchi, la loro prospettiva sul mondo rispecchia quello che già conoscono. Ciò può essere pericoloso quando costruiamo sistemi che interessano così tante popolazioni diverse.
Quindi pensiamo che sia assolutamente fondamentale cominciare a rendere importante la diversità e l’inclusione – per renderlo qualcosa di più di un insieme di parole che vengono pronunciate e invocate al momento giusto.
Un invito all’azione
Kate Crawford è stata chiara e diretta. Abbiamo chiacchierato molto sul tema dell’etica nell’intelligenza artificiale. Forse anche troppo. Bisogna iniziare a fare qualcosa.
Uno dei principali problemi su cui si è soffermata è quello dei pregiudizi umani trasmessi nelle IA. I dati non sono neutrali e tutto ciò che sbagliamo nella progettazione di un sistema di IA ce lo ritroveremo nel suo funzionamento.
I pericoli sono diversi: sempre più sistemi automatizzati avranno potere decisionale in merito a impieghi, assicurazioni, conti bancari, educazione, giustizia penale e così via. Un’IA con pregiudizi potrebbe quindi comportare ingiustizie e diseguaglianze sociali ed economiche.
Ma è possibile progettare IA senza i nostri pregiudizi? Kate Crawford sostiene di sì e potremmo metterci al lavoro sin da ora. Un primo passo in questa direzione potrebbero farlo proprio le aziende che sviluppano IA evitando di lasciare tutto il lavoro agli ingegneri.
Giuristi, sociologi, economisti ed altri esperti potrebbero condividere le loro conoscenze in modo che le IA funzionino meglio. La diversità e la multidisciplinarietà sono punti di forza che andrebbero sfruttati dal primo momento.
Questa è l’urgenza segnalata da Kate Crawford. Ed è curioso che questa proposta provenga da una ricercatrice della Microsoft, uno dei colossi tecnologici che stanno guidando questa evoluzione digitale. È interessante perché lei e i suoi colleghi possono conoscere alcune dinamiche interne di una grande società, analizzarne le criticità e trovare soluzioni in modo indipendente.
Non possiamo sapere se questa “riforma dall’interno” averrà o meno, ma sarà importante osservare cosa succederà. Perché gli algoritmi avranno un ruolo sempre più incisivo nelle nostre vite.
Per ricevere aggiornamenti dal blog sulle tecnologie digitali dirompenti, iscriviti alla newsletter. Fai in modo che questa decisione sia tua e non influenzata da un algoritmo. 😉
Foto: Flickr