Summit 2016 dell'IEEE sull'intelligenza artificiale e l'etica

Intelligenza artificiale ed etica: il summit 2016 dell’IEEE

Il 15 novembre scorso, a Bruxelles, tecnologi, sociologi, filosofi, giuristi e politici si sono riuniti per discutere del rapporto tra intelligenza artificiale (IA) ed etica. L’IEEE Ai & Ethics Summit 2016 è stata un’occasione per riflettere su come integrare le considerazioni etiche nei progetti innovativi dell’IA.

Durante il summit, diverse domande sono state poste sul tavolo della discussione. L’intelligenza artificiale procurerà benefici all’umanità? Quali garanzie saranno necessarie per proteggere l’enorme quantità di dati personali necessari per alimentare l’IA? Quand’è che vedremo i primi cambiamenti nelle responsabilità sul posto di lavoro? Quale impatto avranno sui lavoratori? Chi si prenderà la responsabilità in caso di malfunzionamento?

Gli esperti hanno provato a dare delle risposte con alcuni interventi sul tema che sono stati poi riassunti in un documento. Ho riportato quelli che secondo me sono stati gli interventi chiave del summit.

 

Sistemi autonomi – Gestione del rischio e della ricompensa

I sistemi autonomi offrono benefici significativi in diversi settori: produzione, trasporto, sanità, servizi finanziari, esplorazione e manutenzione. Tuttavia, questi benefici sono controbilanciati da importanti questioni legali, sociali ed etiche che influenzano in modo notevole le società. Quindi, la domanda principale del primo panel è stata: qual è il modo migliore per gestire il rischio e la ricompensa?

Jérôme Perrin, VP Scientific Director di Groupe Renault, ha iniziato la discussione con l’esempio dei veicoli autonomi. “Se vi ricordate le leggi di Asimov, in sostanza una di questa era che il robot alla fine dovrebbe sacrificare se stesso o suicidarsi se dovesse ferire un essere umano. Nel caso dei veicoli autonomi, dove si ha un essere umano fuori e dentro il veicolo, c’è un dibattito. Riguarda la gestione del rischio.

Secondo Perrin, un ingegnere può progettare degli algoritmi, ma se un utente può modificarne i parametri e qualcosa dovesse andare storto, allora la responsabilità è del conducente.

Kay Firth-Butterfield, giudice e co-fondatrice di AI Austin e del Consortium on Law and Ethics of AI and Robotics, ha dichiarato: “Nel diritto comune si potrebbe sostenere che se si imposta la propria auto in modo che possa uccidere solo altre persone e non se stessi, può essere considerato un omicidio premeditato.“.

Poi ha aggiunto: “Abbiamo bisogno di progettare procedure etiche e dobbiamo farlo nel ciclo del prodotto e anche nei cicli di vendita. Uno dei problemi che abbiamo negli Stati Uniti è che una società americana è progettata solo per servire i suoi azionisti, la massimizzazione del profitto è l’unica motivazione. In Europa si hanno diverse motivazioni. Penso che ci sia un figura tipo Chief Values Officer [Amministratore delegato per i valori] nelle aziende.“.

Raja Chatila, direttore dell’Institute of Intelligent Systems and Robotics presso l’università Pierre and Marie Curie, pone l’accento sui divieti preventivi. Quando e come bisogna proibire una simile tecnologia? Ha davvero senso porre un divieto in casi del genere? Secondo Chatila non ha molto senso. “Infatti, negli ultimi 3 anni ci sono state discussioni sulle armi autonome durante il convegno delle Nazioni Unite sulle armi non convenzionali per decidere se un divieto debba essere pronunciato o meno. E il divieto, se deciso, si applicherebbe a definizioni molto specifiche di armi autonome. Quindi non credo che vietare preventivamente sia molto utile. Se viene applicato, ci bloccherà – intendo l’umanità – nel fare ricerca, nel comprendere il fenomeno o nello sviluppare applicazioni utili.”

I pareri di questi esperti ci mostrano un aspetto importante. La gestione del rischio nell’ambito dell’intelligenza artificiale è uno degli elementi più delicati su cui bisogna lavorare. E abbiamo ancora molta strada da fare.

 

Programmare l’etica umana: ma a vantaggio di chi?

Ci sono state già proposte per programmare la morale delle macchine. Ma le macchine saranno davvero in grado di prendere decisioni che noi umani consideriamo etiche e morali? Il secondo panel del summit era incentrato su questo argomento.

Secondo Joanna Bryson, ricercatrice del Dipartimento di Informatica presso l’Università di Bath e del Center for Information Technology Policy presso la Princeton University, ci sono almeno tre modi con cui possiamo programmare algoritmi etici.

Una possibilità è che gli esseri umani programmino in modo esplicito nelle istruzioni. Ci limitiamo a dire: ‘in questa condizione, fai questo’, ‘in quest’altra condizione, fai così’. Quindi possiamo fissare le priorità. Ci sono ancora preoccupazioni etiche a tal proposito. Ad esempio, se tutte le persone coinvolte sono di sesso maschile, trascureranno le considerazioni della diversità?

Un’altra possibilità è fare in modo che i sistemi imparino le regole in modo automatico. Anche in questo caso è possibile addestrare i sistemi ad imparare le regole, o si potrebbe fare una sorta di apprendimento statistico, o apprendimento non simbolico come le reti neurali artificiali profonde dove in seguito abbiamo meno accesso diretto per vedere cosa è stato appreso. Non penso che questa sia la preoccupazione più grande. Non siamo nemmeno così bravi a spiegare perché gli umani fanno le cose. Penso che un problema più grande ci sia – ed è qualcosa che in realtà la Casa Bianca sta dicendo da parecchio. Se impariamo a conoscere la società e a capire come facciamo le cose ora, possiamo rafforzare le cose cattive così come le cose buone. Quindi, l’apprendimento automatico lontano dalla nostra società viziata replicherà i suoi difetti.

Bryson si è poi espressa sull’etica: “Quando consideriamo la nostra etica non dovremmo mai pensare rigorosamente agli esseri umani come mezzo. Alcune persone pensano che non bisogna pensare agli esseri umani come mezzo, ma naturalmente noi siamo mezzi. Noi siamo quelli che fanno tutto. Quindi gli esseri umani sono mezzi. Ma non siamo solo i mezzi, dobbiamo essere sempre i fini. E penso che ciò che ispira la mia etica è che l’umanità sia di fondamentale importanza e che dobbiamo essere supportati.”

La studentessa di dottorato presso l’università di Oxford e l’Alan Turing Institute Corrine Cath, invece, ha sollevato un punto critico. Le macchine possono prendere decisione etiche e morali o c’è sempre il bisogno della presenza umana? Secondo Cath, “la questione non è se gli esseri umani debbano essere sempre presenti nel circuito perché lo sono sempre ad un certo livello“.

Anche se si lavora con algoritmi che provengono dalle reti neurali dove gli umani per gran parte sono messi da parte, per qualunque cosa l’algoritmo verrà applicato, probabilmente si influenzeranno le persone. Finora abbiamo visto che quando lasciamo che gli algoritmi vadano fuori controllo, otteniamo risultati davvero negativi soprattutto per le persone vulnerabili. Basti pensare agli algoritmi per le condanne nell’aula di giustizia, agli algoritmi per la sorveglianza predittiva e anche al tentativo di assumere nuove persone con un algoritmo che guarda i loro cv.”

Secondo Cath, gli algoritmi non riusciranno ad evidenziare tutti i pregiudizi e gli errori presenti nelle società. “Direi sicuramente che c’è bisogno di un essere umano nel ciclo […]. E non abbiamo nemmeno iniziato a parlare delle armi autonome! In quel caso, se si fa a meno dell’essere umano, si entra anche in una zona molto grigia di diritto umanitario internazionale.” Cath non è sicura che sia possibile programmare l’etica. Pensa, invece, che sia possibile approssimare l’etica e che ci sono cose molto difficili da insegnare ad un algoritmo.

Mady Delvaux, membro del parlamento europeo che di recente ha proposto un quadro giuridico per la robotica, si è messa nei panni dei cittadini. Come spiegare loro, in modo chiaro e trasparente, il funzionamento dei sistemi di IA e quali dati raccolgono?

Delvaux afferma che nel parlamento europeo c’è un dibattito appassionato sulla privacy e la protezione dei dati. “Ad esempio, i robot per l’assistenza che hanno accesso a una sfera molto privata dovrebbero avere dei meccanismi che si possono spegnere di volta in volta. Vogliamo più privacy. La mia domanda per la comunità scientifica sarebbe: è possibile fornire ciò?

Inoltre, Delvaux ritiene che le macchine possono mostrare di percepire empatia, ma non potranno mai percepirla per davvero. “Non impediremo che l’IA e la robotica siano sul mercato, ma ciò che possiamo fare e assicurare che almeno gli umani abbiano l’opzione di dire vogliamo o non vogliamo questo.

Sarah Spiekermann, dell’Institute for Management Information Systems, sostiene che “l’era post-digitale riguarda la demistificazione delle tecnologie“. Cosa significa? Significa che viviamo in un tempo in cui conosciamo i limiti della tecnologia, ma allo stesso tempo lavoriamo con tecnologia alimentata con energia. E la parte più interessante del processo di demistificazione riguarda la parola “migliore” spesso adottata nel contesto delle tecnologie digitali.

Che tutto ciò che è digitale sia automaticamente migliore è un’importante falsa credenza. Credo che la tecnologia ci aiuti a prendere decisioni in molti aspetti. Non sono contraria alla tecnologia, ma quella che respingo con fermezza è l’idea che qualsiasi cosa che sia nuova e digitale sia automaticamente migliore.”

Proprio così. Generalizzare, sopratutto in casi come questi, è sbagliato. Il problema è che è difficile tenere il passo del progresso della tecnologia digitale che ha un ritmo sempre più accelerato. Ma per evitare di ritrovarci in un mare di problemi, dobbiamo iniziare ad individuare i punti critici fondamentali, analizzarli e risolverli. Una sfida difficile che diventa ancora più complessa quando entriamo nell’ambito dell’etica e della morale.

 

Implicazioni sociali – Pericoli e promesse dell’IA

Ci sono anche delle conseguenze dal punto di vista sociale derivanti dal crescente uso dell’IA in diversi settori. Ad esempio, in futuro le assicurazioni sanitarie potranno basarsi su valutazione automatiche dei fattori di rischio. Come ci assicureremo che questo processo continui ad avere una forte componente etica allineato con i valori umani? I sistemi saranno sicuri? Chi controllerà i controllori?

Nikolaos Mavridis, laureato al MIT e fondatore di Interactive Robots and Media Lab (IRML), ha chiesto di “immaginare un mondo in cui i robot e IA sono parte della nostra vita quotidiana non solo come aiutanti, ma anche come compagni e amici. E poi di immaginare un mondo in cui tutti noi potremo prendere parte nelle giganti entità intelligenti che sono costituite potenzialmente da migliaia di esseri umani e macchine.”

Secondo Mavridis, anche se è una cosa del genere dovesse accadere per 5 secondi al giorno, queste entità supererebbero i limiti delle capacità umane e dell’IA. Le conseguenze si rifletteranno soprattutto sul mondo del lavoro: “Per ogni lavoratore americano con una retribuzione oraria inferiore a 20$, c’è l’83% di probabilità di automazione della sua attuale attività in futuro.”

Mavridis ha evidenziato un altro punto importante che riguarda il ruolo che giocano diversi soggetti nella partita dell’IA. “Prendiamo ad esempio la questione della robotica in guerra: ci sono il mondo accademico, governi, organizzazioni internazionali, l’industria militare e i mass media che giocano un ruolo molto importante. E in mezzo a tutto ciò ci sono i cittadini del mondo. Mi piacerebbe chiedere quanto i cittadini siano davvero coinvolti nel tipo di futuri possibili che potremmo avere per quanto riguarda queste tecnologie.”

Per Paul Nemitz, capo della direzione Diritti fondamentali e cittadinanza dell’Unione europea, il problema si presenta quando “l’intelligenza artificiale è in grado di fare cose che noi, come essere umani, non possiamo prevedere“.

Per me, come avvocato e decisore politico sui diritti fondamentali, la domanda chiave è: abbiamo già raggiunto il punto dove dobbiamo ammettere e vivere con il fatto che l’intelligenza artificiale creerà delle proprie nuove casualità? Questo solleva molti problemi che alla fine in una democrazia, sono convinto, i legislatori dovranno affrontare.”

Anche Aurélie Pols, avvocatessa per la governance dei dati e la privacy, ha posto l’attenzione sul ruolo umano. In particolare, ha evidenziato la condizione dei sistemi ibridi uomo-macchina: “La mia domanda principale, tenendo conto di questo possibile futuro e di tutte le altre configurazioni di sistemi umani-macchine, è: quali sono i ruoli che gli esseri umani stanno giocando in relazione all’intelligenza artificiale e alla robotica?

Prima di tutto abbiamo i creatori dei sistemi artificiali e potrebbero essere i visionari, i progettisti o gli ingegneri. Poi abbiamo i responsabili per l’approvazione di tali sistemi – persone che lavorano sul finanziamento, persone che stanno facendo pianificazione con i ministri, eccetera. Dopodiché, la fase successiva è quella dei partner di interazione con i sistemi, vale a dire persone che interagiscono con un robot o con una macchina e questo potrebbe avvenire sia in un ruolo collaborativo, in un ruolo padrone-schiavo o in tutte le altre combinazioni possibili all’interno di una squadra.”

Oltre a ciò, lentamente iniziamo ad avere addestratori di sistemi artificiali. Ma dal momento che si ha una macchina che per formare il suo comportamento si basa sull’apprendimento automatico, le esperienze passate che quella macchina ha avuto con la persona che l’ha addestrata, o con i precedenti insiemi di dati, cambierà esplicitamente il modo in cui la macchina si comporterà in futuro.”

Le cose iniziano a complicarsi, vero?

 

Conclusioni dell’IEEE AI & Ethics Summit

Il tema è delicato e complesso. Quando si tratta di intelligenza artificiale è molto più facile pensare ai vantaggi e alle comodità che essa offre. È facile pensare a ciò che può offrire ora e a quello che potrebbe offrire in futuro, ma raramente ci si concentra sugli intricati aspetti tecnici, etici, economici e sociali.

L’IEEE AI & Ethics Summit 2016 ha mostrato quanto sia importante affrontare simili discussioni e pensare alle soluzioni di problemi che potrebbero verificarsi in futuro. Non possiamo programmare algoritmi senza essere trasparenti. Non possiamo permettere il tracciamento di dati personali senza dimostrare l’affidabilità, la sicurezza e l’accuratezza dei sistemi di IA. La relazione uomo-macchina diventerà sempre più intensa e avrà un impatto sempre più notevole sulle nostre vite.

Nel mondo dell’IA ci sono parecchie domande a cui bisogna trovare una risposta, persino inerenti a problemi attuali. Immagina cosa potrebbe succedere se trascurassimo questi aspetti. Quando e se le macchine raggiungeranno il livello dell’intelligenza umana o addirittura la supereranno (singolarità tecnologica), sarà meglio che agiranno secondo i nostri valori.

Ma sarà davvero possibile programmare le macchine affinché seguano i nostri valori? Difficile dirlo, considerando anche che i valori umani cambiano da cultura a cultura. Forse, però, possiamo fare in modo che il loro comportamento sia il più possibile conforme alla nostra società. Poi, stabilendo responsabilità e ruoli umani sarà più facile iniziare a tracciare un percorso. Un percorso che vedrà sempre la centralità dell’essere umano, delle scelte che farà per se stesso, per la sua famiglia e la sua comunità.

Il giornalista John C. Havens conclude il rapporto del summit in questo modo:

Come faranno le macchine a sapere cosa valorizziamo se non conosciamo noi stessi? Non lo sapranno. A meno che non glielo diciamo, insieme.”

La strada verso il progresso dell’IA è anche la strada che ci permetterà di conoscere meglio noi stessi.

Foto: IEEE


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.