Intelligenza Artificiale

Programmare la morale per l’intelligenza artificiale: è possibile?

Il progresso dell’intelligenza artificiale (IA) ci spinge inevitabilmente a porci delle domande. Fin dove riusciremo ad arrivare? Saremo mai in grado di costruire un’intelligenza sintetica al livello di quella umana? Prima di spingerci oltre a ciò che possiamo immaginare, vale la pena considerare lo stato attuale della tecnologia. Facciamo passi avanti ogni anno, è vero, ma abbiamo bisogno anche che le macchine seguano un codice morale. Per la nostra sicurezza nelle fabbriche, in strada, negli uffici e nelle case prima che accadano eventi spiacevoli. E non mi riferisco a scenari tipo Terminator.

Se l’intelligenza artificiale seguirà le norme morali degli umani, pensate e formulate per gli umani, allora la convivenza con le macchine sarà di sicuro più serena e meno problematica. I ricercatori della Duke University stanno cerando un modo per fare questo: dotare le IA di un codice morale. Vediamo qual è il loro approccio e a che punto sono con le loro ricerche.

 

Intelligenza artificiale e morale: quale approccio adottare?

Il professore di informatica presso la Duke University, Vincent Conitzer, e il co-ricercatore Walter Sinnott Armstrong della Duke Philosophy hanno ricevuto una sovvenzione dal Future of Life Institute, un’organizzazione che incentiva lo sviluppo di tecnologie sicure per l’umanità. I due ricercatori ora hanno un compito: capire come sviluppare un’intelligenza artificiale avanzata in grado di formulare giudizi morali e agire in base ad essi. Una sfida davvero complicata, ma forse non impossibile.

Possiamo già immaginare perché sia difficile un progetto del genere. Ma le parole del professor Conitzer rendono meglio l’idea: “I giudizi morali sono influenzati dai diritti (come la privacy), dai ruoli (come nelle famiglie), dalle azioni passate (come le promesse), dai motivi e dalle intenzioni, e da altre caratteristiche moralmente rilevanti. Questi diversi fattori ancora non sono stati costruiti nei sistemi di IA.“. Il lavoro dei ricercatori sarà proprio trovare un modo per crearli.

Quando si associano alle macchine concetti come la morale e l’etica, la prima preoccupazione di molte persone è quella della sicurezza del genere umano. Una minaccia globale che attualmente non può esistere in alcun modo. E non rappresenterà una reale minaccia ancora per un bel po’ di tempo, a quanto pare. Ecco perché la squadra di Conitzer non sta cercando una soluzione per una futura apocalisse robotica. I ricercatori, invece, stanno iniziando dalle basi del problema. Ovvero are in modo che i sistemi di IA siano capaci di compiere difficili scelte morali che noi umani prendiamo ogni giorno.

Come si fa? I ricercatori dell’Università di Duke stanno analizzando le decisioni morali delle persone per scoprire quali schemi si ripetono e come questi possono essere riprodotti in un’intelligenza artificiale. Conitzer ha spiegato: “Quello su cui stiamo lavorando è avere davvero persone che prendono decisioni morali o che dichiarano quale decisione prenderebbero in una certa situazione, e poi usiamo l’apprendimento automatico per provare a identificare lo schema generale e determinare l’estensione che potremmo riprodurre per questo tipo di decisioni.“.

In sostanza, si tratta di fare delle previsioni su ciò che farebbe un umano in una determinata situazione. Conitzer ha continuato: “Se potessimo diventare molto bravi a prevedere quale tipo di decisioni le persone prendono in questi tipi di circostanze etiche, allora bene, potremmo prendere noi stessi queste decisioni nella forma di un programma per computer.“.

Ma poi si arriva a un altro problema. La morale non è universale: cambia da paese a paese. E inoltre i nostri giudizi morali non sono oggettivi. Come proseguire a questo punto? Conitzer affronta il problema rifacendosi a qualche decennio fa: “Se avessimo fatto gli stessi test etici un centinaio di anni fa, le decisioni che otterremmo dalle persone sarebbero molto più razziste, sessiste, e di altro genere di cose che ora non vedremmo come ‘buone’. In modo simile, in questo momento, il nostro sviluppo morale non ha raggiunto il suo apice, e tra un centinaio di anni le persone potrebbero percepire che alcune delle cose che facciamo adesso, ad esempio come trattiamo gli animali, siano del tutto immorali. Quindi, c’è un tipo di rischio legato ai giudizi e al rimanere bloccati al nostro livello attuale di sviluppo morale, qualsiasi esso sia.”.

La situazione è diventata ancora più complessa, vero? Tuttavia, per risolvere questi problemi, i ricercatori stanno unendo metodi e tecniche dell’informatica, della filosofia, dell’economia e della psicologia. Potremmo definirlo un vero approccio interdisciplinare. Che sia la strada giusta? Non possiamo saperlo con certezza, ma sembra comunque un buon modo per iniziare a trovare delle risposte più precise in un ambito dove i confini sono molto labili.

 

Se e quando riusciremo a sviluppare un’IA allo stesso livello dell’intelligenza umana

L’intelligenza artificiale raggiungerà mai il livello di quella umana? Questa domanda stimola la curiosità di tutti. Gli esperti hanno diverse idee a riguardo. Il professor Conitzer sembra essere abbastanza convinto: “Di recente, ci sono stati diversi passi verso un sistema simile, e penso che ci siano stati molti progressi sorprendenti… ma penso che avere qualcosa di simile a una ‘vera IA’, una che è davvero flessibile, capace di astrarre e di fare tutte quelle cose che gli umani fanno così facilmente, penso che siamo ancora molto lontani da questo.“.

Sono d’accordo: l’attuale intelligenza artificiale può fare cose pazzesche se pensiamo a programmi come quelli di Siri, Cortana, Google Now e così via. Ma sono ancora troppo complicate le cose che un computer dovrebbe tradurre in schemi da analizzare e poi applicare. Di recente abbiamo visto computer battere campioni mondiali di scacchi e Go. Sono dei grandi risultati, su questo non si discute.

Ma come ha evidenziato anche Conitzer, vincere ai giochi non è un criterio adeguato per misurare quanto l’IA sia vicina a quella umana. “Quello che è venuto fuori dalle prime ricerche per l’IA, dai primi due decenni di ricerca per l’IA, è stato il fatto che certe cose che pensavamo fossero dei reali punti di riferimento per l’intelligenza, come essere in grado di giocare bene a scacchi, erano in realtà abbastanza accessibili ai computer. Non era facile scrivere e creare un programma per il gioco degli scacchi, ma era fattibile.“.

Nella mente umana c’è molto altro che non siamo riusciti a comprendere del tutto e che quindi è molto difficile da riprodurre in un’IA. “Nel frattempo, abbiamo imparato che molti problemi che per le persone erano semplici erano in realtà abbastanza difficili per i computer, o da programmare per i computer. Per esempio, riconoscere tua nonna in una folla. Potresti riuscirci abbastanza facilmente, ma in realtà è molto difficile programmare un computer per riconoscere cose così bene.“, ha affermato Conitzer.

Eppure lui afferma che è arrivato il momento di considerare quali regole dovremmo adottare per governare le future IA avanzate. Ci vorranno ancora decenni prima di vedere un’IA in grado di eguagliare le capacità umane. Forse. Ma oggi abbiamo sistemi intelligenti in grado di prendere alcune decisioni morali importanti. Un esempio? I veicoli autonomi:

Molto spesso, molte delle decisioni che essi prendono hanno un impatto sulle persone e noi potremmo prendere delle decisioni che saranno tipicamente considerate come delle decisioni cariche di moralità. Un tipico esempio è un veicolo autonomo che deve decidere se andare diritto e scontrarsi con l’auto davanti o se girare al largo e forse fare del male a qualche pedone. Come si fa a fare questi compromessi? E penso sia davvero qualcosa sui cui possiamo fare dei progressi. Non richiede un’IA superintelligente: dei semplici programmi possono fare questi tipi di compromessi in diversi modi.“.

Le ultime parole di Conitzer sono rassicuranti: possiamo programmare l’IA dei veicoli autonomi in modo che prenderanno le decisioni più sicure. Non è facile, ma è un problema che andrebbe risolto in gran fretta. Il motivo è semplice: sempre più aziende stanno puntando sulle auto senza pilota e ci sono buone probabilità che in futuro conquisteranno le nostre strade. Quindi meglio renderle sciure il prima possibile.

Proprio di recente un uomo ha perso la vita a causa di un incidente mentre era a bordo della sua Tesla con autopilota (in fase beta) inserito. Non voglio entrare troppo nei dettagli, ma vanno chiarite un paio di cose. Autopilota non è sinonimo di driverless car e bisogna ancora capire bene la dinamica dell’incidente. Ma una cosa è certa: l’automazione e l’intelligenza artificiale possono portarci enormi vantaggi in termini di diminuzione del traffico, dell’inquinamento e degli sprechi. Ma se non saranno sicure, non andremo da nessuna parte.

E qui torniamo a quello che diceva anche Conitzer. Dobbiamo iniziare sin da ora a capire come affrontare i problemi morali per le auto senza pilota e per l’intelligenza artificiale in generale. I problemi morali sono i nostri problemi e riguardano la nostra sicurezza, il nostro benessere e la nostra serenità. Se davvero vogliamo costruire un’IA che raggiunga l’intelligenza umana, allora dobbiamo partire da qui.

 

Il futuro dell’IA

Certe volte una sfera magica sarebbe davvero di grande aiuto. Difficile orientarsi in un settore in cui diversi esperti hanno diverse idee sul futuro dell’intelligenza artificiale. Qualcuno ci va piano, rimane più con i piedi per terra, consapevole del costante progresso da una parte, ma della stupidità attuale delle macchine dall’altra. È il caso di Yoshua Bengio.

Qualcun altro, invece, è “molto più preoccupato per le macchine che prenderanno il nostro posto nell’universo e meno preoccupato per quelle che prenderanno il nostro posto nelle fabbriche.“. Mi riferisco a Roman Yampolskiy che, tra le altre cose, ha anche firmato le due lettere aperte sui rischi dell’intelligenza artificiale (qui puoi leggere la prima e la seconda). Rischi? Sì, perché alcuni esperti come lui sostengono che l’IA potrebbe arrivare a un livello tale che dovremo preoccuparci della nostra sicurezza. In futuro potremmo contribuire alla nascita di un’intelligenza artificiale cattiva, come ha spiegato nel suo studio condotto insieme a Federico Pistono.

E poi ci sono esperti come Ray Kurzweil. Anzi, dovrei dire: e poi c’è Ray Kurzweil, il quale sostiene che l’intelligenza artificiale deve essere considerata come un imperativo morale e che entro il 2029 i computer saranno intelligenti quanto noi. Eh già, lui a differenza dei suoi colleghi è più ottimista e prevede che l’IA raggiungerà le capacità umane tra poco più di un decennio. Il bello è che molte delle sue previsioni si sono realizzate. Se ha azzeccato anche questa, mi sa che molte più persone, anche quelle non specializzate in questo settore, inizieranno a prenderlo più sul serio.

Insomma, i pareri sono tanti e diversi. L’unico elemento che hanno in comune questi punti di vista è il fatto che il progresso dell’IA c’è ed è costante. Oltre a questo, non esistono certezze sul futuro dell’intelligenza artificiale. Di sicuro diventeranno più precise e soddisfacenti dal punto di vista comunicativo. Ma mi auguro che la discussione sulla morale dell’IA non tenda a svanire nei prossimi mesi. Sarebbe davvero un peccato e un freno per lo sviluppo di applicativi in grado di migliorare le nostre vite.

Fonte: Futurism
Fonte immagine: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.