Ray Kurzweil

Ray Kurzweil sui rischi e l’etica dell’intelligenza artificiale

La domanda a cui ha risposto Ray Kurzweil, inventore e futurista, è stata la seguente: quali sono le variabili fondamentali o le basi etiche su cui dovrebbe essere costruita l’intelligenza artificiale generale?

Film e libri ci raccontano spesso dell’avvento di un’intelligenza artificiale (IA) aggressiva e spietata nei confronti del genere umano. Ma la realtà sarà ben diversa. Innanzitutto perché non esiste una sola IA, ma ne esistono milioni, anche diverse tra loro.

Eppure bisogna considerare che l’IA diventa sempre più parte integrante delle società. Per questo motivo bisogna prestare attenzione sui tipi di IA che svilupperemo.

 

Rischi ed etica dell’intelligenza artificiale

“Lasciatemi commentare sul termine intelligenza artificiale generale che non mi piace. È una critica implicita dell’intelligenza artificiale. Molte persone sentono che l’intelligenza artificiale non seguirà la grande intelligenza umana. Seguirà l’IA debole: riconoscere il linguaggio, giocare a scacchi oppure a Go, guidare auto e non l’intelligenza generale.

In realtà penso che la strada per il livello di intelligenza umana è fare piccole applicazioni al livello umano e oltre. Queste applicazioni limitate stanno diventando sempre meno limitate. Sei anni fa Watson ha sconfitto i migliori umani a Jeopardy… Jeopardy coinvolge tutta la conoscenza umana espressa nel linguaggio ed è piena di indovinelli, giochi di parole, metafore e scherzi abbastanza sottili e sofisticati. Era davvero abbastanza impressionante e negli ultimi anni l’abilità dei computer di rispondere al linguaggio sta diventando ancora più sofisticata.

I computer stanno riconoscendo migliaia di diverse categorie di immagini. Cinque anni fa le persone dicevano ‘Ragazzi, non sapete nemmeno dire la differenza tra un cane e un gatto”, il che era vero, ma ora l’IA può dire la differenza in migliaia di altre categorie, lo fa meglio degli umani. Quando DeepBlue ha vinto il campionato di scacchi nel 1997, le persone dicevano ‘Sì, facciamo notare la cosa, ma gli scacchi sono una sorta di gioco logico combinatorio, potrebbe andare altrettanto bene nella logica, ma non giocherà mai a Go’.

Si chiama algoritmo minimax, dove si elaborano diverse possibilità di mosse, ma non funziona perché ci sono troppe possibilità. Potrebbero esserci 100 mosse per ogni mezza mossa, quindi lo schema esplode e non si può usare quel metodo. Bisogna usare livelli profondi di riconoscimento dei modelli per vedere i piccoli schemi sulla tavola perché si sta provando a controllare il territorio, ma è un concetto abbastanza vago.

Proprio di recente i computer hanno battuto il miglior giocatore di Go al mondo. Una pietra miliare dopo l’altra viene raggiunta e questa è la strada per l’intelligenza artificiale generale, se queste piccole applicazioni diventano sempre meno limitate. Questo era solo un commento sul termine intelligenza artificiale generale. […]

Per quanto riguarda l’etica, è un problema difficile. In gennaio c’è stata l’Asilomar Conference sull’etica dell’IA, chiamata ‘Beneficial AI’, che era modellata sulla ben riuscita Asilomar Conference sull’etica della biotecnologia di 40 anni fa.

40 anni fa alcuni pensatori visionari hanno visto il potenziale della biotecnologia di trasformare la medicina. Si sono resi conto che ci sarebbe stata una grande promessa: alla fine avremmo sconfitto tutte le malattie e l’invecchiamento. Ma potrebbe che potrebbe esserci anche un grande pericolo: le stesse tecnologie che oggi usiamo per riprogrammare la biologia lontana dal cancro, dalle malattie cardiache, potrebbe essere usata da bioterroristi per riprogrammare un virus benigno, come quello dell’influenza, per renderlo mortale, comunicabile e nascosto.

Né la promessa né il pericolo erano possibili 40 anni fa, ma hanno visto entrambe le cose ed era abbastanza visionario a quel tempo. Poi hanno fatto una conferenza chiamata Asilomar Conference presso l’Asilomar conference center, gestito dallo stato della California, e hanno stabilito le linee guida etiche. Queste sono state perfezionate nel corso degli anni, molte sono diventate legge e, come dicevo, ora stiamo vedendo la promessa realizzata della biotecnologia. È ancora presto, ma ci sarà un’esplosione nel prossimo decennio.

Finora il numero delle persone che sono state danneggiate dalla biotecnologia abusiva, intenzionale o accidentale, è zero. Questo non significa che possiamo cancellarlo dalla lista: ‘Ok, ce ne siamo occupati’. Perché la tecnologia diventa sempre più sofisticata e bisogna continuare a rivisitarla. Ma avere queste linee guida etiche che i professionisti seguono è davvero un buon paradigma.

Abbiamo fatto una conferenza proprio un paio di medi fa incentrata sullo sviluppo di linee guida etiche per l’intelligenza artificiale. Penso sia andata bene. Il tempo dirà se queste linee guida etiche funzioneranno del tutto. In realtà è più impegnativo con l’intelligenza perché l’intelligenza è molto generale. Si possono sviluppare alcune protezioni tecniche per l’abuso della biotecnologia e anche della nanotecnologia. Sai, se qualcosa è più intelligente di te ed è dedicata alla tua distruzione, non è una buona situazione in cui trovarsi. Mettere qualche sottoprogramma nelle IA non sarà sufficiente per renderle sicure.

Detto questo, tali linee guida assicurano la comprensione della missione di ogni IA. Assicurano che queste svolgano la missione e che non possono essere adattate per altri usi malevoli. Sono delle buone linee guida, ma si può facilmente vedere come possono essere raggirate. Molte di queste tecnologie sono tecnologie a doppio uso. Il drone intelligente che sta inviando farmaci a un ospedale in Africa, che non ha strade perché la stagione piovosa le ha allagate, è una buona applicazione. Ma lo stesso drone può sganciare una bomba o qualche altra arma.

Quindi tenerle sicure è difficile, ma la mia strategia rendere sicure le IA di livello umano è addestrarle nella nostra società umana. Perché queste caratteristiche dell’IA dei film che abbiamo visto, che sono distopiche, dove c’è l’IA contro un gruppo di umani coraggiosi per il controllo dell’umanità, non sono molto realistiche. Guarda ad oggi: non abbiamo una o due IA nel mondo, ne abbiamo milioni. E sono nelle nostre tasche, questi dispositivi comunicano con il cloud, sono intrecciati molto profondamente con la civiltà umana e con la nostra realtà.

Siamo già degli ibridi tra la nostra intelligenza biologica e questi estensori del cervello. Anche se non sono ancora per la maggior parte dentro i nostri corpi e cervelli, stanno per esserlo. Gran parte sono all’esterno, ma sono sempre estensori del cervello. Quante persone qui o ovunque potrebbero fare il loro lavoro oppure ricevere la loro educazione senza questi estensori del cervello? Sono molto intrecciati, molto intimi e ce ne sono milioni.

Secondo me, è la migliore strategia e realtà per tenerle sicure. Ma sai, gli umani si fanno i complessi. Mi piace sottolineare ciò: è il periodo più pacifico della storia umana. Direte: ‘Stai scherzando? Hai sentito le notizie? C’è stato l’evento di ieri, e del giorno prima…’. Beh, la nostra informazione intelligente su cosa non va nel mondo e sulla violenza nel mondo sta migliorando esponenzialmente. Avviene un incidente straziante che coinvolge un piccolo numero di persone in una metà del mondo e noi non solo lo ascoltiamo, ma ne facciamo esperienza.

La nostra empatia si estende a un piccolo numero di persone. Non possiamo contemplare milioni di persone, ma una famiglia sì. Ma la realtà è che, e penso che questo sia davvero dovuto a un miglioramento esponenziale della tecnologia dell’informazione, il mondo è più pacifico, più democratico. Un secolo fa si potevano contare le democrazie nel mondo sulle dita di una mano. Due secoli fa si potevano contare le democrazie nel mondo sulle dita di un dito.

Non tutti i paesi nel mondo sono una democrazia perfetta, ma la democrazia è considerata largamente come il modo corretto per gestire gli affari umani. È ancora più democratica e abbiamo dozzine di democrazie che funzionano abbastanza bene. E questa comunicazione, che è straziante, aiuta davvero a mantenere il mondo sicuro. Steven Pinker documenta un declino esponenziale nella violenza. Le possibilità di essere uccisi e centinaia di volte minore rispetto a diversi secoli fa. Abbiamo una scarsità di risorse estrema e metodi molto primitivi di comunicazione e organizzazione sociale.

Quindi, ecco la mia strategia tenere il mondo al sicuro dall’intelligenza artificiale. Praticare i nostri migliori valori, come democrazia, libertà, compassione, nel mondo di oggi. Il mondo futuro, impregnato di IA (lo è già in una certa misura, lo sarà ancora di più), non arriverà da Marte. Emergerà dalla civiltà che abbiamo oggi. Se pratichiamo oggi i nostri valori umani nella nostra società, allora anche la società futura li praticherà perché emergerà dalla civiltà di oggi.

Questa è la mia strategia. Cosa potrebbe andare storto?”

 

Agire oggi per un futuro migliore

Kurzweil ha confermato che di recente si discute di rischi ed etica nell’ambito dell’intelligenza artificiale. L’Asilomar è stata solo una delle diverse conferenze più recenti. L’anno scorso, ad esempio, c’è stato anche il summit dell’IEEE.

Ma queste conferenze non devono creare allarmismi. Non stiamo per affrontare un’IA superiore che avrà lo scopo di distruggere il genere umano. Uno scenario del genere, che continua ad essere narrato attraverso film e libri, non deve confondersi con ciò che possiamo e potremo fare in futuro. Anche Neil Jacobtein è d’accordo con questa visione di Kurzweil: la fantascienza non deve farci perdere il contatto con la realtà. Può aiutarci però ad esplorare applicazioni, possibilità, usi etici e scorretti delle tecnologie.

Ed è proprio questo il punto centrale della discussione: il tipo d’uso della tecnologia. In fin dei conti, siamo sempre noi umani a sviluppare questi sistemi di IA e ad adottarli. Dipende sempre da noi. La strategia di Ray Kurzweil è molto semplice: costruire tecnologie seguendo i migliori valori umani. Le linee guida per lo sviluppo corretto ed etico delle IA dovranno basarsi su valori che procurino beneficio agli esseri umani.

Spesso, chi pensa che un giorno qualcuno svilupperà un’IA cattiva tralascia che in realtà già oggi ne esistono tantissime. Quindi, il rischio di un’IA pericolosa, che destabilizzi gli equilibri sociali ed economici, potrebbe esserci. Ma come sostiene anche lo scienziato Grady Booch, tale rischio sarà rappresentato pur sempre da una minoranza: non dovremo temere un'”IA nelle mani di un lupo solitario“. Le risorse di un singolo individuo o gruppo non basteranno a procurare gravi danni.

Intanto, credo valga la pena seguire la strategia di Kurzweil. Solo così svilupperemo sistemi davvero utili per il genere umano. E solo facendolo sin da subito potremo aspettarci un futuro migliore, un futuro dove il discorso sulle IA non sarà più impregnato di preoccupazioni e paure.

Per seguire gli aggiornamenti sul mondo delle tecnologie digitali dirompenti, iscriviti alla newsletter.

Controcorrente Newsletter

Foto: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.