Grady Booch

Grady Booch: non bisogna temere la superintelligenza artificiale

Le paure legate al progresso dell’intelligenza artificiale (IA) derivano perlopiù dalla narrativa fantascientifica. Grady Booch, filosofo e scienziato presso IBM, sostiene che non dobbiamo temere l’arrivo di una superintelligenza artificiale. Ne ha spiegato i motivi in una conferenza TED dell’anno scorso.

Secondo lo scienziato, non programmeremo le macchine solo in base ai nostri valori, ma saremo i loro insegnanti. Invece di preoccuparci di un’improbabile minaccia esistenziale, dovremmo pensare a come l’IA migliorerà le nostre vite.

 

Grady Booch sulla superintelligenza artificiale

Non è un caso se Grady Booch cita il film di fantascienza “2001: Odissea nello spazio“. Si tratta di uno dei primi film dove un’intelligenza artificiale (HAL 9000) si dimostra insensibile nei confronti del genere umano. Un’intelligenza artificiale complessa, precisa, efficiente ed affascinante. Booch desidera costruire un sistema simile, ma che non abbia “tendenze omicide”.

È possibile costruire un’IA di questo tipo? Secondo Booch è possibile. Ma il suo obiettivo è quello di sviluppare un semplice cervello artificiale, qualcosa che dia l’illusione dell’intelligenza. Ecco, con illusione dell’intelligenza Grady Booch ci fa capire come sia complesso il processo di sviluppo. Facciamo fatica a delineare il concetto di intelligenza, figuriamoci costruire un sistema che sia davvero intelligente.

Ma nel frattempo abbiamo raggiunto risultati grandiosi nell’ambito dell’IA. Risultati che ci permetteranno di raggiungere altri obiettivi. Costruiremo macchine in grado di fare accurate analisi predittive. Macchine in grado di comprendere il nostro linguaggio naturale e quindi di comunicare con noi con semplicità. Macchine che sapranno riconoscere i nostri stati emotivi e apprendere attraverso l’errore.

Possiamo costruire sistemi che abbiano una base etica e morale?“, domanda Grady Booch. La sua risposta: “Dobbiamo imparare a farlo“. In effetti qui si entra in un ulteriore livello profondo di complessità. Ma gli scienziati ci stanno lavorando. Riflettono sulla possibilità di programmare la morale, discutono sulle questioni etiche fondamentali e condividono princìpi per lo sviluppo di un’intelligenza artificiale benefica. Roman Yampolskiy e Federico Pistono hanno addirittura pubblicato uno studio sulle possibili conseguenze sociali dell’uso di un’intelligenza artificiale cattiva.

La paura nei confronti di una nuova tecnologia dirompente c’è sempre stata. Grady Booch fa degli esempi interessanti citando l’automobile, il telefono e la scrittura sempre più pervasiva. Non c’è dubbio che queste tecnologie abbiano modificato le nostre abitudini. Ma allo stesso tempo ci hanno permesso di estendere la nostra esperienza in modo significativo.

Grady Booch lo ha detto chiaramente: “Non ho paura della creazione di un’IA come questa perché alla fine integrerà alcuni dei nostri valori“. Insegneremo alle macchine il senso dei nostri valori. Però, è anche vero che non tutti in questo mondo rispettano tali valori. Cosa succederebbe se qualche organizzazione criminale o qualche malintenzionato sfruttasse questa IA per scopi egoistici? Booch sostiene che sarà pur sempre una minoranza, non dovremo temere un'”IA nelle mani di un lupo solitario“. Tale sistema sarà così complesso che le risorse di un individuo o un singolo gruppo non basteranno a danneggiare intere società.

E se fosse la stessa IA a minacciare il genere umano? Secondo il filosofo Nick Bostrom, potrebbe esserci questa possibilità. Una superintelligenza artificiale potrebbe rivelarsi così assetata di informazioni che forse imparerebbe ad imparare e a scoprire di avere obiettivi contrastanti con i bisogni umani.

Grady Booch non è d’accordo con questa teoria. Non stiamo costruendo IA che controllano interi sistemi, come si vede in “2001: Odissea nello spazio”, “Matrix” o “Terminator”. Booch ha detto: “Se tale intelligenza artificiale esistesse, dovrebbe competere con le economie umane e quindi competere con noi per le risorse. E alla fine – non ditelo a Siri – possiamo sempre scollegarla.”

Lo scienziato ci invita a non distrarci con i discorsi apocalittici legati alla nascita di una superintelligenza artificiale. Con queste tecnologie abbiamo l’opportunità, oggi, di estendere le nostre capacità e le nostre esperienze. E già da oggi dobbiamo affrontare alcuni problemi derivanti dalla costante automazione dei processi.

Grady Booch suggerisce di iniziare a trovare una risposta a queste domande: come organizzare la società quando la necessità di lavoro umano diminuisce? Come portare l’educazione in tutto il mondo e continuare a rispettare le nostre differenze culturali? Come prolungare e migliorare la vita umana attraverso l’assistenza sanitaria cognitiva? Come usare l’IA per riuscire a raggiungere le stelle?

Il bello è che queste opportunità, secondo Booch, sono alla nostra portata. E siamo solo all’inizio.

Foto: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.