L’intelligenza artificiale (IA) ha il potenziale per farci del male in futuro? Secondo alcuni esperti è così. Se non sviluppiamo l’IA nel modo giusto, potremmo dover affrontare spiacevoli conseguenze. Elon Musk, Bill Gates e Stephen Hawking sono tra quelli che condividono quest’idea.

Chi invece di recente ha espresso un’opinione opposta è stato Steve Wozniak. Il co-fondatore di Apple, informatico e inventore ha detto che non è preoccupato dell’evoluzione dell’intelligenza artificiale. Ha spiegato le sue ragioni in un’intervista di Business Insider.

 

Paura dell’IA? Non più

Quali aree della tecnologia pensi che avranno l’impatto più grande sull’umanità nei prossimi decenni?

Penso molte aree dell’intelligenza artificiale. Ovviamente sto tralasciando il settore della biotecnologia perché non sono abbastanza vicino alla biotecnologia. Sto tralasciando [anche] la computazione quantistica perché non sto nella computazione quantistica. Ma penso che l’intelligenza artificiale, le macchine che interagiscono con noi, saranno molto più utili di quanto abbiamo mai immaginato.

La realtà virtuale è un’esperienza incredibile. Tutta la nostra tendenza dai primi computer ai personal computer è stata rendere la risoluzione più realistica. Come se fossi in un mondo reale e non un finto cartone animato in un mondo a 8 bit. Non sono più in quel mondo a 8 bit e la realtà virtuale richiede un’enorme larghezza di banda. Dovremo vincere alcune sfide della larghezza di banda della DSL, delle linee in rame nelle case e del wireless per essere ancora in grado di trasmettere realtà virtuale in una qualità davvero alta. Ma ti inserisce in uno spazio completamente diverso che è così incredibile.

Hai qualche preoccupazione sull’IA per il futuro?

Ad un certo punto ho avuto preoccupazioni sull’IA perché se sostituisci i cervelli, e poi improvvisamente le aziende con persone perdono i soldi, e le macchine fanno tutto per noi, non rimarranno lavori. La pensavo così, ma poi ho cambiato idea per molti motivi. Uno è che la legge di Moore non renderà queste macchine abbastanza intelligenti per farle pensare davvero come fa un umano.

Un altro è che quando le macchine supereranno l’intelligenza umana non potranno essere così intuitive e dire cosa farò dopo e qual è l’approccio per farmi arrivare lì. Non potranno capire questo genere di cose.

Non stiamo parlando dell’intelligenza artificiale che arriva davvero a quel punto. È un po’ come se potesse magicamente insorgere da sola. Queste macchine potrebbero diventare pensatrici indipendenti. Ma se lo diventeranno, saranno per sempre compagne degli esseri umani rispetto a tutte le altre specie.

 

Un freno all’entusiasmo sull’IA?

Steve Wozniak ha cambiato la sua idea sull’IA nel corso degli anni. Prima temeva che le macchine, con il loro costante sviluppo, potessero eliminare sempre più posti di lavoro. Poi ci ha ripensato. Crede che ci sono poche possibilità che l’IA superi il livello dell’intelligenza umana. Secondo lui, non ci sono grandi probabilità di assistere alla singolarità.

Steve Wozniak, però, non esclude del tutto l’avvento di macchine pensanti indipendenti. Ma al contrario di alcuni esperti, sostiene che queste non ci daranno alcun problema. Un parere opposto a quello di Nick Bostrom, ad esempio. Il filosofo svedese sostiene che le macchine avranno un’IA di livello umano tra qualche decennio. Dopodiché, molto rapidamente, otterranno una superintelligenza. A quel punto gli umani potrebbero diventare schiavi delle macchine.

Ma è uno scenario evitabile. Bostrom suggerisce che molto dipenderà dalla progettazione di queste macchine pensanti. Cioè, dovremo svilupparle in modo che possano interagire sempre nell’interesse della specie umana. Un obiettivo che organizzazioni come Open AI e un gruppo di colossi tecnologici stanno cercando di perseguire.

Che il pericolo delle macchine pensanti sia concreto o meno, se ne sta parlando sul serio. Dichiarazioni come quelle di Steve Wozniak possono limitare l’entusiasmo. Al contrario di quelle di futuristi come Ray Kurzweil, il quale sostiene che entro il 2029 i computer saranno intelligenti quanto noi.

Forse abbiamo bisogno di entrambi gli ingredienti: timore e ottimismo. Un timore che però non deve bloccare il progresso. Un timore che si deve tradurre in cautela e studio. Così è più facile costruire macchine utili per le comunità.

Questo discorso non vale solo per il futuro, ma anche per il presente. Oggi le IA cattive sono quelle adottate per la guerra: droni e armi semi-autonome. Tecnologie cattive perché le sviluppiamo col fine di recare danni. Lo zampino umano è sempre presente.

Quando penso a ciò, mi tornano in mente le parole di Nick Bostrom. E a te?

La pensi come Steve Wozniak o sei più preoccupato?

Fonte: Business Insider
Foto: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.