Roman Yampolskiy sul futuro dell'intelligenza artificiale e dei robot

Roman Yampolskiy sul futuro dell’intelligenza artificiale e dei robot

Quali sono le potenzialità e i limiti dell’intelligenza artificiale (IA)? Questo è il tema centrale dell’intervista fatta da Futurism a Roman V. Yampolskiy, professore presso il dipartimento Computer Engineering and Computer Science della Speed School of Engineering (Università di Lousville). È anche il fondatore e il direttore del Cyber Security Lab, autore di “Artificial Superintelligence: a Futuristic Approach” ed ex alunno della Singularity University.

Ha detto cose molto interessanti sul futuro dell’IA, sulla questione dei robot killer e sulle società più all’avanguardia in questi settori. I robot sostituiranno tutte le nostre attività? O sapremo adattarci? Roman Yampolskiy prova a rispondere alle domande di Daniel Araya e ci offre la sua visione del futuro.

Roman, potresti dirci un po’ del tuo background professionale e del tuo interesse nel campo dell’intelligenza artificiale? So che nel tuo nuovo libro Artificial Superintelligence sei d’accordo con Nick Bostrom sul fatto che l’IA pone un rischio esistenziale serio. Ci puoi far capire quali rischi affrontiamo con le IA superintelligenti?

La mia ricerca si trova nell’intersezione tra la cybersicurezza e l’intelligenza artificiale. Sono particolarmente interessato al lavoro sulla sicurezza dell’intelligenza artificiale perché, secondo me, se siamo riusciti a creare IA avanzate – che sono intellettualmente superiori a noi – allora la nostra esistenza potrebbe essere a rischio.

Il problema principale nell’avere la tecnologia superiore alle capacità umane è, ovviamente, il problema del controllo. Come possiamo in definitiva controllare un’entità che è più intelligente di noi?

Un’entità che infatti è in grado di derivare i propri piani non può necessariamente essere allineata con le nostre aspettative e i nostri valori. Vedo una probabilità non nulla che queste macchine possano essere estremamente pericolose per tutta la vita a causa di uno scarso allineamento con l’obiettivo o una scarsa implementazione.

Quali scuole/gruppi teoriche/teorici vedi come più promettenti per la superintelligenza? O più precisamente, quali ricercatori/organizzazioni pensi che siano più vicini nel fare della superintelligenza una realtà?

Mi aspetto molti nuovi risultati provenire da DeepMind di Google così come dal laboratorio di intelligenza artificiale di Facebook. Voglio dire, in fondo i ricercatori meglio finanziati e più illustri sono più promettenti nel produrre risultati con maggior impatto.

Nel tuo libro proponi l’Efficiency Theory (EF) come l’unione della teoria della computabilità, delle teorie della comunicazione, della complessità e dell’informazione. L’EF è calcolabile o solo un modello concettuale? Se è calcolabile, come potrebbero essere sviluppati gli algoritmi con l’EF per poter costruire IA superintelligenti?

È un modello concettuale per un algoritmo di valutazione – per mettere altri aspetti del calcolo, come la comunicazione, in un settore comune. È finalizzato al riconoscimento di alcune proprietà fondamentali dell’elaborazione della forza bruta (provare ogni opzione) e all’utilizzo di quegli algoritmi facili da scoprire e ottimali come mezzo di misura per il nostro progresso in campo informatico.

Una delle reali preoccupazioni che ho è il pericolo che i governi inizieranno ad armare le IA. Nonostante io pensi che sia inevitabile, mi chiedo cosa possiamo fare per contenere l’IA? O almeno per rendere l’IA più sicura?

Dell’attivismo politico è già iniziato con gruppi come la Campaign to Stop Killer Robots che tentano di impedire l’armamento delle IA. Tuttavia questo è solo un percorso pericoloso dell’IA.

Esploro un numero di altre possibilità nella mia recente pubblicazione. Per esempio, esistono pericoli significativi di sistemi intelligenti che contengono errori semantici o logici nel codice, o problemi nel loro allineamento di obiettivo. Penso anche che dovremmo essere particolarmente preoccupati per i sistemi che sono malevoli per intenzione. Per esempio, non sono molto preoccupato per l’automazione del lavoro; è il prossimo passo in questo processo che è davvero pericoloso. Subito dopo aver ottenuto una prestazione di livello umano, le macchine miglioreranno da sole verso livelli molto più avanzati degli esseri umani, diventando superintelligenti.

Per questo motivo sono molto più preoccupato per le macchine che prenderanno il nostro posto nell’universo e meno preoccupato per quelle che prenderanno il nostro posto nelle fabbriche.

Ora, come affrontare il problema è il problema più complicato. Non peso che qualcuno abbia una soluzione al momento. Il lavoro è solo all’inizio, quindi consiglierei ai lettori interessati di dare un’occhiata al mio libro sul tema: “Artificial Superintelligence: a Futuristic Approach“, che tenta di formalizzare i problemi che stiamo affrontando.

Le teorie sulla Singolarità (il momento in cui l’intelligenza artificiale evolve oltre l’intelligenza umana) sembrano implicare un nuovo punto di vista metafisico della tecnologia. Jaron Lanier, per esempio, sostiene che il dibattito sull’IA ha davvero a che fare con la religione; vale a dire che le persone si rivolgono alla metafisica per far fronte alla condizione umana. Qual è il tuo punto di vista sulla sua critica? Credo che l’intelligenza artificiale finirà col diventare consapevole in qualche modo?

A mio avviso, la Singolarità non ha nulla a che vedere con la religione. Si tratta di un argomento puramente scientifico. D’altra parte, la coscienza non è puramente scientifica.

Non sto prevedendo che le macchine diventeranno coscienti. Anzi, sto dicendo che diventeranno superintelligenti. La coscienza non può essere rilevata o misurata in alcun modo, per esempio. Essa, inoltre, non necessariamente fa qualcosa (come chiaramente dimostrato dagli esperimenti filosofici del pensiero zombie).

Ora una visione comune è che l’IA potrebbe rimpiazzare (rimpiazzerà?) il lavoro umano e attivare un tipo di utopia del futuro. Supponendo che l’intelligenza artificiale diventi l’infrastruttura per una civiltà post-industriale, ciò significa che inizieremmo a progettare e a costruire differenti tipi di società? Qualcosa di simile alle “Culture Series” di Ian M. Banks o al Venus Project?

Sì, le macchine hanno iniziato tempo fa a sostituire il lavoro umano nelle attività fisiche. Prossimamente vedremo un ulteriore aumento dei “lavori intellettuali” che potranno essere fatti dalle macchine. Infine, appena l’IA raggiungerà il livello umano di prestazione, tutti i lavori saranno automatizzati. Ciò produrrà indubbiamente un cambiamento molto significativo nel modo in cui le società industriali di massa saranno organizzate. La nostra economia, struttura sociale e concetti come il denaro cambieranno profondamente.

Riguardo le Culture Series e il Venus Project ho dovuto dare un’occhiata per capire cosa sono. Mi sembra che nessuno dei due modelli prenda in considerazione il progresso tecnologico globale che avverrà in contemporanea con il progresso dell’IA.

Ad esempio, è probabile che quando avremo una IA di livello umano, sarà possibile caricare la mente su un computer spostando il nostro ambiente da fisico a completamente virtuale. Ovviamente, ciò altererà fondamentalmente tutto della nostra civiltà. Ma non possiamo sapere davvero con sicurezza in quali modi, dato che l’intera nozione dietro la singolarità tecnologica è che non puoi prevedere cosa succederà se non dopo il suo compimento.

Sarà certamente interessante.


Non mi sorprende il fatto che Roman Yampolskiy abbia firmato la lettera aperta sui rischi dell’intelligenza artificiale. Anche lui si schiera dalla parte di quelli più preoccupati nei confronti del progresso dell’IA. Non a caso, l’intervistatore ha citato Nick Bostrom nella prima domanda, un filosofo tra i più attenti al tema della sicurezza nell’ambito dell’intelligenza artificiale.

Ciò non significa che i due esperti prevedono un futuro apocalittico in cui le macchine prenderanno il sopravvento distruggendo il mondo e l’umanità. Ma che esistono dei rischi che metterebbero in pericolo la nostra salute e l’ambiente. Alcune applicazioni di IA pericolose, in effetti, già esistono: i droni militari. Ma cosa succederà quando saremo in grado di sviluppare IA ancora più sofisticate? Cosa succederà quando i computer diventeranno più intelligenti di noi? Yampolskiy, Bostrom e tutti i firmatari della lettera aperta hanno intenzione di evitare che in futuro vengano sviluppate IA pericolose.

Ma c’è anche chi sostiene che con la singolarità tecnologica vivremo meglio. Ray Kurzweil, ad esempio, è un ottimista esemplare. Ma allo stesso tempo sostiene che dovremo tenere la situazione sotto controllo. Egli considera l’intelligenza artificiale come un imperativo morale: “Abbiamo l’imperativo morale di continuare a raggiungere la promessa [dell’intelligenza artificiale] mentre controlliamo il pericolo. Io tendo ad essere ottimista, ma questo non significa che dovremmo essere cullati in una mancanza di preoccupazione.“.

Chi è ancora più ottimista, forse, è Lawrence Krauss. Lui crede che le opportunità sono di gran lunga più emozionanti dei pericoli. Ecco perché continuiamo a sviluppare IA.

Siamo curiosi di sapere fin dove possiamo arrivare. L’importante è proseguire avendo consapevolezza delle opportunità e dei rischi.

Fonte immagine: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.