Ben Goertzel

Ben Goertzel sull’arrivo della superintelligenza artificiale

Stavolta a rispondere alle domande sull’eventuale sviluppo di una superintelligenza artificiale è Ben Goertzel. Esperto in intelligenza artificiale (IA) e scienza cognitiva, Ben Goertzel ha espresso le sue idee attraverso l’intervista di Big Think.

Quale potrebbe essere il potenziale negativo della superintelligenza artificiale? Una volta che l’IA supererà quella umana (singolarità), otterremo dei vantaggi o ci farà fuori perché ci considererà una specie stupida e pericolosa per la Terra?

Secondo Goertzel, il progresso ci aiuta fin quando non ci uccide. La paura di un’IA malevola non può comunque fermarci dal continuare il nostro percorso verso l’innovazione.

 

La superintelligenza artificiale sarà nostra amica o nemica?

“Alcune persone sono molto preoccupate per il potenziale di incertezza e negatività associato all’AGI [Artificial General Intelligence] transumana e sovrumana. E in effetti stiamo entrando in un grande regno sconosciuto.

È quasi come una cosa tipo Rorschach. Voglio dire, fondamentalmente non sappiamo cosa farà un’IA sovrumana e questa è la verità, giusto? E poi, se tendi ad essere ottimista, ti concentrerai sulle buone possibilità. Se tendi ad essere una persona preoccupata che è pessimista, ti concentrerai sulle possibilità negative. Se tendi ad essere un regista di Hollywood, ti concentrerai su possibilità spaventose, magari con un lieto fine perché è quello che vende i film. Non sappiamo che cosa succederà.

Credo però che questa sia la situazione in cui l’umanità è stata per molto tempo. Quando gli uomini delle caverne uscirono dalle loro caverne e iniziarono l’agricoltura, non avevamo alcuna idea che avrebbe portato alle città, al volo spaziale e così via. E quando i primi esseri umani hanno creato il linguaggio per mettere in pratica una semplice comunicazione sulle alci che avevano appena ucciso, non immaginavano Facebook, il calcolo differenziale, MC Hammer e tutto il resto, giusto?

Voglio dire, ci sono così tante cose che sono venute fuori dalle prime invenzioni che gli esseri umani non avrebbero potuto mai prevedere. E penso che siamo esattamente nella stessa situazione. L’invenzione del linguaggio o la civiltà avrebbe potuto portare alla morte di tutti, giusto? E in un certo senso è ancora possibile. E la creazione di una intelligenza artificiale sovrumana potrebbe uccidere tutti e io non voglio che succeda. Quasi nessuno di noi lo vuole.

Naturalmente, il modo in cui siamo arrivati a questo punto come specie e come cultura è stato quello di continuare a fare cose nuove incredibili che non abbiamo compreso appieno. Ed è quello che continueremo a fare. Il libro di Nick Bostrom era influente, ma ho sentito che in qualche modo era un po’ ingannevole nel modo in cui aveva formulato le cose.

Se si leggono le sue precise argomentazioni filosofiche, che sono redatte in modo molto logico, quello che dice Bostrom nel suo libro, “Superintelligence“, è che non si può escludere la possibilità che una superintelligenza faccia alcune cose molto cattive. E questo è vero. D’altronde, parte della retorica associata lo fa percepire come se fosse molto probabile che una superintelligenza farà queste cose cattive. E se si seguono strettamente le sue argomentazioni filosofiche, lui non lo dimostra. Ciò che dimostra è solo che non si può escludere e non sappiamo cosa accadrà.

Non credo che Nick Bostrom o chiunque altro fermerà la razza umana nel sviluppare l’IA avanzata perché è una fonte di enorme curiosità intellettuale, ma anche di enorme vantaggio economico. Quindi, mettiamo che il Presidente Trump abbia deciso di vietare la ricerca sull’intelligenza artificiale – non penso che lo farà, ma supponiamo che l’abbia fatto. La Cina continuerà a fare ricerca sull’intelligenza artificiale. Se gli Stati Uniti e la Cina la vieteranno, si sa, l’Africa continuerà.

Ovunque in tutto il mondo ci sono libri sull’IA e computer. E tutti ora sanno che si può migliorare la vita delle persone e fare soldi sviluppando IA più avanzata. Quindi non c’è alcuna possibilità, in pratica, di fermare lo sviluppo di IA. Quello che possiamo fare è cercare di orientarlo nella direzione più vantaggiosa secondo il nostro miglior giudizio. E questo è parte di ciò che mi porta a inseguire l’AGI tramite un progetto open source come OpenCog.

Rispetto molto quello che stanno facendo Google, Baidu, Facebook, Microsoft e le altre grandi aziende nell’IA. Ci sono molte brave persone lì che fanno una buona ricerca con motivazioni generose. Ma credo di averne abbastanza di una vecchia sinistra cresciuta da socialisti. Non credo che una società, il cui scopo principale è quello di massimizzare il valore per gli azionisti, farà davvero la cosa migliore per la razza umana se crea un’IA di livello umano.

Potrebbe. D’altra parte, ci sono un sacco di altre motivazioni e una società pubblica, alla fine, ha una responsabilità fiduciaria nei confronti dei loro azionisti. Tutto sommato, credo che le probabilità sarebbero migliori se l’IA venisse sviluppata in modo che sia proprietà di tutto il genere umano e possa essere sviluppata da tutta l’umanità per il suo bene. E il software open source è una sorta di approssimazione più vicina che abbiamo ora. Quindi, la nostra aspirazione è quella di crescere OpenCog come una sorta di Linux per l’AGI e avere persone in tutto il mondo che la sviluppano per metterla al servizio dei propri bisogni locali, per inserire i propri valori e la comprensione mentre diventa sempre più intelligente.

Di sicuro questo non ci dà alcuna garanzia. Possiamo osservare cose del tipo se Linux ha meno bug di Windows o di OSX e se è open source. Quindi, a volte più occhi su qualcosa può renderla più affidabile. Ma non c’è alcuna garanzia solida che la creazione di un’AGI open source possa far venir fuori bene la singolarità. Ma la mia sensazione è che ci sono abbastanza problemi complessi nella creazione di un’intelligenza artificiale sovrumana, nell’averla rispettosa dei valori umani e che abbia un rapporto di empatia con le persone mentre si sviluppa.

Ci sono abbastanza problemi senza che la giovane AGI venga coinvolta in una competizione di paese contro paese, società contro società e in politiche interne di aziende o militari. Mi sento come se non volessimo aggiungere questi problemi di taglio umano delle dinamiche competitive di stato sociale dei primati. Non vogliamo aggiungere questi problemi nelle sfide che si trovano nella fase di sviluppo dell’AGI.”

 

L’inevitabile sviluppo dell’IA

Secondo Ben Goertzel, dunque, non esiste un modo pratico per fermare il progresso dell’intelligenza artificiale. Però, sottolinea che uno stop alla crescita del settore ci impedirebbe di ottenere dei vantaggi economici. Vantaggi che non andrebbero a procurare benessere solamente alle aziende proprietarie dei sistemi di IA, ma a tutta la società. Per raggiungere questo risultato bisognerebbe seguire la via dell’open source: software aperti e modificabili da chiunque voglia accedervi.

Goertzel sta già seguendo questo percorso attraverso l’organizzazione OpenCog. Si tratta di un’organizzazione no-profit che ha l’obiettivo di creare un framework open source per l’intelligenza artificiale generale. Le squadre di OpenCog sono sparse in tutto il mondo, collaborano e ognuna di esse lavora su attività specifiche. I ricercatori sperano in questo modo di sviluppare un’IA che raggiungerà il livello umano di intelligenza e che potrà andare anche oltre.

Ma cosa succederà effettivamente con l’arrivo di una superintelligenza artificiale? La risposta di Ben Goertzel è molto semplice: non possiamo saperlo. Intanto, il dibattito sullo sviluppo dell’IA in modo etico e coscienzioso si sta allargando.

Il FLI (Future of Life Institute) ha proposto 23 princìpi per un’intelligenza artificiale benefica.

Il summit dell’IEEE ha sollevato questioni importanti riguardo gli aspetti morali e sociali.

Infine, stanno nascendo diverse società ed organizzazioni che si pongono l’obiettivo di sviluppare l’IA in modo sicuro. Tra queste, una delle più recenti e che ha l’elemento open source in comune con OpenCog, è OpenAI.

Ci aspetta un anno ricco di discussioni e confronti intorno a questi temi.

Foto: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.