Steven Pinker

Steven Pinker sulla minaccia dell’intelligenza artificiale

La possibilità di un’apocalisse robotica o di un’apocalisse provocata da un’intelligenza artificiale (IA) è un tema che affascina. Al di là del fatto che ciò possa succedere o meno, questo tema suscita un certo interesse.

Qualcuno è spaventato, qualcun altro scettico, qualcun altro ancora ci scherza sopra. Le opinioni degli esperti sono diverse, ma nessuno può avere una risposta certa. Stavolta Big Think ha accolto Steven Pinker, professore di psicologia presso la Harvard University e autore di diversi libri sul linguaggio e sulle scienze cognitive.

Secondo Pinker, quando si parla di apocalisse provocata dalle macchine entra in gioco una sorta di psicologia di genere. Curioso di saperne di più?

Minaccia intelligenza artificiale: i maschi alfa la temono?

“Penso che gli argomenti sull’avere computer superintelligenti e robot che inevitabilmente vorranno prendere il controllo e farla finita con noi provengano dai miti di Prometeo e Pandora. Si basa sul confondere la grande intelligenza con gli obiettivi megalomani. Penso sia una proiezione della psicologia del maschio alfa sul preciso concetto di intelligenza.

L’intelligenza è l’abilità di risolvere i problemi, di raggiungere obiettivi in condizioni di incertezza. Non ti dice quali sono questi obiettivi. E non c’è motivo di pensare che la sola concentrata abilità analitica di trovare soluzioni significherà che uno di questi obiettivi sarà quello di sottomettere l’umanità o di raggiungere la potenza illimitata. Si dia il caso che l’intelligenza che ci è più familiare, vale a dire la nostra, è un prodotto del processo di selezione naturale darwiniano, che è un processo intrinsecamente competitivo.

Il che significa che molti organismi che sono molto intelligenti hanno anche un forte desiderio di potenza e un’abilità ad essere completamente spietati con chi è sulla loro strada. Se creiamo l’intelligenza, quello è un disegno intelligente. Voglio dire, il nostro disegno intelligente, creare qualcosa…

A meno che non la programmiamo con l’obiettivo di sottomettere gli esseri meno intelligenti, non c’è motivo di pensare che evolverà in modo naturale in quella direzione. In particolare se, come facciamo con tutti i gadget che inventiamo, la costruiamo con dispositivi di sicurezza. Voglio dire, abbiamo macchine in cui mettiamo l’airbag, a cui mettiamo anche il paraurti.

Sviluppando sistemi di intelligenza artificiale sempre più intelligenti, se c’è un pericolo che, a causa di qualche svista, andrà contro il nostro interesse, allora ci sarà un dispositivo di sicurezza che potremo costruire.

E sappiamo, comunque, che è possibile avere grande intelligenza senza tendenze megalomane, omicide o genocide perché c’è una forma altamente avanzata di intelligenza che tende a non avere quel desiderio: sono le donne. Forse non è una coincidenza che le persone pensano che quando si fa qualcosa di intelligente si finisce col voler dominare. Sai, tutto appartiene a un preciso genere.”


Quello di Steven Pinker è forse uno dei punti di vista più originali sul tema “minaccia futura dell’intelligenza artificiale”.

In questo mondo ci sono delle creature che sfruttano la loro intelligenza per essere competitive. Noi umani apparteniamo a quella categorie di creature. E qualcuno dei nostri può diventare crudele e manipolativo al fine di diventare dominante. La competitività fa parte della natura umana, per questo motivo alcune persone si preoccupano quando pensano all’IA.

Secondo Steven Pinker, quando pensiamo all’IA, a nostra insaputa scatta un meccanismo che porta a domandarci: cosa succederebbe se un robot facesse quello che farei io se fossi un robot? La risposta che ci diamo è più o meno questa: fermare coloro che ci dicono cosa fare.

Steven Pinker, però, ci fa riflettere su un particolare interessante. Il terrore che una macchina possa diventare cattiva ci dice molto sulla nostra psicologia. Egli sostiene che alla base della nostra paura dell’IA ci sia un modello di pensiero tipico del maschio alfa. Qui ci ricolleghiamo alla questione della dominanza. Ma esistono creature molto intelligenti che, di solito, non hanno questa tendenza a voler padroneggiare: le donne.

Vale allora la pena chiedersi un’altra domanda. Quanto il livello di aggressività di una persona può influire sulla sua paura percepita nei confronti di un’apocalisse robotica? Magari inizieranno a condurre degli studi a riguardo.

Ora però vorrei tornare, per la centesima volta, sulla domanda di cui tutti vorremmo avere una risposta certa. Dovremmo davvero preoccuparci di un futuro in cui le macchine controlleranno il mondo?

Ci sono pareri diversi, ma parliamo più spesso dello scenario peggiore perché siamo abituati a ragionare seguendo i percorsi che abbiamo interiorizzato attraverso la letteratura fantascientifica. Tuttavia, ci sono esperti di un certo livello che hanno affrontato seriamente questo tema e che hanno provato a formulare delle ipotesi.

Ad esempio, Federico Pistono e Roman Yampolskiy si sono chiesti come creare un’intelligenza artificiale cattiva. Hanno analizzato gli attori che potrebbero trarre benefici da un uso improprio dell’IA e ipotizzato alcune conseguenze. Anche il filosofo Nick Bostrom si è chiesto cosa potrà mai succedere quando le macchine diventeranno più intelligenti di noi. E la sua visione non è del tutto ottimistica.

D’altra parte ci sono personalità più tranquille da questo punto di vista. Di recente, sempre per Big Think, è intervenuto anche l’ingegnere e divulgatore scientifico Bill Nye. Lui è uno di quelli che non teme in alcun modo lo sviluppo dell’intelligenza artificiale. Anzi, ci scherza sopra. Al tempo stesso, però, sottolinea che dovremmo concentrarci di più nello sfruttare questa tecnologia per aiutare le persone che vivono in condizioni peggiori delle nostre.

In generale, coloro che allontanano la possibilità di un’IA minacciosa sostengono che svilupperemo queste tecnologie dotandole di sistemi di sicurezza. Le macchine saranno ciò che noi vorremo che fossero. Saranno programmate per fare ciò che noi desideriamo che facciano. Anche Steven Pinker è di quest’idea.

Se vogliamo essere più sicuri progettiamo un bel pulsante OFF, come quello pensato da Google. O comunque inseriamo un qualsiasi strumento che ci consentirà di staccare la loro spina e di salvarci la vita. Se poi vogliamo vivere i brividi di un’esperienza alla Terminator, allora faremo in modo di non prendere nessuna di queste precauzioni.

Fonte immagine: Flickr


2 Comments

  • “confondere la grande intelligenza con gli obiettivi megalomani”

    Non è questione di megalomania. I computer fanno ciò che noi diciamo loro di fare, il che NON SEMPRE coincide con ciò che noi desideriamo. E’ qui che sta il pericolo.

    Non è questione di aggressività, di megalomania, di volontà di potenza.

    Il computer di bordo del Boeing 737 precipitato lo scorso marzo nei pressi di Addis Abeba… Non aveva volontà di potenza, non era affetto da mania omicida, non odiava i passeggeri… Ha solo eseguito il suo programma.

    Reply
    • Danilo Bologna

      19/05/2019

      Concordo, anche se il discorso di Pinker è più incentrato sulle tecnologie future, sulle proiezioni psicologiche che facciamo quando parliamo di superintelligenze. Spesso tendiamo a pensare che col passare degli anni queste tecnologie diventeranno sempre più potenti e autonome, determinate a raggiungere gli obiettivi perché così le abbiamo progettate: da qui la paura di di veder nascere IA che per certi aspetti potrebbero assumere atteggiamenti molto simili a quelli umani, anche i peggiori come la megalomania.

      Però non credo succederà. Condivido quello che dice Pinker sulla questione del controllo e della sicurezza.

      Reply

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.