Nella discussione sull’intelligenza artificiale (IA) spesso ci si ritrova a confrontare 2 poli opposti. Quello degli ottimisti e quello dei pessimisti. Ma il dibattito, in realtà, presenta diverse sfumature.

C’è anche chi è preoccupato per lo sviluppo di una superintelligenza artificiale, ma allo stesso tempo crede che questa potrebbe essere una cosa positiva per il mondo. Tutto dipenderebbe dalla progettazione e dalla gestione.

Il cosmologo Max Tegmark, cofondatore del Future Life Institute, ne ha parlato nel suo nuovo libro: “Life 3.0: Being Human in the Age of Artificial Intelligence“. Max Tegmark offre una panoramica dei problemi legati all’IA, dall’impatto sul lavoro alle guerre.

In un’intervista per Motherboard, riportata di seguito, ha spiegato la sua visione sul futuro dell’intelligenza artificiale.

 

Max Tegmark e il futuro dell’IA

Molti esperti sono preoccupati delle possibili conseguenze negative dell’IA. Dove ti collochi nello spettro d’ansia?

Sono ottimista [sul fatto] che possiamo creare un futuro ispiratore con l’IA se vinciamo la gara tra la potenza crescente dell’IA e la saggezza crescente con cui la gestiamo, ma questo richiede pianificazione e lavoro, e non accadrà automaticamente.

Quindi non sono ingenuamente ottimista, per esempio, sul sole che sorge domani, indipendentemente da ciò che facciamo, ma sono ottimista [sul fatto] che se facciamo le cose giuste, il risultato sarà grandioso.

Per me la domanda più interessante non è il cavillo riguardo se le cose saranno probabilmente più buone o cattive, ma chiedere quali passi concreti possiamo fare ora che massimizzeranno le probabilità che siano buone.

Puoi farmi degli esempi di questi passi concreti?

Innanzitutto, finanziare la ricerca sulla sicurezza dell’IA. In secondo luogo, provare a negoziare un trattato internazionale che limita le armi letali autonome. E terzo, assicurare che la grande ricchezza creata dall’automazione renda tutti più ricchi.

Per quanto riguarda la ricerca sulla sicurezza dell’IA, come trasformiamo i computer pieni di bug e hackerabili di oggi in robusti sistemi di IA di cui possiamo davvero fidarci? Quando il tuo computer portatile si blocca, è fastidioso. Ma quando la tua IA che controllerà il tuo futuro aeroplano autonomo o il tuo arsenale nucleare si bloccherà, “fastidioso” non è la parola che utilizzeresti!

Poiché ci muoviamo verso il futuro, sarà davvero cruciale capire come permettere alle macchine di comprendere i nostri obiettivi, adottare i nostri obiettivi e mantenere i nostri obiettivi, in quanto diventano più intelligenti.

Se dirai alla la tua futura autovettura autonoma di portarti all’aeroporto il più velocemente possibile, arriverai ricoperto di vomito, inseguito da elicotteri, e dirai: “No, non è quello che ho chiesto”, ed essa risponderà [qui Tegmark fa una voce robotica]: “Questo è esattamente quello che hai chiesto “, allora hai capito quanto sia difficile fare in modo che le macchine comprendano i tuoi obiettivi.

E in terzo luogo, ora i miei figli sono molto meno eccitati riguardo i Lego rispetto a quando erano piccoli, e vogliamo assicurarci che le macchine intelligenti mantengano i loro obiettivi poiché diventano più intelligenti, in modo che non diventino noiose con l’obiettivo di essere simpatiche all’umanità.

Per quanto riguarda i governi, Hillary Clinton scrive nel suo nuovo libro che è convinta che l’IA pone un certo numero di rischi che non possono essere ignorati, ma che non riesce a capire come parlare di IA senza sembrare pazza. Quali sono i tuoi pensieri su come i governi stanno affrontando i rischi dell’IA?

Sì, ho pensato che l’intero argomento dell’IA fosse lampante per la sua assenza nelle ultime elezioni presidenziali, anche se ovviamente è la questione più importante per i lavori.

Quando cerchiamo di allineare gli obiettivi dell’IA con i nostri obiettivi, di quali obiettivi stiamo parlando? I tuoi obiettivi? I miei obiettivi? Gli obiettivi dell’ISIS? Gli obiettivi di Hillary Clinton o di Donald Trump? Non è qualcosa che possiamo lasciare solo ai fanatici dei computer come me, perché riguarda tutti. Ovviamente filosofi, eticisti e tutti gli altri devono aderire alla conversazione.

Ci sono anche molte questioni dove abbiamo veramente bisogno di economisti, psicologi, sociologi e altri per aderire alla sfida di assicurarci che tutti stiano meglio grazie a questa tecnologia.

Parte di questo comporta capire come assicurarsi che le persone i cui lavori sono automatizzati non diventino sempre più povere, come già succede in certa misura. Ci sono molti economisti che affermano che la disuguaglianza che ci hanno dato Trump e la Brexit è stata ampiamente guidata dall’automazione.

Ma non basta dare soldi alle persone perché non puoi comprare la felicità. I lavori non solo ci danno un reddito, ma [anche] la sensazione di uno scopo e di connessioni sociali. Ed è una conversazione affascinante su quale tipo di società vogliamo creare, in definitiva, così possiamo utilizzare tutta questa tecnologia per sempre.

Parlando di Trump, ora sei preoccupato del conflitto nucleare? Ho trovato il suo commento improvviso “fuoco e furia” forse come la cosa più spaventosa che abbia mai sentito da un funzionario del governo statunitense.

Sì, penso che le armi nucleari e l’IA siano in realtà due esempi della stessa questione: noi esseri umani stiamo inventando progressivamente tecnologie sempre più potenti e lottando sempre di più, assicurandoci che la nostra saggezza per la gestione delle tecnologie avanzate continui con la crescente potenza di questa tecnologia.

Quando abbiamo inventato una tecnologia meno potente come il fuoco, abbiamo fatto casino un sacco di volte e poi abbiamo inventato l’estintore. Ma con una tecnologia davvero potente come le armi nucleari e l’IA sovrumana, non vogliamo più imparare dagli errori.

Ora, alcune persone fraintendono ciò con luddismo allarmante. Per me è semplicemente ingegneria di sicurezza. La ragione per cui la NASA è riuscita a mandare gli astronauti sulla luna in sicurezza è perché pensavano sistematicamente tutto ciò che sarebbe potuto andare male e hanno capito come evitarlo.

Questo è quello che dobbiamo fare con le armi nucleari e questo è quello che dobbiamo fare anche con l’IA molto potente. Quando guardo come i leader mondiali stanno gestendo 14.000 bombe a idrogeno, mi sento come se avessimo dato una scatola di granate a una classe d’asilo.

Ecco perché mi piace la tua descrizione sulla nostra situazione difficile come una gara tra saggezza e tecnologia.

In larga misura, la saggezza consiste nelle risposte a domande difficili. Penso quindi che sia assolutamente fondamentale fare in modo che le persone pensino a queste domande difficili per ottenere le risposte nel momento in cui ne abbiamo bisogno.

Alcune delle domande sono così difficili che ci vogliono 30 anni per rispondere, il che significa che se c’è qualche possibilità di avere la superintelligenza entro 30 anni, dobbiamo iniziare a ricercare adesso, non dalla notte prima che qualcuno attivi una superintelligenza.

Se l’umanità prendesse il suo agire insieme e la saggezza vincesse la gara, quanto buono sarà il futuro?

Ho voluto scrivere un libro ottimistico proprio perché ritengo che ci sia stata poca enfasi sui lati positivi. Se le persone si concentrano solo sui lati negativi, si paralizzano dalla paura e la società diventa polarizzata e fratturata. Se invece le persone si entusiasmano per un futuro meraviglioso, ciò può favorire la collaborazione, di cui abbiamo molto bisogno in questi giorni.

Tutto quello che amo della civiltà è il prodotto dell’intelligenza, quindi se possiamo ampliare la nostra intelligenza con l’IA, abbiamo il potenziale per risolvere tutti i problemi che ci stanno affliggendo adesso, dalle malattie incurabili al come ottenere energia sostenibile e correggere il nostro il clima, la povertà, la giustizia – tutto.

 

Prevenire è meglio che curare

Il pensiero di Max Tegmark, come quello di molti altri esperti, è riassumibile in un famoso proverbio: “prevenire è meglio che curare”.

I pericoli che potrebbero verificarsi a causa dell’IA vengono spesso fraintesi. O meglio, quando si parla di rischi e IA, l’immaginario fantascientifico bussa alla porta del nostro cervello. Ed ecco che davanti ai nostri occhi prendono vita scenari distopici e di apocalissi robotiche.

In realtà, questi pericoli non riguarderanno macchine alla Terminator. Riguarderanno principalmente errori di progettazione, usi egoistici, riproduzione di pregiudizi. Errori che procurerebbero fratture economiche e sociali non indifferenti.

Basti pensare al mondo del lavoro. Sì, l’automazione sta sostituendo sempre più attività lavorative. In questo caso, il pericolo è che molte persone si ritroveranno senza un lavoro e senza la possibilità di riqualificarsi. Sarà un cambiamento graduale, non immediato. Ma la soluzione va ricercata subito, come sostiene anche Max Tegmark. E la ricerca di tipo interdisciplinare sarà fondamentale.

L’arrivo della superintelligenza artificiale è soprattutto una questione di progettazione e gestione. Si può essere ottimisti anche evidenziando i potenziali rischi e pericoli di una tecnologia. L’importante è non creare allarmismi che blocchino il progresso, quello che potrebbe davvero aiutarci a risolvere anche i problemi più complessi.

Per ricevere aggiornamenti sulle tecnologie digitali dirompenti, iscriviti alla newsletter. Così avrai le ultime notizie dal blog e altro materiale grafico e audiovisivo sull’evoluzione digitale. 🙂

Controcorrente Newsletter

Fonte: Motherboard
Foto: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.