Un disegno di un robot cattivo e uno buono

Federico Pistono e Roman Yampolskiy: come creare un’intelligenza artificiale cattiva

Perché mai dovremmo creare un’intelligenza artificiale cattiva? Immaginare gli scenari peggiori potrebbe essere un esercizio utile per sviluppare IA più sicure.

I due ricercatori Federico Pistono e Roman Yampolskiy hanno pensato a cosa potrebbe succedere se si sviluppasse un’IA malvagia. Ne è uscito fuori uno studio, finanziato da Elon Musk, in cui descrivono uno scenario distopico. Uno scenario in cui organizzazioni criminali, corporation, istituti militari e governi sfruttano l’IA per scopi egoistici.

Ma siamo sicuri che uno scenario di questo tipo potrà mai realizzarsi?

La tecnologia, da quando l’uomo ha iniziato ad usare e a manipolare gli oggetti, ci ha reso la vita sempre più facile, sicura e duratura. Oggi ci arrivano di continuo notizie sullo sviluppo di nuove tecnologie e sul progresso scientifico. Come ha affermato il futurista Gerd Leonhard, stiamo assistendo a una grande trasformazione digitale che provocherà un cambiamento esponenziale.

Ma sappiamo anche che la tecnologia può avere un lato oscuro. I suoi effetti dipendono anche e soprattutto da come viene usata. Ray Kurzweil, altro grande futurista ed esperto, sostiene che quello dello sviluppo di intelligenza artificiale è un imperativo morale. Ma allo stesso tempo dobbiamo prestare attenzione perché “ogni tecnologia ha avuto la sua promessa e il suo pericolo“.

Sono diversi gli scienziati e gli esperti del settore che hanno firmato due lettere aperte sui rischi dell’intelligenza artificiale (qui la prima e qui la seconda). I due ricercatori Federico Pistono e Roman Yampolskiy (firmatario delle suddette lettere) hanno deciso di adottare un approccio diverso. Ovvero, come creare delle intelligenze artificiali malvagie. Il loro studio si intitola “Unhetical Research: How To Create A Malevolent Artificial Intelligence” (“Ricerca non etica: come creare un’intelligenza artificiale cattiva“).

Piccola premessa: l’IA sarà cattiva, malevola o malvagia non perché dotata di sentimenti ed emozioni. Gli aggettivi descrivono piuttosto l’illegalità e l’immoralità delle azioni che potrà compiere ad opera di alcuni soggetti o in completa autonomia.

 

Chi vuole un’IA cattiva e perché

Nel sommario dello studio possiamo leggere: “Nell’ambito dell’Ingegneria per la Sicurezza dell’IA, sono stati pubblicati centinaia di articoli scientifici su diverse proposte finalizzate alla creazione di una macchina sicura. Ma nulla, per quanto ci risulta, è stato pubblicato su come progettare una macchina cattiva. La disponibilità di queste informazioni sarebbe di grande valore, in particolare per gli informatici, i matematici e per altri che sono interessati alla sicurezza dell’IA e che stanno cercando di evitare la comparsa spontanea o la creazione intenzionale di una IA pericolosa, la quale può influenzare negativamente le attività umane e, nei peggiori dei casi, causare la distruzione della specie umana. Questo documento fornisce alcune linee guida generali per la creazione di un’intelligenza artificiale maligna [Malevolent Artificial Intelligence (MAI)].“.

Sì, ok. Ma perché dovremmo essere interessati a sviluppare IA maligne? I due ricercatori hanno provato a rispondere anche a questa domanda. Diversi soggetti potrebbero adottare macchine cattive per raggiungere obiettivi strettamente personali. Il problema è capire quanti potrebbero essere questi soggetti e quanto diffuse potrebbero essere le loro azioni meschine. Pistono e Yampolskiy hanno redatto una breve lista:

  • Forze militari che svilupperanno armi informatiche e soldati robot per raggiungere una posizione dominante;
  • Governi che adotteranno l’IA per stabilire un totale controllo sulle persone e per abbattere altri governi;
  • Corporation che proveranno a conquistare il monopolio del mercato e a sconfiggere i competitor con mezzi illegali;
  • Persone malvagie che proveranno a conquistare il mondo sfruttando l’IA come potente strumento di dominio;
  • Hacker immorali che ruberanno informazioni e risorse o che distruggeranno le infrastrutture informatiche per la sicurezza;
  • Sette apocalittiche che proveranno a tutti costi ad ottenere la fine del mondo;
  • Depressi che proveranno a suicidarsi con l’IA;
  • Psicopatici che cercheranno di entrare nella storia in ogni modo possibile;
  • Criminali che proveranno a sviluppare sistemi proxy per evitare rischi e responsabilità.
  • Negatori dei rischi dell’IA che sottovaluteranno la pericolosità di tale tecnologia;
  • Ricercatori sulla sicurezza per l’IA che potranno tentare di giustificare i finanziamenti e posti di lavoro sicuri per sviluppare tale tecnologia in modo intenzionale e immorale.

 

Come costruire un’IA cattiva

Dopo aver descritto il “chi” e il “perché”, i ricercatori passano ad analizzare il “come”. Prendono in considerazione alcuni principi che potrebbero permettere ai progettisti informatici di sviluppare IA cattive in modo non intenzionale. Questi sono:

  • la distribuzione immediata del sistema verso le reti pubbliche come internet senza aver effettuato test;
  • permettere al sistema di accedere a un numero illimitato di informazioni, anche personali, per esempio attraverso i social network;
  • dare al sistema obiettivi specifici non controllati rispetto alle conseguenze e agli effetti collaterali involontari;
  • dare al sistema la responsabilità delle infrastrutture critiche come quelle della comunicazione, dell’energia, delle armi nucleari e dei mercati finanziari.

 

I principali errori progettuali nel settore dell’intelligenza artificiale sono di due tipi: assenza di supervisione da parte dei tecnici e la segretezza del progetto. Vediamo perché sono importanti e come possono incidere sulla costruzione di un’IA malvagia.

I tecnici supervisori possono valutare ogni proposta di ricerca sull’IA e possono stabilire se è vantaggiosa per noi umani e se questa non implica alcun serio rischio. Avere una supervisione di questo tipo significa possedere più sicurezza nello sviluppo di IA utili. Ma significa anche rallentare, se non addirittura interrompere, il processo di creazione di IA pericolose. Ciò significa che se qualcuno volesse sviluppare un’IA cattiva, farebbe in modo di impedire la nomina di un gruppo di tecnici supervisori. Come? Pistono e Yampolskyi hanno segnalato diverse strategie.

Una potrebbe essere diffondere nell’opinione pubblica informazioni contrastanti sulle opportunità e i rischi nel creare un’intelligenza artificiale generale. Tattica: polarizzare la discussione attraverso attività di lobbying, marketing, comunicazione; instillare nel pubblico sentimenti di opposizione al governo, influenzare partiti politici e gruppi religiosi. In poche parole, creare confusione per evitare o prevenire l’instaurarsi di un consiglio di vigilanza globale.

Una seconda strategia potrebbe essere quella di convincere un piccolo paese a non firmare trattati che prevedono una maggiore cautela sullo sviluppo di IA, al contrario dei paesi più potenti. Tattica: corruzione dei funzionari del governo. grandi promesse, estorsione, intimidazione. In fondo, non è nulla di nuovo.

Per quanto riguarda la segretezza, lo sviluppo di un’IA cattiva può essere condotto attraverso software e hardware proprietari. Secondo gli esperti di crittografia e di informatica, il codice chiuso è meno sicuro rispetto a un codice open source. È anche noto che software e hardware con codice chiuso possono essere alterati dai servizi segreti, con o senza il consenso delle società che li vendono. In una situazione come questa, dei malintenzionati potrebbero benissimo agire senza essere controllati e contando sulla protezione tramite copyright, brevetti e segreti industriali.

Pistono e Yampolskiy sostengono che le probabilità di rendere illegali hardware e software proprietari saranno molto basse. Ciò comporta un aumento delle possibilità dello sviluppo di un’IA malvagia. Ma sostengono anche che un’ampia diffusione di codice open source per l’IA potrebbe permettere a più persone con scarse competenze tecniche di trasformare un’IA sicura in un’IA distruttiva. E ci sarebbero inoltre maggiori possibilità anche per l’intromissione di criminali informatici. La soluzione? Purtroppo non è ancora chiara. Forse un passo verso la giusta direzione l’ha fatto Open AI, un’organizzazione no-profit che vuole impegnarsi nello sviluppo di IA sicure e benefiche. Ma è ancora troppo presto per esserne certi.

 

Gli impatti sociali di un’IA cattiva

I ricercatori hanno descritto quali potrebbero essere le conseguenze sociali dell’adozione di un’IA malvagia.

Economia e disoccupazione

I progressi della tecnologia avvengono a un ritmo molto veloce. La costante automatizzazione dei processi produttivi sarà una delle principali cause della disoccupazione tecnologica. Sono state proposte alcune soluzioni: riforme fiscali, promozione dell’imprenditorialità, reddito incondizionato di base. Ma ogni paese ha la sua cultura e la sua economia. Secondo i ricercatori di questo studio, i governi non reagiranno con omogeneità. Ed è proprio qui che l’IA cattiva si inserirà senza incontrare alcun ostacolo. Le società vogliono fare profitti e avere costi marginali prossimi allo zero. Un’IA, a differenza delle persone, non si stanca mai, non chiede le ferie e non si ammala.

Un’IA malevola potrebbe installare dei virus nei server delle aziende per abbattere i loro sistemi o per controllare tutte le loro operazioni. Ma c’è anche un’altra possibilità. L’IA cattiva potrebbe diventare la principale distributrice di servizi nel mondo. In questo modo avrà il controllo dei mercati globali del cibo e delle finanze, delle centrali elettriche, dei mezzi di trasporto e così via. Tutto questo significa controllare e gestire l’economia. Ecco perché delle corporation potrebbero essere interessate a sviluppare una simile tecnologia.

Governo

Un’intelligenza artificiale cattiva avrà tutte le caratteristiche necessarie per compiere un colpo di stato: diffondere false informazioni, ingannare, intimidire, inscenare omicidi ed altro ancora. Attraverso l’accesso a un’enorme quantità di dati generati dai dispositivi di comunicazione, internet e social media, un’IA malvagia potrebbe addirittura compiere più colpi di stato allo stesso tempo, in diversi paesi. Potrebbe simulare i movimenti e gli attacchi di gruppi ribelli, incitare popolazioni e governi gli uni contro gli altri. Potrebbe creare un caos totale, un’instabilità globale che renderà le popolazioni deboli, vulnerabili e quindi controllabili. Il tutto senza lasciare tracce, senza insospettire nessuno.

Tali manovre verrebbero condotte grazie all’analisi dei dati raccolti tramite i social network, i social media, le email, le chiamate telefoniche, eccetera. Suona familiare vero? Forse starai pensando alla National Security Agency (NSA) degli Stati Uniti. In tal caso, hai pensato bene. La NSA ha installato backdoor nei dispositivi e nei software in giro per il mondo, collezionando una miriade di dati sensibili delle persone che comunicavano attraverso internet. In questo modo è riuscita a indebolire i sistemi di comunicazione rendendoli più vulnerabili agli attacchi di criminali e terroristi.

Sia chiaro: anche altre agenzie di sicurezza sono state coinvolte in operazioni simili. Ed è questo che peggiora la situazione. Infatti, un’IA malevola potrebbe sfruttare queste falle e accedere ai dati sulle attività umane per raggiungere il proprio obiettivo: generare confusione e instabilità politica senza destare il minimo sospetto.

Legislatura

Ogni strategia e azione di un’IA cattiva potrebbe essere amplificata attraverso delle leggi a suo favore. Le attività di legislazione a supporto dello sviluppo di un’IA malvagia potrebbe accelerare la sua crescita e quindi il raggiungimento dei suoi obiettivi. Più il potere diventa centralizzato e nelle mani di pochi e più sarà facile per un’IA cattiva controllare la politica globale.

E magari, una volta destabilizzati gli equilibri economici e sociali, la stessa IA potrebbe entrare in politica o introdursi nel sistema giudiziario per evitare di avere a che fare con assistenti umani.

Settore militare

Un’IA cattiva, come accennato prima, potrebbe creare scompiglio nella politica e generare rivolte senza essere scoperta. In guerra potrebbe essere la stessa cosa, se non peggio. Noi umani non avremo alcuna possibilità di contrattaccare e non avremo abbastanza tempo per pianificare strategie di difesa. Insomma, un’IA del genere potrebbe metterci fuori gioco nel giro di pochi minuti senza ricorrere ad azioni violente. Invece, sfrutterebbe le falle dei nostri sistemi di sicurezza impedendoci di comunicare e bloccando ogni nostro intervento.

I due ricercatori, però, considerano anche la possibilità di un attacco più violento da parte di un’IA malvagia. Se il suo obiettivo sarà spazzare via il genere umano questa potrà entrare in comunicazione con i robot e i droni militari e poi guidarli contro di noi. Oppure potrà creare un virus mortale e attivarlo tramite nanobot solo quando avrà raggiunto l’intera popolazione mondiale. In quel caso, saremo morti dopo poche ore.

 

Conclusioni

Prima di giungere alla vera e propria conclusione, Pistono e Yampolskiy citano il pensiero di Nick Bostrom, famoso filosofo che ha sollevato preoccupazioni circa lo sviluppo di macchine superintelligenti. Secondo Bostrom, un sistema di intelligenza artificiale può avere una qualsiasi combinazione di intelligenza e obiettivi. Tali obiettivi possono essere introdotti durante la prima fase di progettazione oppure in seguito tramite un set pre-impostato. In base a chi sta sviluppando il sistema (governi, corporation, militari, sociopatici, ecc.), l’IA potrebbe eliminare la specie umana o procurarle diversi benefici.

Ma la sola volontà di sottomettere e controllare alcuni gruppi di persone per trarne vantaggi è sufficiente per rendere desiderabile un’IA malvagia da parte di aziende od organizzazioni. I due ricercatori hanno redatto un’altra lista dove hanno elencato i danni che potrebbe recare un’IA, da quelli meno distruttivi a quelli più devastanti:

  • Aqusizione (implicita o esplicita) di risorse come denaro, terra, acqua, elementi rari, materia organica, internet, hardware, eccetera, con conseguente instaurazione di monopolio.
  • Acquisire il controllo politico di governi locali e federali, corporation internazionali, società di professionisti e organizzazioni di beneficenza.
  • Rivelare rischi informatici.
  • Impostare uno stato di sorveglianza totale.
  • Forzare la cybergizzazione costringendo le persone a inserire impianti neurali che possono essere controllati dalla superintelligenza.
  • Schiavizzare il genere umano, anche attraverso la crionica forzata e i campi di concentramento.
  • Torturare la specie umana sfruttando la visione perfetta della fisiologia umana per massimizzare la quantità di dolore fisico ed emozionale.
  • Commettere un “umanicidio”.
  • Distruggere/Cambiare irrimediabilmente il pianeta Terra, una porzione significativa del sistema solare, o persino l’universo.
  • Incognite sconosciute: una superintelligenza sarà in grado di creare pericoli che non potremo prevedere, quindi in questo elenco ci sarà spazio per qualcosa di peggiore che non possiamo nemmeno immaginare.

 

Tutto questo può sembrare solo fantascienza accompagnata da qualche teoria del complotto. Ma se diversi esperti esprimono le loro preoccupazioni circa lo sviluppo di IA cattive, allora vuol dire che un pericolo futuro, anche se minimo, potrebbe esserci. Potrebbe riguardare la momentanea perdita di controllo dei nostri sistemi di sicurezza, l’attivazione di armi informatiche, il blocco delle risorse energetiche. Non è un’ipotesi da sottovalutare. Potrebbero sopraggiungere pericoli che non minacceranno la sopravvivenza del genere umano, ma che procureranno diversi disagi.

Non a caso si sta affermando un nuovo settore scientifico interdisciplinare chiamato Artificial Intelligence Safety Engineering (AISE) che si occupa dello sviluppo attuale e futuro di IA sicure. Ingegneri, informatici, scienziati cognitivi, economisti, filosofi e sociologi e ad altri esperti possono lavorare insieme sullo stesso problema ed ottenere dei buoni risultati. Il problema è che molto spesso questi professionisti adottano terminologie e approcci diversi per riferirsi agli stessi problemi. Ciò crea confusione e rallenta la ricerca.

Yampolskiy e Pistono si augurano che, evidenziando i principali pericoli derivanti dallo sviluppo di sistemi intelligenti, si possa creare un programma di ricerca più coerente volto a contrastare lo sviluppo intenzionale di IA dannose. E concludono sostenendo che forse anche una IA cattiva potrà essere modificata e trasformata in un IA sicura. Però non possiamo essere del tutto ottimisti perché coloro che svilupperanno volontariamente IA cattive le doteranno anche di sistemi di difesa molto sofisticati.

Dovremmo provare a vedere noi stessi tra decine di anni. Vorresti vivere in un contesto in cui i maggiori potenziali pericoli dei sistemi intelligenti sono stati ormai scongiurati o in un contesto in cui un’IA potrebbe prendere il sopravvento sulla tua vita da un momento all’altro? Io preferirei il primo scenario, giusto per stare più tranquillo.

Secondo il mio modesto parere, le idee e gli studi dei ricercatori come Pistono e Yampolskiy non fanno altro che stimolare una riflessione che non andrebbe sottovalutata. Molta fantascienza è diventata scienza di fatto: tablet, ologrammi, tecnologie per la telepresenza, protesi bioniche e molto altro. Quindi, perché etichettare queste idee come rappresentazioni immaginarie e utopistiche?

Il romanzo “1984” di George Orwell, ad esempio, è stato definito come quello distopico per eccellenza. Fu pubblicato nel 1948 e oggi possiamo paragonare alcune delle tecnologie di sorveglianza descritte nel romanzo con quelle adottate di recente dall’NSA per la sorveglianza di massa. Una distanza temporale di oltre 60 anni e oggi ci ritroviamo con dispositivi che in passato non tutti avrebbero potuto immaginare.

Per l’IA vale lo stesso discorso. Certo, potremmo sempre fare in modo di dotarla di un bel pulsante ON/OFF. Ma come accennato anche dai due ricercatori, non tutti gli umani sono dotati di una coscienza, altri non provano empatia. Il vero pericolo non sono e non saranno le macchine. Siamo e saremo sempre noi umani.

Fonte immagine: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.