Pedro Domingos sulla corsa alle armi nell’IA

Pedro Domingos, professore presso l’università di Washington, ricercatore nel settore del machine learning e autore de “L’algoritmo definitivo“, ha espresso la sua opinione sulla competizione globale nell’intelligenza artificiale (IA).

Fin dove si spingeranno i big player? Qual è e quale sarà l’impatto politico? Quali saranno le minacce? Domingos ha risposto a queste e ad altre domande in un’intervista di Spiegel Online.

 

Pedro Domingos sulla situazione dell’IA nel mondo

Signor Domingos, il presidente russo Vladimir Putin afferma che chi domina nell’intelligenza artificiale governerà il mondo. È vero?

Realisticamente sono d’accordo con lui. L’intelligenza artificiale è una tecnologia molto potente e c’è una corsa agli armamenti al momento. Tra 20 anni uno dei player potrebbe vincere la gara. La Cina ha più probabilità di vincere rispetto alla Russia, anche se la Russia ha molto in ballo. Quindi potremmo ritrovarci in un mondo in cui la Cina potrebbe non avere il controllo ufficialmente, ma in effetti ce l’ha perché governa il mondo cibernetico.

Perché ciò equivale al dominio del mondo?

L’IA abbassa il costo della conoscenza per ordine di grandezza. Un buon sistema di apprendimento automatico può fare il lavoro di un milione di persone, che sia per scopi commerciali o per cyberspionaggio. Immagina un paese che produce una conoscenza mille volte maggiore rispetto a un altro. Questa è la sfida che stiamo affrontando.

Il presidente cinese Xi Jinping è molto interessato all’intelligenza artificiale. Sapevi che prima del suo discorso per l’anno nuovo il tuo libro era sul suo scaffale?

Non lo sapevo, ma l’ho scoperto abbastanza rapidamente. Xi Jinping lo fa regolarmente. Questi libri sono sul suo scaffale per mandare un messaggio e, avendo il mio libro, il messaggio che penso stia mandando è: “Crediamo davvero nell’intelligenza artificiale”. Quindi, quando l’ho scoperto, non ero estremamente sorpreso dato che il governo cinese lo aveva annunciato prima di voler dominare nell’IA.

Quale sentimento ha prevalso quando hai visto il tuo libro lì – un senso di riconoscimento o uno di preoccupazione?

Era sia emozionante sia spaventoso. Emozionante perché la Cina si sta sviluppando rapidamente, e c’è tutta una serie di modi in cui i cinesi e il resto del mondo possono trarre beneficio dall’IA. Spaventoso perché questo è un governo autoritario che si sta dedicando completamente all’uso dell’intelligenza artificiale per controllare la propria popolazione. In realtà, quello che stiamo vedendo ora è solo l’inizio. Come ogni tecnologia, l’intelligenza artificiale ti dà il potere di fare del bene e del male. Finora, ci siamo concentrati sul potere di fare del bene, e penso che sia enorme. Ma c’è anche il potere di fare del male.

È una coincidenza che due autocrati come Xi e Putin siano così interessati all’IA?

Quando viaggio in America, Europa e Asia, è interessante vedere come le persone percepiscono diversamente questa tecnologia. Il quadro che esce dalla Silicon Valley è molto ottimista, influenzato dalle idee libertarie. Per l’Europa è vero l’opposto: sono appena tornato da una conferenza a Berlino dove sono rimasto colpito dal puro pessimismo. Ogni sessione era: “Oh, dobbiamo aver paura di questo, chissà cosa può succedere qui?”. Fino a quando qualcuno non ha fatto un punto ragionevole – poiché la conferenza si chiamava “Humanity disrupted“. Ha chiesto: “Perché non chiamiamo la conferenza ‘Humanity Enhanced‘?”. Certo, l’intelligenza artificiale porta sconvolgimento, ma siamo molto più potenziati che sconvolti.

E la Cina e la Russia?
Sfortunatamente vedono il potenziale autoritario e meno quello libertario. Xi Jinping e Vladimir Putin si chiedono: “Cosa possiamo fare con questa tecnologia?”

Noi europei stiamo perdendo di vista gli autocrati?

Ci sono molte applicazioni di IA usate negli Stati Uniti e in Cina, a livello locale o nazionale, nella ricerca medica o nella gestione del traffico. Meno in Europa. Quindi, sì, l’Europa si sta perdendo in una certa misura, sfortunatamente.

Il tuo libro è stato tradotto in russo e in cinese, ma non in tedesco o francese.

Il mio agente letterario mi ha detto: “Venderai questo libro in tutto il mondo, ma non in Francia e in Germania“. E questo è quello che è successo. “L’algoritmo definitivo” è stato venduto in Giappone, Cina, Taiwan, Corea del Sud. Ci sono traduzioni polacche e russe. Ma il mio agente aveva ragione quando diceva: “Ai tedeschi e ai francesi non piacciono queste cose“.

Il tuo libro mette in guardia sui limiti, persino sui pericoli di questa tecnologia se finisce nelle mani sbagliate. Non siamo preoccupati per delle buone ragioni?

Ci sono pericoli e, in termini di regolamentazione dell’IA, l’Europa è in testa rispetto agli Stati Uniti. Sfortunatamente, c’è troppa regolamentazione senza capire la tecnologia che viene regolata.

Che vuoi dire con questo?

Il regolamento generale sulla protezione dei dati dell’Unione europea (GDPR) sta attribuendo troppo valore al fattore di spiegabilità, il che significa perché un algoritmo decide in questo modo piuttosto che in quell’altro modo. Prendiamo l’esempio della ricerca sul cancro, in cui l’apprendimento automatico ha già un ruolo importante. Preferirei che venisse diagnosticato da un sistema accurato al 90% ma che non spiegasse nulla, o da un sistema che fosse accurato all’80% e che spiegasse le cose? Preferirei optare per il sistema accurato al 90%.

Perché non possiamo avere entrambe: accuratezza e spiegabilità?

I migliori algoritmi di apprendimento sono quelli basati sulla rete neurale ispirati a ciò che troviamo negli umani e negli animali. Questi algoritmi sono molto accurati in quanto possono comprendere il mondo sulla base di molti dati a un livello molto più complesso di quello che possiamo. Ma sono completamente opachi. Anche noi, gli esperti, non capiamo esattamente come funzionano. Sappiamo solo che lo fanno. Quindi non dovremmo considerare solo gli algoritmi che sono completamente spiegabili. È difficile cogliere l’intera complessità della realtà e mantenere allo stesso tempo le cose precise e semplici.

Come dovrebbe essere regolata l’intelligenza artificiale, allora?

Non esiste una legge sufficientemente dettagliata per competere con la complessità delle cose che gli algoritmi possono fare. Ciò che può essere regolato, tuttavia, sono i pericoli che derivano da funzioni oggettive troppo grezze come gli algoritmi di Facebook che massimizzano il tempo che si trascorre sul loro sito. Questi possono essere regolati dicendo: “Ok, hai questi elementi di business nella funzione obiettivo perché hai bisogno di fare soldi. Ma dovresti anche avere questi obiettivi sociali come, ad esempio, il valore della verità delle cose che vengono dette”.

Quale parte non dovrebbe essere regolata?

C’è questa nozione che precede il GDPR secondo la quale i dati possono essere utilizzati solo per lo scopo per cui sono stati raccolti. Sembra plausibile, ma se avessimo usato quel principio per tutto il tempo non avremmo avuto la penicillina. Non avremmo i raggi X. Non avremmo tutte le scoperte scientifiche che sono venute inaspettatamente. La serendipità, scoprire nuove cose nei vecchi dati, è un enorme fattore in corso.

Lo hai spiegato ai politici europei?

Ho parlato con alcuni politici, ma di nuovo, meno in Europa che in altri posti. L’ironia è che ci sono molti grandi ricercatori di intelligenza artificiale in Europa. Non come negli Stati Uniti, ma in termini di qualità della ricerca, l’Europa è migliore della Cina. Ma la Cina si sta muovendo velocemente…

… e può superarci, alla fine, con il suo modello autoritario?

Eric Schmidt, ex CEO di Google, ha affermato che entro il 2025 la Cina sarà in vantaggio perché Pechino ha una strategia concertata. Questo è del tutto concepibile. Ma diverse aree hanno diversi vantaggi. Gli Stati Uniti hanno un sistema che funziona molto bene, dalla ricerca di base finanziata dal governo ai VC e alle startup che trasferiscono le conoscenze dalle università. Il vantaggio della Cina è l’enorme pool di dati che alimenta l’apprendimento automatico. Il vantaggio dell’Europa è la diversità della sua gente. Se dovessi scegliere tra Europa o Cina come gruppo di dati da cui imparare, potrei scegliere l’Europa perché in Cina i dati sono spesso più omogenei e ridondanti. Un altro aspetto è che la Cina è molto sprezzante nel proteggere l’individuo – il che può essere sia un vantaggio sia uno svantaggio.

Perché?

Nella ricerca sul cancro, ad esempio, dovrebbe essere il dovere etico dei pazienti, a mio avviso, a fornire i loro dati. Ma esiteranno a farlo se devono preoccuparsi della privacy. Pertanto, la qualità e la sicurezza dei dati potrebbero essere inferiori, anche se il volume è molto più grande.

La corsa alle armi nell’IA sarà perlopiù tra paesi o tra grandi corporazioni?

Il mondo cambierà drasticamente a riguardo, i confini stanno già cambiando. Quando parlo con le persone nelle forze armate – molte delle mie ricerche sono finanziate dal Dipartimento della Difesa – hanno da tempo abbandonato la speranza di tenere il nemico fuori dalle mura. Il nemico è già dentro, per quanto cerchiamo di rattoppare i muri. Ed è per questo che la Cina diventa molto brava nel costruire uno stato di sorveglianza.

In che modo questo riguarda le grandi aziende Internet?

La corsa alle armi è più lontana tra le aziende. Fino ad ora hanno lavorato sull’IA in modo tranquillo, in parte per ragioni competitive. Oggi le più grandi società tecnologiche devono fedeltà a nessuno: cinque o sei negli Stati Uniti, due o tre in Cina. Ma prima o poi ci sarà un ridimensionamento e le società diventeranno più controllate a livello nazionale. Questo potrebbe essere un vantaggio per la Cina, dato che il governo e le società si aiutano a vicenda con poca compunzione. Questo è molto diverso negli Stati Uniti.

E in Cina?

Il rivenditore online Alibaba e il conglomerato Tencent sono i migliori, ma quella che ha fatto la più grande scommessa sull’IA è Baidu, il motore di ricerca.

Copertina del libro "L'algoritmo definitivo", scritto da Pedro Domingos

I regimi autoritari, l’esercito, lo spionaggio informatico e ora la violazione dei dati su Facebook – come mai consideri l’IA come una cosa positiva?

Guarda cosa ha realizzato la tecnologia negli ultimi 200 anni. Sì, sono successe cose brutte, ma il risultato è stato straordinariamente positivo. Ci sono buone ragioni per essere ottimisti e pessimisti; in effetti, le ragioni di entrambi sono diventate molto più grandi ora. Il mio stato d’animo di base, tuttavia, è prudentemente ottimista.

Lo scandalo di Facebook non è esattamente la grande “esplosione” nella digitalizzazione da cui hai messo in guardia nel tuo libro?

Su Facebook sono sempre stati molto disinvolti sulla privacy, hanno sempre fatto cose rischiose che si sono fatti esplodere in faccia – e solo allora hanno fatto un passo indietro. Non è un caso che siano meno affidabili delle altre grandi aziende tecnologiche. In un certo senso, questa resa dei conti era fissata sin dall’inizio. Detto questo, Facebook oggi non è quella che era qualche anno fa. Una violazione dei dati come quella di Cambridge Analytica non succederebbe oggi.

Come regoleresti Facebook?

Facebook fa molte cose che sono discutibili. I loro algoritmi di apprendimento automatico sono impostati per massimizzare il coinvolgimento. Certo, non sono gli unici a farlo, ogni programma TV di successo, o sport o romanzo lo fa. Ma Facebook sta usando l’intelligenza artificiale per massimizzare il coinvolgimento e fa qualche danno nel processo. Le persone vengono disinformate da Fake News, quindi polarizzate. Queste sono cose reali di cui preoccuparsi. Allora forse la politica deve intervenire e dire: “Guarda, questi sono i confini”.

I social media possono diventare un pericolo per la democrazia?

Possono essere un pericolo e anche un’opportunità. Se ci pensi, la democrazia è ancora quella del XIX secolo. La tua comunicazione con i tuoi rappresentanti e ministri è di pochi bit all’anno. È ridicolo. Un modo per migliorare questo potrebbe essere un modello digitale di un cittadino che i politici possono consultare per capire cosa vuole quel cittadino. Il che porterebbe a decisioni migliori per la città e i governi farebbero ciò che la gente vuole rispetto a ciò che i politici pensano che la gente desideri. L’apprendimento automatico potrebbe aiutare in questo. Quindi questa è l’opportunità.

E il pericolo?

Il pericolo è che questa tecnologia venga usata per manipolare le persone. Ma è importante mantenere le cose in proporzione. Al momento, le società di social media sono principalmente interessate alla vendita di annunci pubblicitari. Il valore totale di un cliente di Facebook è qualcosa come 50$ all’anno di qualcuno che spende forse 50.000$. Quindi, tutto questo apprendimento automatico, tutti questi dati messi insieme influenzano solo lo 0,1 percento di ciò che fai. L’idea che tu possa influenzare le elezioni con l’IA in questo momento mi sembra un po’ lontana. Ma penso che andando avanti, poiché la tecnologia diventa più potente e le aziende dei social media avranno più dati, il pericolo sarà maggiore.

Qual è il rischio più grande dell’IA – perdite di dati come quella che abbiamo visto su Facebook o lo stato di sorveglianza orwelliana che molti autocrati sognano?

Se gli autocrati stanno ottenendo di più dall’IA rispetto ai paesi democratici, allora abbiamo un problema. Basandoci su una famosa citazione di Trotsky, potremmo dire: “Potresti non essere interessato all’IA, ma l’IA è interessata a te”. Proprio come gli americani credono negli avvocati, i cinesi credono negli ingegneri. Molte delle loro persone migliori sono ingegneri. Per loro, la società è solo un altro problema ingegneristico: costruiremo questa macchina per fare in modo che si comporti come vogliamo. Per politici come questi, ciò è incredibilmente seducente.

I leader sovietici hanno sognato di governare anche il mondo.

Sì, e hanno perso contro la democrazia e il capitalismo. Ma immagina cosa potrebbe aver realizzato quel regime con gli algoritmi del nostro tempo. I computer sono come gli ultimi burocrati. Possono tenere d’occhio tutti e sono incorruttibili, ma nelle mani di un despota estremamente corruttibile. Se in una società aperta e democratica, come comandante di un esercito, dico ai miei soldati di fare qualcosa che pensano sia cattivo, in realtà per le leggi della maggior parte dei paesi occidentali sono liberi di rifiutare il comando. Se si tratta di un computer, il computer non dice di no. Esegue e basta.

A volte sovrastimiamo i progressi nell’IA? Ovunque interagiamo con essa – nel riconoscimento vocale o facciale, ad esempio – ci delude.

La tecnologia fa sempre meno progressi di quanto ci si aspetti nel breve termine e maggiori progressi nel lungo termine, e l’intelligenza artificiale è l’ultimo esempio di ciò. I sistemi di IA che oggi usiamo nella vita di tutti i giorni sono ancora incredibilmente stupidi. Non c’è intelligenza in Alexa o Siri.

Perchè no? È così difficile imparare le informazioni di base su di noi da dozzine di interazioni e richieste?

È straordinariamente difficile. Pensiamo che l’intelligenza sia facile perché portiamo con noi tutta la storia dell’evoluzione. Detto ciò, negli ultimi 50 anni siamo arrivati a una lunga distanza in campo tecnologico. Siamo arrivati a mille miglia e ci sono cose straordinarie che possiamo fare con ciò che abbiamo ora. C’è ancora un milione di miglia da percorrere, ma non ci metteremo molto tempo come prima.

Nel tuo libro scrivi che “qualsiasi intelligenza artificiale sufficientemente avanzata è indistinguibile da Dio“. Potresti spiegare questo pensiero?

È un gioco su una citazione dello scrittore di fantascienza Arthur C. Clarke, secondo il quale qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia. Uno dei punti più ampi che volevo fare è che siamo costantemente spaventati dalle macchine che si ribellano. Questo non succederà. Quello che potrebbe accadere, però, è che rinunciamo volontariamente al controllo delle macchine perché sono grandiose. Sono obiettive, non hanno tutti questi difetti umani. Hanno accesso a più dati. Un cellulare non è una magia?

Quindi, a lungo termine, si tratterà di chi controlla le macchine?

Esattamente. La storia mostra quanto siamo pronti e disposti ad obbedire ai leader e a fare ciò che dicono gli dei. Siamo psicologicamente pronti a mettere le cose nelle mani dell’IA, anche se non dovremmo. Ma alla fine non è l’intelligenza artificiale a prendere le decisioni, sono quelli che controllano l’intelligenza artificiale. Chi dirigerà i principali algoritmi? Noi o Xi Jinping? Questa è la domanda.

 

Tutti a inseguire l’IA

A mio parere, Pedro Domingos ha evidenziato due punti davvero importanti. Il primo è che l’intelligenza artificiale può essere usata sia per fare del bene sia per fare del male. È un discorso che riguarda tutte le tecnologie in generale, ma spesso nel caso dell’IA c’è chi pensa che questa possa tagliarci fuori da un momento all’altro. Il discorso è più complesso di quanto si pensi e a volte ci si dimentica di un dettaglio cruciale: dietro la creazione di queste tecnologie ci sono delle persone.

Il secondo punto importante è quello del controllo di questa tecnologia: è proprio qui che potrebbero nascere dei problemi. Non si tratta di avere IA cattive o buone, ma di quali interessi potrebbero esserci dietro il loro sviluppo. Grandi aziende competono in questo settore per aggiudicarsi lo strumento di IA più potente. Oltre alle aziende, però, ci sono anche i governi. Europa, Cina e USA rincorrono tutte l’IA, ognuna di loro seguendo un tipo di approccio.

Esiste un’urgenza etica nell’ambito dell’intelligenza artificiale. Non è per creare allarmismo, ma questa tecnologia ci porrà davanti sfide sempre più difficili. Sottovalutare i rischi non è una buona idea, soprattutto se già oggi abbiamo riscontrato qualche problema con i pregiudizi umani in alcune IA di livello non altissimo.

Come ha detto Pedro Domingos, c’è ancora un milione di miglia da percorrere. Bisogna proseguire con attenzione e nel rispetto dei diritti umani.

Per non perderti gli aggiornamenti del blog sull’evoluzione digitale iscriviti alla newsletter.

Controcorrente Newsletter


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.