Yoshua Bengio

Yoshua Bengio è preoccupato del futuro dell’IA

Uno dei maggiori esperti di intelligenza artificiale (IA) è preoccupato per le conseguenze dello sviluppo di questa tecnologia. Yoshua Bengio è stato tra i primi a lavorare alla tecnica del deep learning che consiste nel fornire dati ad ampie reti neurali artificiali che simulano il funzionamento del cervello umano.

In una recente intervista per MIT Technology Review ha espresso alcuni timori circa l’evoluzione dell’intelligenza artificiale.

 

Il nostro futuro con l’IA

Cosa pensi del fatto che ci sia una gara per l’IA tra diversi paesi?
Non mi piace. Non penso sia il modo giusto.

Potremmo partecipare collettivamente a una gara, ma da scienziato e da persona che vuole pensare al bene comune, credo che sarebbe meglio se pensassimo a come costruire macchine più intelligenti e assicurarsi che l’intelligenza artificiale sia usata per il benessere di quante più persone possibili.

Ci sono modi per favorire una maggiore collaborazione tra paesi?
Potremmo rendere più facile venire qui alle persone dei paesi in via di sviluppo. È un grosso problema in questo momento. In Europa, negli Stati Uniti o in Canada è molto difficile per un ricercatore africano ottenere un visto. È una lotteria e molto spesso useranno qualsiasi scusa per rifiutare l’accesso. Questo è del tutto ingiusto. È già difficile per loro fare ricerca con poche risorse, ma in più se non possono avere accesso alla comunità penso che sia davvero ingiusto. Per contrastare in parte ciò, terremo la conferenza ICLR [un’importante conferenza AI] nel 2020 in Africa.

L’inclusività dev’essere più di una parola che diciamo per fare bella figura. Il potenziale dell’IA per essere utile al mondo in via di sviluppo è ancora maggiore. Hanno bisogno di migliorare la tecnologia ancor più di quanto facciamo noi e hanno esigenze diverse.

Sei preoccupato solo di alcune compagnie di IA, in Occidente e forse in Cina, che dominano nel campo dell’IA?
Sì, è un’altra ragione per cui dobbiamo avere più democrazia nella ricerca sull’intelligenza artificiale. La ricerca dell’IA da sola tende a portare concentrazioni di potere, denaro e ricercatori. I migliori studenti vogliono andare nelle migliori aziende. Hanno molti più soldi, hanno molti più dati. E questo non è salutare. Anche in una democrazia è pericoloso avere troppa energia concentrata in poche mani.

Ci sono state molte polemiche sugli usi militari dell’IA. Qual è la tua posizione in merito?
Sono fermamente contrario.

Anche agli usi non letali dell’intelligenza artificiale?
Beh, non voglio impedirlo. Penso che dovremmo rendere immorale avere robot killer. Abbiamo bisogno di cambiare la cultura e questo include la modifica delle leggi e dei trattati. Questo può fare molto.

Certo, non lo si impedirà mai del tutto e la gente dirà: “Alcuni paesi canaglia svilupperanno queste cose”. La mia risposta è che primo, vogliamo farli sentire colpevoli per averlo fatto, e secondo, non c’è niente che ci fermi dalla costruzione di tecnologie difensive. C’è una grande differenza tra le armi difensive che uccideranno i droni e le armi offensive che prendono di mira gli umani. Entrambi possono usare l’intelligenza artificiale.

Gli esperti di IA non dovrebbero lavorare con le forze armate per garantire che ciò accada?
Se avessero i giusti valori morali, bene. Ma non mi fido completamente delle organizzazioni militari perché tendono a mettere il dovere prima della moralità. Vorrei che fosse diverso.

Di cosa sei più entusiasta in termini di nuova ricerca sull’IA?
Penso che dobbiamo considerare le difficili sfide dell’IA e non essere soddisfatti dei progressi incrementali a breve termine. Non sto dicendo che voglio dimenticare il deep learning. Al contrario, voglio costruirci sopra. Ma dobbiamo essere in grado di estenderlo per fare cose come il ragionamento, l’apprendimento della causalità e l’esplorazione del mondo per apprendere e acquisire informazioni.

Se vogliamo davvero avvicinarci all’IA di livello umano, è tutt’altra storia. Abbiamo bisogno di investimenti a lungo termine e penso che il mondo accademico sia il posto migliore per portare questa torcia.

Hai menzionato la causalità – in altre parole, non solo afferrare gli schemi nei dati, ma il perché succede qualcosa. Perché è così importante e perché è così difficile?
Se hai un buon modello causale del mondo con cui hai a che fare, puoi generalizzare anche in situazioni non familiari. Questo è fondamentale. Noi umani siamo in grado di proiettarci in situazioni molto diverse dalla nostra esperienza quotidiana. Le macchine non possono perché non hanno questi modelli causali.

Possiamo fabbricarli a mano, ma non è abbastanza. Abbiamo bisogno di macchine in grado di scoprire modelli causali. In un certo senso non sarà mai perfetto. Non abbiamo un modello causale perfetto della realtà; è per questo che facciamo molti errori. Ma siamo molto più bravi a farlo rispetto ad altri animali.

In questo momento non abbiamo davvero buoni algoritmi per questo, ma penso che se ci saranno abbastanza persone a lavorarci e a considerarlo importante faremo dei progressi.

 

Ancora confusione sull’IA

Nonostante da qualche anno l’intelligenza artificiale sia il tema tecnologico più discusso, molte persone fanno ancora fatica a capire cosa sia davvero. Secondo uno studio commissionato da VMware, il 45% dei consumatori pensa che l’IA sia un robot. Ciò la dice lunga sulla facilità di diffusione di narrazioni distopiche riguardo l’uso di questa tecnologia.

La realtà è ben diversa. I progressi ci sono: anno dopo anno, le applicazioni di IA diventano sempre più precise e sofisticate. Ma non sono paragonabili all’intelligenza umana. Facciamo ancora fatica a definire l’intelligenza, figuriamoci fare un confronto del genere. Ci sono ovviamente delle attività che l’IA esegue molto meglio del nostro cervello, come i calcoli, ma non significa che questa intelligenza sia superiore.

Yoshua Bengio lo diceva già diverso tempo fa. Lui la chiamerebbe stupidità artificiale, piuttosto che intelligenza artificiale. Perché c’è ancora molto lavoro da fare. Ciò che lo preoccupa di più, però, è l’abuso che si potrebbe fare dell’IA in guerra, nella pubblicità e nel lavoro.

Sebbene non siano ancora così potenti, già ora gli algoritmi controllano la nostra vita. È lecito dunque chiedersi cosa potrebbe succedere nei prossimi anni e cosa possiamo fare per evitare di perdere del tutto la consapevolezza delle nostre decisioni e delle nostre azioni.

Se è vero che oggi abbiamo a che fare con una stupidità artificiale, è anche vero che questa stupidità influisce in modo significativo sulle nostre vite. Ma c’è anche un’altra variabile che spesso dimentichiamo: la stupidità umana. Quella è decisamente più pericolosa di qualsiasi macchina.

Se vuoi ricevere gli aggiornamenti del blog e altri contenuti sull’evoluzione digitale, iscriviti alla newsletter.

Controcorrente Newsletter

Fonte: MIT Technology Review
Foto: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.