Lo scienziato australiano, studioso di robotica ed esperto di intelligenza artificiale (IA), Rodney Brooks, ha risposto alla domanda 2016 di Edge: “Qual è la più interessante notizia scientifica recente? Cosa la rende così importante?”. La sua risposta, riportata di seguito, può essere riassunta nel suo titolo: “Intelligenza artificiale“. Solo che sull’IA se ne sono dette di cotte e di crude. Per questo motivo Brooks ha voluto fare il punto della situazione. Secondo lui, sono due le storie di cui ultimamente sentiamo parlare più spesso sui progressi dell’intelligenza artificiale. Vediamo quali sono.
Intelligenza Artificiale
“Quest’anno c’è stata una quantità infinita di notizie, in quanto distinta in sé dalle notizie, sull’intelligenza artificiale. Molte di queste storie riguardano le opinioni di scienziati e ingegneri eminenti, che non lavorano nel settore, sui pericoli quasi immediati dei sistemi super intelligenti che si stanno svegliando e che non stanno condividendo l’etica umana, e che saranno disastrosi per l’umanità.
Altre sono pervenute dalle persone del settore e riguardano l’immoralità di avere sistemi di IA che prendono decisioni tattiche militari. Altre ancore sono arrivate da varie case automobilistiche e riguardano l’imminenza delle self-driving car sulle nostre strade. Altre ancore provenivano da filosofi (dilettanti e non) su come questi veicoli automatizzati prenderanno decisioni di vita o di morte.
Le miei opinioni su questi argomenti sono in contrasto con la narrazione popolare. E credo soprattutto che tutti si stiano spingendo in avanti. La terza legge di Arthur C. Clarke era che ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia. Tutte queste nuove storie, e gli esperti che le stanno trasmettendo, mi sembrano stiano saltando così in avanti oltre lo stato dell’arte dell’intelligenza artificiale, che parlano di una futura varietà di quest’ultima. E non appena la magia è coinvolta ogni conseguenza che uno desidera, o teme, può essere facilmente derivata.
Ci sono state anche molte notizie legittime sull’intelligenza artificiale durante il 2015. La maggior parte di queste ruotano intorno la splendida prestazione degli algoritmi di apprendimento profondo [deep learning], le idee di backpropagation della metà degli anni ’80 ora estese di molto dalla migliore matematica rispetto ai soli 3 strati di rete, ed estese nelle risorse computazionali da imponenti cloud di computer gestiti dai titani della costa occidentale americana, e anche dall’uso più intelligente delle GPU (Graphical Processing Unit) all’interno di questi cloud.
L’effetto più pratico e immediato dell’apprendimento profondo è che i sistemi di comprensione del parlato sono notevolmente migliori rispetto a due o tre anni fa, abilitando nuovi servizi sul web o sui nostri smartphone e dispositivi domestici. Ora possiamo facilmente parlare con loro e farci capire. Le frustrazioni di utilizzare interfacce vocali di cinque anni fa sono completamente scomparse.
Il successo dell’apprendimento profondo, credo, ha portato molte persone a conclusioni errate. Quando una persona dimostra una particolare prestazione in qualche compito, traducendo un testo da una lingua straniera, ad esempio, abbiamo una comprensione intuitiva di come generalizzare quale tipo di competenze la persona possiede.
Per esempio, sappiamo che quella persona comprende quel linguaggio. E potrebbe rispondere a domande su quali persone di una storia su un bambino che è morto dopo un attacco terroristico erano tristi, quali avevano pianto per mesi e quali si sentivano di aver raggiunto i loro obiettivi. Ma il programma di traduzione probabilmente non ha tale profondità di comprensione. Non si può applicare la generalizzazione normale dalla prestazione alla competenza che funziona per le persone per fare simili generalizzazioni per i programmi di intelligenza artificiale.
Verso la fine dell’anno abbiamo iniziato a vedere un flusso di nuove storie che sono in contrasto con la narrativa di grande successo dell’intelligenza artificiale. Accolgo con favore queste storie che mi colpiscono portando di nuovo un po’ di realtà nei dibattiti circa la futura relazione con l’IA. E ci sono due tipi di storie che abbiamo iniziato a vedere.
La prima classe di storie è sulla scienza, dove molti ricercatori stanno vocalmente sottolineando che deve essere fatta ancora molta scienza per avvicinarsi agli algoritmi di apprendimento che imitano le grandi capacità degli umani e degli animali. L’apprendimento profondo da solo non risolverà molti dei problemi di apprendimento che sono necessari per l’intelligenza artificiale generale, ad esempio dove è coinvolto il ragionamento spaziale o deduttivo.
Inoltre, tutti i risultati innovativi che abbiamo visto nell’IA hanno richiesto anni. E non c’è alcuna ragione scientifica di aspettarsi che ci sarà una loro serie improvvisa e duratura, nonostante l’entusiasmo dei giovani ricercatori che non erano presenti nelle ultime tre ondate di tali previsioni negli anni ’50, ’60 e ’80.
La seconda classe di storie è su come le self-driving car e i conducenti delle altre auto interagiscono. Quando grandi masse cinetiche sono in prossimità degli esseri umani, il tasso di adozione è stato molto più lento di quello, ad esempio, di Java Script nei browser. C’è stato un entusiasmo ingenuo sul fatto che le self-driving car saranno presto distribuite sulle strade pubbliche.
La realtà è che ci saranno incidenti fatali (anche le cose costruite da persone incredibilmente intelligenti qualche volta esplodono) che causeranno livelli irrazionali di cautela quando saranno comparati al bilancio mondiale delle morti di oltre 3.000 incidenti mortali causati dalle persone.
Ma le storie più recenti stanno raccontando l’elevato tasso di incidenti dei veicoli automatizzati in prova. Finora, sono piccoli incidenti e sono tutti attribuibili ad errori dell’altro autista, l’umano. Le auto stanno guidando perfettamente, secondo la narrazione. E non infrangono la legge come fanno gli umani. Quindi gli umani sono in difetto.
Quando si sostiene che quei fastidiosi esseri umani semplicemente non hanno una tecnologia, già si perde l’argomentazione. C’è ancora molto lavoro che deve essere fatto prima che i veicoli automatizzati verranno lasciati liberi in ambienti in cui le persone comuni staranno anche guidando. Non importa quanto brillante sia la tecnologia per gli ingegneri e per i venture capitalist che le stanno costruendo.
L’eccesso di clamore nelle notizie dell’IA dal 2014 al 2015 sta finalmente incontrando un po’ di obiezioni. Ci saranno molte urla di indignazione dai veri credenti, ma alla fine questa bolla svanirà nel passato. Allo stesso tempo vedremo gradualmente sempre più usi effettivi di IA nelle nostre vite. Ma sarà un processo lento e costante, e non esplosivo, e non esistenzialmente pericoloso.”
Rodney Brooks frena gli entusiasmi. I progressi dell’intelligenza artificiale ci sono stati e ci sono tuttora. Ma non nella maniera in cui spesso li raccontano i giornali, i blog e i siti di notizie. La crescita dell’IA sarà lenta e costante, non esplosiva. Interpretiamo male le previsioni degli esperti immaginandoci scenari troppo futuristici non considerando, a volte senza colpe, il reale sviluppo della tecnologia dell’apprendimento profondo. Il pensiero di Rodney Brooks è molto simile a quello di Yoshua Bengio. L’intelligenza artificiale deve avanzare ancora un bel po’ prima di portarci sistemi capaci di alto livello di comprensione e veicoli automatizzati perfetti.
Nonostante ciò, per Brooks l’intelligenza artificiale è la notizia scientifica recente più interessante. E non è l’unico a pensarla così. Anche Kevin Kelly ha risposto alla domanda di Edge evidenziando gli sviluppi dell’apprendimento sintetico. Forse solo il fatto che se ne parli di più in generale sta suscitando in molte persone la curiosità e il desiderio di partecipare alle discussioni. Le opinioni di ingegneri, filosofi, sociologi e matematici si incontrano e si scontrano anche con quelle di imprenditori ed altri esperti. In una situazione del genere, i dati scientifici si alternano con l’immaginazione, capacità quest’ultima che non è di per sé negativa. Anzi, spesso è molto utile. Ma può anche diventare uno strumento volto esclusivamente alla creazione di narrazioni fantastiche.
E quindi è vero. È facile leggere storie che descrivono il nostro futuro tecnologico senza che si sia preso davvero in considerazione il reale livello tecno-scientifico che abbiamo raggiunto. D’altra parte, è anche vero che facciamo continui progressi. Magari piccoli progressi che si sommano pian piano nel tempo, ma non siamo mai fermi allo stesso punto. Forse è proprio questo che ci spinge a immaginare, e in alcuni casi anche a sperare, che abbracceremo presto tutte quelle tecnologie che ormai siamo abituati a ritrovare nelle opere di fantascienza e nei nostri desideri.
Fonte immagine: Flickr