Ci sono alcuni errori comuni che ci distraggono e ci impediscono di pensare al futuro in modo più produttivo.

L’esperto roboticista Rodney Brooks ne ha parlato in un articolo sul MIT Technology Review.

In particolare ha evidenziato 7 tipici errori che si commettono nel fare previsioni nell’ambito dell’intelligenza artificiale (IA).

Vediamo quali sono.

 

1. Sopravvalutare e sottovalutare

Il cofondatore dell’Institute fot the Future, Roy Amara, aveva un detto in questi casi. Un detto che poi è stato tradotto in legge di Amara.

Tendiamo a sopravvalutare l’effetto di una tecnologia nel breve termine e a sottovalutare l’effetto a lungo termine.

Rodney Brooks fa l’esempio del GPS per spiegare meglio la legge di Amara. L’obiettivo del GPS, introdotto nel 1978, era quello di spedire con precisione le munizioni dell’esercito americano. Ma il suo uso operativo avvenne solo nel 1991, durante la guerra del Golfo.

Oggi, in un momento che Amara avrebbe definito “a lungo termine”, il GPS viene usato in modi che prima erano impensabili. Per registrare la propria posizione e condividerla con altre persone, sincronizzare la rete elettrica degli USA e mantenerla in funzione, evitare errori di tempistica nel mercato delle azioni, far volare gli aerei e così via.

Il GPS era nato per un unico scopo, ma nel tempo sono state inventate altre applicazioni.

Per quanto riguarda l’IA, essa è stata sottovalutata negli anni ’60 e negli anni ’80. E forse c’è un po’ di scetticismo anche oggi. Ma probabilmente anche la sua prospettiva a lungo termine è stata sottovalutata.

Brooks si chiede: “Quanto è lungo il lungo termine?“. I prossimi sei errori aiutano a capire perché la scala temporale è stata sottovalutata per prevedere il futuro dell’IA.

 

2. Immaginare la magia

A tal proposito, Brooks cita le 3 leggi di Arthur C. Clarke, noto scienziato, inventore, futurista e scrittore di fantascienza.

  1. Quando uno scienziato distinto ma anziano afferma che qualcosa è possibile, ha quasi certamente ragione. Quando afferma che qualcosa è impossibile, molto probabilmente ha sbagliato.
  2. L’unica maniera di scoprire i limiti del possibile è di oltrepassarli e finire nell’impossibile.
  3. Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia.

Rodney Brooks non concorda con la seconda frase della prima legge di Clarke, ma trova la terza interessante.

Propone di immaginare di poter andare indietro nel tempo per mostrare ad Isaac Newton alcune delle nostre tecnologie. Tecnologie come uno smartphone o un tablet con connessione interent. Newton, che è stato un genio, sarebbe rimasto sconcertato. Avrebbe interpretato ciò come qualcosa di occulto, indistinguibile dalla magia.

Questo è un problema che abbiamo tutti con la tecnologia futura immaginata. Se è abbastanza lontana dalla tecnologia che abbiamo e capiamo oggi, allora non ne conosciamo i limiti. E se diventa indistinguibile dalla magia, tutto ciò che si dice a riguardo non è più falsificabile.

Brooks sostiene che questo è un problema che incontra regolarmente quando discute con altre persone della paura dell’intelligenza artificiale generale (AGI).

Mi è stato detto che non capisco quanto sarà potente l’AGI. Questo non è un ragionamento. Non abbiamo idea se possa persino esistere. Vorrei che esistesse: questa è sempre stata la mia motivazione per lavorare in robotica e nell’intelligenza artificiale.

Il problema sullo studio di un’AGI, per Brooks, è un altro.

Ma la ricerca attuale sull’AGI non va bene né sul piano generale né sul supporto di un’entità indipendente con un’esistenza continua. Sembra per lo più bloccata sugli stessi problemi nel ragionamento e nel buon senso con cui l’IA ha avuto problemi per almeno 50 anni. Tutte le prove che vedo dicono che non abbiamo ancora una vera idea su come costruirne una. Le sue proprietà sono completamente sconosciute, quindi retoricamente diventa rapidamente magica, potente, senza limiti.

“Niente nell’universo è senza limiti.” – Rodney Brooks

 

3. Prestazione contro competenza

Qual è la forma di un frisbee? Quanto lontano può una persona lanciare un frisbee, più o meno? Un bimbo di 3 anni può giocare con il frisbee?

Un computer che riesce ad etichettare un’immagine con “persone che giocano a frisbee in un parco” non può rispondere a queste domande. Perché non hanno idea di cosa sia una persona, che i parchi sono ambienti esterni, che le persone hanno un’età, eccetera.

Questo non significa che questi sistemi sono inutili“, scrive Brooks. “Sono di grande valore per i motori di ricerca. Ma ecco cosa va storto. La gente sente che alcuni robot o alcuni sistemi di intelligenza artificiale hanno eseguito qualche compito. Quindi generalizzano da quella prestazione a una competenza che ci si può aspettare da una persona che esegue la stessa attività. E applicano questa generalizzazione a un robot o a un sistema di IA.

In realtà, i robot e i sistemi di IA attuali presentano ancora molti limiti. Le generalizzazioni in stile umano non si possono applicare, sostiene Brooks.

 

4. Suitcase words

Il noto matematico Marvin Minsky chiamava “suitcase words” (parole valigia) quelle parole con più di un significato. Alcune di queste parole si ritrovano nell’ambito dell’IA e possono creare confusione. Qui gli esempi di Rodney Broosk sono chiari.

Quando le persone sentono che il machine learning sta facendo passi da gigante in qualche nuovo dominio, tendono a usare come modello mentale il modo in cui una persona apprende quel nuovo dominio. Tuttavia, il machine learning è molto fragile e richiede molta preparazione da parte di ricercatori o ingegneri umani, codifica per scopi speciali, serie di dati di addestramento speciali e una struttura di apprendimento personalizzata per ogni nuovo dominio problematico.

In questo caso la “parola valigia” è “learning”, ovvero apprendere. Le macchine non apprendono come facciamo noi umani. Purtroppo questa interpretazione sbagliata c’era e c’è tuttora ogni volta che una macchina batte un umano in qualcosa.

È successo quando Deep Blue sconfisse Garry Kasparov in una partita a scacchi ed è successo più di recente quando AlphaGo ha sconfitto il campione mondiale di Go.

Le suitcase words ingannano le persone su quanto bene le macchine stiano facendo nei compiti che le persone possono fare. Ciò è dovuto in parte al fatto che i ricercatori di IA – e, peggio, i loro uffici stampa istituzionali – sono desiderosi di avanzare rivendicazioni nel caso di un concetto-valigia.

 

5. Esponenziali

Anche qui l’errore è dato da una sbagliata interpretazione o da una mancanza di conoscenza. Brooks fa riferimento alla legge di Moore. I computer migliorano sempre più ogni tot di tempo.

Ma Moore in realtà disse che il numero di componenti che potevano adattarsi a un microchip sarebbe raddoppiato ogni anno. Una teoria che è stata valida per 50 anni, sebbene la costante di tempo per il raddoppio si sia gradualmente allungata da un anno a oltre due anni. Questo modello sta terminando.

La ragione per cui la legge di Moore ha funzionato è che si applicava all’astrazione digitale di una domanda vero o falso. In un dato circuito, c’è una carica elettrica o di tensione lì o no? La risposta rimane chiara man mano che i componenti del chip diventano sempre più piccoli, finché non interviene un limite fisico, e arriviamo ai componenti con così pochi elettroni che gli effetti quantici iniziano a dominare. Ecco dove siamo ora con la nostra tecnologia di chip basata su silicio.

Per dimostrare che la legge di Moore non è più valida, Brooks fa l’esempio di un ipod. Se si considerano i dati in crescita dal 2002 al 2007, oggi un ipod da 400 dollari dovrebbe avere 160.000 gigabytes di memoria. Ma addirittura l’iPhone di oggi, che costa più di 400 dollari, ha solo 256 gigabytes di memoria. Sarebbe meno del doppio della memoria di un ipod del 2007.

“Gli esponenziali possono collassare quando viene raggiunto un limite fisico o quando non c’è più logica economica per continuare.” – Rodney Brooks

Allo stesso modo, abbiamo visto un improvviso aumento delle prestazioni dei sistemi di IA grazie al successo del deep learning.

Molte persone sembrano pensare che ciò significa che continueremo a vedere aumentare le prestazioni di IA di stessi multipli su base regolare. Ma il successo del deep learning era in preparazione da 30 anni, ed era un evento isolato.

Ciò non significa che non ci saranno più eventi isolati. Ma non esiste una “legge” che ci possa dire quanto spesso accadrà.

 

6. Scenari hollywoodiani

Curioso e simpatico l’appunto che fa qui Brooks. In una scena de “L’uomo bicentenario” Richard Martin, interpretato da Sam Neill, legge un giornale di carta mentre fa colazione. In un’epoca di robot con cervelli positronici si leggono ancora i quotidiani in carta. Niente dispositivi digitali per la lettura. Nostalgia o errore cinematografico?

A detta di Brooks molti esperti di IA, soprattutto quelli che prevedono scenari un po’ apocalittici, sono allo stesso modo sfidati dall’immaginazione.

Ignorano il fatto che se siamo in grado di costruire alla fine dispositivi così intelligenti, il mondo sarà cambiato in modo significativo da allora. Non saremo improvvisamente sorpresi dall’esistenza di tali superintelligenze. Si evolveranno tecnologicamente nel tempo e il nostro mondo verrà popolato da molte altre intelligenze e avremo già molta esperienza.

Sarà un processo graduale.

Molto prima che ci siano delle superintelligenze diaboliche che vogliono liberarsi di noi, ci saranno macchine un po’ meno intelligenti e meno bellicose. Prima di ciò, ci saranno macchine davvero scontrose. Prima di ciò, macchine piuttosto fastidiose. E prima di loro, macchine arroganti e spiacevoli. Cambieremo il nostro mondo lungo il percorso, adattando l’ambiente alle nuove tecnologie e le stesse nuove tecnologie. Non sto dicendo che potrebbero non esserci sfide. Sto dicendo che non saranno improvvise e inaspettate, come molti pensano.

 

7. Velocità di implementazione

Distribuire un software è un discorso, distribuire hardware ne è un altro. La differenza sta nei costi.

Le nuove funzionalità per piattaforme come Facebook vengono implementate quasi ogni ora. Per molte nuove funzionalità, a condizione che abbiano superato i test di integrazione, c’è un piccolo svantaggio economico se un problema si presenta sul campo e la versione deve essere ritirata. Questo è un tempo a cui gli sviluppatori di software della Silicon Valley e del Web si sono abituati. Funziona perché il costo marginale del codice di nuova implementazione è molto, molto vicino allo zero.

L’implementazione di nuovo hardware, invece, ha costi marginali significativi.

Molte delle auto che stiamo acquistando oggi, che non sono a guida autonoma, e che per la maggior parte non hanno software, saranno probabilmente ancora in circolazione nell’anno 2040. Ciò pone un limite intrinseco alla rapidità con cui tutte le nostre auto saranno a guida autonoma. Se oggi costruiamo una nuova casa, possiamo aspettarci che possa durare per oltre 100 anni. L’edificio in cui vivo è stato costruito nel 1904 e non è nemmeno il più vecchio del mio quartiere.

Molti esperti di IA, sostiene Brooks, credono che il mondo sia già digitale e che la semplice introduzione di nuovi sistemi si tradurrà immediatamente in cambiamenti operativi. Questo discorso si ricollega a quello dell’esponenzialismo. Tecnologia più potente in sempre meno tempo: abbiamo visto che non funziona così.

Nulla potrebbe essere più lontano dalla verità. Quasi tutte le innovazioni nel campo della robotica e dell’IA richiedono molto, molto, molto tempo per essere realmente impiegate molto più di quanto non facciano le persone nel settore e fuori dal settore.

 

Le critiche di Rodney Brooks

Non è la prima volta che Brooks si sofferma su certi dettagli nello sviluppo dell’intelligenza artificiale. Il problema è che ormai si sta cavalcando quest’onda di entusiasmo nei confronti delle IA. I media ne approfittano per suscitare curiosità, clamore e sensazionalismo.

Purtroppo non tutti possiedono le conoscenze necessarie per capire davvero qual è lo stato dell’arte dell’IA. Di conseguenza tutte le narrazioni dei media che si mescolano con l’immaginario fantascientifico creano confusione.

Fa bene Rodney Brooks a precisare e a criticare certi aspetti del settore. Un po’ di tempo fa ha anche criticato l’idea di Elon Musk sull’IA.

Quello di Brooks è un invito agli esperti a basarsi su dati scientifici per presentare ricerche precise, non influenzate dalle mode del momento. Un invito a condividere quelli che sono i reali progressi nell’intelligenza artificiale.

E a proposito di progressi, se vuoi ricevere gli aggiornamenti sull’evoluzione digitale, iscriviti alla newsletter.

Controcorrente Newsletter

Fonte: MIT Technology Review
Foto: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.