Rodney Brooks

Rodney Brooks critica l’idea di Elon Musk sull’IA

TechCrunch ha intervistato Rodney Brooks, esperto roboticista, direttore del Computer Science and Artificial Intelligence Lab e cofondatore di iRobot e Rethink Robotics.

Rodney Brooks ha parlato di intelligenza artificiale (IA) e del perché le preoccupazioni sul futuro di questa tecnologia, come quelle espresse dall’imprenditore e CEO di Tesla Elon Musk, sono sbagliate.

Vediamo quali sono le sue motivazioni.

 

Rodney Brooks, Elon Musk e le paure sull’IA

Hai avviato iRobot quando non c’era alcun finanziamento, nel 1990. Hai avviato Rethink nel 2008, quando c’era un finanziamento ma non molto interesse nella robotica. Ora ci sono entrambi, sembra che sia il momento migliore per avviare una società di robotica. Lo è?

Molti venture capitalist della Silicon Valley e di Boston inciampano da soli su come finanziano la robotica, quindi [come fondatore] puoi farti ascoltare.

Nonostante gli investitori dicono che ci sono un sacco di finanziamenti nella fase successiva per la robotica, penso che per i finanziatori sia difficile capire quanto tempo richiederanno questi sistemi di robotica estremamente efficaci per arrivare ad ottenere un ritorno sul loro investimento e penso che sarà un momento decisivo per alcuni fondatori.

C’è anche più concorrenza e ci sono più brevetti assegnati, e una manciata di aziende hanno la maggior parte dei dati del mondo. Ciò li rende insormontabili?

Qualcuno che oggi avvia una società di robotica dovrebbe pensare che forse a un certo punto, per crescere, dovrà essere acquistato da una grande impresa che ha le tasche profonde per spingerla ulteriormente. L’ecosistema utilizzerebbe ancora i finanziamenti del venture capitalist per separare le buone idee dalle cattive idee, ma andare fino in fondo con un’offerta pubblica iniziale può essere difficile.

Seconda cosa: su questi dati, sì, l’apprendimento automatico è fantastico, può fare molto, ma ci sono molte cose da risolvere che non sono solo software. Alcune delle grandi innovazioni [al momento] sono state una specie di motori elettrici, di sistemi di controllo e di scatole di trasmissione.

Stai scrivendo un libro sull’IA, quindi devo chiederti: il fine settimana scorso Elon Musk ha affermato di nuovo che l’IA è una minaccia esistenziale. Sei d’accordo?

Ci sono poche persone che hanno detto che l’IA è una minaccia esistenziale: Stephen Hawking, l’astronomo Royal Martin Rees, che ha scritto un libro a riguardo. Condividono un tema comune in quanto non lavorano nell’IA. Chi lavora nell’IA sa quanto sia difficile ottenere qualcosa che funzioni effettivamente a livello di prodotto.

Ecco perché le persone, incluso Elon, fanno questo errore. Quando vediamo una persona che compie molto bene un compito, comprendiamo la competenza [coinvolta]. E penso che loro applicano lo stesso modello nell’apprendimento automatico. [Ma non dovrebbero.]

Quando la gente ha visto che AlphaGo di DeepMind ha battuto il campione coreano e poi ha battuto il campione cinese di Go, hanno pensato: “Oh mio Dio, questa macchina è così intelligente, può fare quasi tutto!”. Ma circa 3 settimane fa ero da DeepMind a Londra e hanno ammesso che le cose potevano facilmente andare male.

Ma il punto di Musk non è che [l’IA] è intelligente, ma che diventerà intelligente e dobbiamo regolarla ora.

Quindi bisogna regolamentarla ora. Se si regolamenta ora, o si applica a qualcosa e cambia qualcosa nel mondo oppure non si applica a nulla. Se non si applica a nulla, perché diavolo si ha la regolamentazione? Dimmi, quale comportamento vuoi cambiare, Elon? Comunque, parliamo di regolamentazione delle auto senza pilota di Tesla perché questo è un vero problema.

Hai sollevato interessanti punti nei tuoi scritti, osservando che la più grande preoccupazione per le auto autonome – se dovranno scegliere di guidare attraverso un gruppo di passeggini o un gruppo di donne anziane – è assurda, considerando quanto spesso tale scenario particolare accade oggi.

Ci sono alcune questioni etiche che penso rallenteranno l’adozione delle auto. Vivo solo pochi isolati dal MIT. E per tre volte nelle ultime tre settimane ho seguito ogni segnale e mi sono trovato in un punto in cui o posso fermarmi e aspettare sei ore, oppure guidare in modo sbagliato in una strada a senso unico.

Le vetture autonome dovrebbero essere in grado di decidere di guidare in modo sbagliato lungo una strada a senso unico se sono bloccate? Cosa succede se un quattordicenne alla guida di un’Uber prova a superare [l’ostacolo] dicendole di andare in quella via a senso unico? A un quattordicenne dovrebbe essere permesso di “guidare” un’auto attraverso la voce? Ci sarà una serie di norme che dovremo avere, a cui le persone non hanno nemmeno cominciato a pensare, per affrontare questioni molto pratiche.

Ovviamente pensi che i robot siano molto complementari agli esseri umani, anche se ci sarà un dislocamento professionale.

Sì, non c’è dubbio e sarà difficile per le persone che saranno rimpiazzate. Penso che il ruolo nelle fabbriche, ad esempio, si sposterà dalle persone che eseguono il lavoro manuale alle persone che sovrintendono. Abbiamo una tradizione nella fabbricazione di apparecchiature che presenta orribili interfacce utente, è difficile e devi seguire corsi, mentre nell’elettronica di consumo [come con i telefoni intelligenti] abbiamo creato le macchine che usiamo per insegnare alle persone come usarle. Penso che dobbiamo cambiare il nostro atteggiamento nelle apparecchiature industriali e in altri tipi di attrezzature, per far sì che le macchine insegnino alla gente come usarle.

Ma corriamo il rischio di non prendere seriamente questa sostituzione? Non è il motivo per cui abbiamo la nostra amministrazione attuale che non sta pensando abbastanza alle persone che subiranno l’impatto, in particolare nel centro del paese?

C’è un segno che forse avrei dovuto vedere e non l’ho visto. Quando ho avviato Rethink Robotics si chiamava Heartland Robotics. Ho appena concluso 6 anni da consulente per il CEO di John Deere; ho visitato ogni fabbrica di John Deere. Ho potuto vedere l’invecchiamento della popolazione. Ho potuto vedere che non potevano avere lavoratori per sostituire la popolazione che invecchiava. Così ho avviato Heartland Robotics per costruire robotica per aiutare l’area centrale. [Heartland significa proprio “zona centrale”, nda].

Non è più chiamata Heartland Robotics perché ho iniziato a ricevere commenti come: “Perché non sei semplicemente uscito allo scoperto e non l’hai chiamata Bible Belt Robotics?”. Le persone del Midwest pensavano che li stessimo prendendo in giro. Col senno di poi, avrei dovuto pensarci in modo più profondo.

Se non avessi avviato Rethink, su cos’altro ti saresti voluto concentrare?

Sono un roboticista, quindi tutti i problemi che penso posso risolvere hanno una soluzione di robotica. Ma quali sono le cose che sono importanti per l’umanità, che l’attuale modello di grandi aziende o dei finanziatori che investono non si risolveranno? Ad esempio: le plastiche nell’oceano. Sta peggiorando. Sta contaminando la nostra catena alimentare. Ma è il problema dei popoli. Chi finanzierà una società di start-up per sbarazzarsi delle materie plastiche nell’oceano? Chi ha intenzione di finanziare ciò, chi offrirà un ritorno per quegli investitori in futuro?

Quindi sono più interessato a trovare luoghi in cui la robotica può aiutare il mondo, ma al momento non c’è modo di ottenere finanziamenti per la ricerca e le applicazioni.

Sei considerato il padre della robotica moderna. Senti che dovrete essere lì fuori, evangelizzando dalla parte della robotica e dei robotici in modo che le persone comprendano i benefici, piuttosto che concentrarvi sui potenziali pericoli?

È per questo che sto scrivendo un libro sull’IA, sulla robotica e sul futuro – perché le persone si stanno spaventando troppo per delle cose sbagliate e non stanno pensando abbastanza a quali saranno le implicazioni reali.

 

Niente paura

Senza tanti scrupoli Rodney Brooks, come sempre. La parte più interessante di questa intervista è di sicuro la critica ad Elon Musk e ad altri esperti. Secondo il roboticista, l’idea della minaccia esistenziale di chi non lavora direttamente nel settore dell’IA non dovrebbe influenzarci. Semplicemente perché chi non lavora a contatto diretto con le macchine non ha tutte le conoscenze necessarie per supportare la teoria della minaccia esistenziale.

Il discorso delle regolamentazioni delle IA non è un discorso inutile, sia chiaro. Rodney Brooks sostiene che parlare ora di regole e delle loro applicazioni non ha senso se non si possono applicare. Non si possono applicare perché l’IA non ha raggiunto ancora altissimi livelli, come tra l’altro sostiene anche Yoshua Bengio, esperto di deep learning.

Brooks sostiene che ci sono importanti questioni etiche da affrontare, soprattutto per quanto riguarda i veicoli autonomi. Ma per lui non ha senso applicare delle regolamentazioni per delle tecnologie che in realtà non potrebbero ancora recare seri danni.

Il roboticista crede che bisognerebbe concentrarsi di più sui problemi attuali o su quelli che si potrebbero verificare da un momento all’altro. La robotica e l’IA possono darci una grande mano in questo, considerando i costanti progressi.

Quest’intervista ha inoltre ben evidenziato la complessità dell’argomento. Tra previsioni, statistiche, punti di vista differenti, sul progresso della robotica e dell’IA si dicono tante cose. Qui non voglio fare una distinzione tra chi ha ragione e chi no, tra chi avrebbe un parere più autorevole e chi meno. Ma voglio condividere un semplice pensiero che mi è balenato in mente appena ho finito di leggere l’intervista.

Le narrazioni fantascientifiche già di per sé plasmano l’immaginario collettivo. Queste narrazioni diventano ancora più influenti se supportate da esperti di un certo livello, non importa da quale ambito provengono. Qualcuno sostiene che le affermazioni di Elon Musk sulla minaccia delle IA facciano bene al suo business. Forse perché l’approvazione di una regolamentazione accelererebbe l’adozione delle auto a guida autonoma come quelle della sua Tesla. Queste però sono solo ipotesi.

La questione è un’altra: i rischi futuri di cui ha parlato Elon Musk sono rischi che fanno parte di uno scenario abbastanza lontano. Uno scenario in cui avremo sviluppato un’IA di livello umano, se non superiore.

Come se non bastasse, c’è stato anche un botta e risposta tra Elon Musk e Mark Zuckerberg, CEO di Facebook. Quest’ultimo, in una sessione di Q&A su Facebook Live, ha dichiarato di non essere molto preoccupato per lo sviluppo dell’IA e che ci sono persone troppo pessimiste e irresponsabili perché dipingono scenari futuri apocalittici.

Dopo un po’ è arrivata la risposta di Elon Musk su Twitter: “Ho parlato di questo con Mark. La sua comprensione in materia è limitata“.

Ammetto che questo confronto mi ha fatto un po’ sorridere perché se c’è uno che potrebbe capirne di algoritmi è proprio Mark Zuckerberg. D’altra parte, Elon Musk non è un imprenditore qualunque. Sarà comunque interessante vedere come evolverà questa discussione.

Da una parte, dunque, ritengo sia giusto pensare a quali pericoli potremmo andare incontro in futuro. Dall’altra parte, però, appoggio l’approccio pragmatico di Rodney Brooks perché uno dei modi per evitare i rischi futuri è proprio quello di agire nel presente.

Se pensiamo sin da ora a rendere questo mondo un mondo migliore anche attraverso la robotica e l’IA, saremo già sulla buona strada. Avremo sempre meno preoccupazioni e sarà più facile contrastare un’eventuale minaccia esistenziale perpetrata da delle IA fuori controllo.

Le IA fuori controllo, poi, aprirebbero un altro discorso. Davvero correremo il rischio di creare applicazioni di IA in grado di isolarci del tutto? A tal proposito suggerisco di dare un’occhiata ai 3 principi per creare un’IA sicura proposti dall’informatico Stuart Russell.

Per il momento niente paura.

Per ricevere aggiornamenti periodici sul mondo delle tecnologie digitali dirompenti, iscriviti alla newsletter.

Controcorrente Newsletter

Fonte: TechCrunch
Foto: Flickr


Lascia un commento