Stuart Russell

Stuart Russell: 3 princìpi per creare un’IA sicura

Come possiamo sfruttare la potenza della futura superintelligenza artificiale senza rischiare di provocare danni? Stuart Russell, uno dei pionieri del settore, sta lavorando a un approccio diverso da quelli già conosciuti. L’informatico sta infatti esplorando la dimensione dei robot che hanno incertezze.

Russell ha espresso le sue teorie sulla collaborazione umani-IA in un recente TED Talk. Sono riassumibili in 3 princìpi: vediamo quali sono e perché sono importanti.

 

3 princìpi per un’IA sicura e affidabile

Secondo Stuart Russell, l’elemento che farà la differenza nei sistemi di IA è la capacità di decidere. Un giorno le macchine saranno in grado di comprendere ciò che leggono. Da quel momento per loro sarà facile vedere oltre e prendere decisioni migliori rispetto a noi.

Non sappiamo se sarà un evento positivo o meno. Soprattutto perché siamo influenzati da opinioni di altri esperti come Elon Musk, Stephen Hawking e Bill Gates, i quali sostengono che una super IA metterà in pericolo il genere umano. In realtà questo rischio lo intravide già Alan Turing, padre dell’informatica:

“Anche se potessimo mantenere le macchine in una posizione di sottomissione, ad esempio spegnendo l’alimentazione in momenti strategici, dovremmo, come specie, sentirci molto umiliati.”

Forse, rendere le macchine più intelligenti di noi non è una grande idea. Ma non possiamo interrompere la ricerca sull’IA perché possiamo comunque trarne diversi benefici a livello di automazione, comunicazione, trasporto e così via. Quindi, Stuart Russell si chiede: “Qual è esattamente il problema? Perché un’IA migliore è una possibile catastrofe?

L’auto-risposta di Russell è un’altra citazione risalente al 1960, stavolta di Norbert Wiener, uno dei primi teorici dell’informazione:

“Dovremmo essere abbastanza sicuri che lo scopo inserito nella macchina sia lo scopo che desideriamo veramente.”

Wiener disse ciò dopo aver visto uno dei primi sistemi di apprendimento imparare a giocare a dama meglio del suo creatore. Un altro problema nell’ambito dell’IA, dunque, è quello dell’allineamento al valore. Se le macchine non rispetteranno i nostri stessi valori, allora sì che ci saranno problemi.

Ma come si fa? Stuart Russell propone 3 princìpi.

  1. Altruismo: l’unico obiettivo del robot è quello di massimizzare la realizzazione degli obiettivi umani. Un principio che va contro una delle leggi della robotica di Asimov, ovvero quella secondo cui il robot deve preservare la propria esistenza.
  2. Umiltà: i robot non sanno quali sono i valori umani, quindi devono massimizzarli. Un’incertezza essenziale che rende i robot più sicuri.
  3. Conoscenza di ciò che vogliamo: i robot ottengono queste informazioni principalmente dall’osservazione delle scelte umane. Le nostre scelte rivelano informazioni su ciò che realmente preferiamo.

Sono princìpi molto semplici, in teoria. Ma come dovrebbero essere applicati?

 

La questione del pulsante rosso

Stuart Russell ha proposto poi una riflessione interessante sulla possibilità di spegnere le macchine in caso di pericolo. Ha fatto l’esempio del robot PR2 presente nel suo laboratorio e che ha un pulsante rosso di spegnimento sulla “schiena”. La domanda è: il robot ci permetterà di disattivarlo?

Ad esempio, se l’obiettivo del robot è “portare il caffè”, questo potrebbe pensare a un modo in cui potrebbe fallire il suo compito. Un possibile fallimento potrebbe essere causato dalla disattivazione effettuata da qualcun altro. Quindi, per non fallire, il robot dovrebbe fare in modo di non essere disattivato, impedirlo a qualsiasi costo. Ecco aggirata la soluzione del pulsante rosso di disattivazione, ipotetico “salvavita” per gli umani.

Ma le conseguenze potrebbero essere diverse se il robot avesse delle incertezze sull’obiettivo. Il robot ragionerebbe in maniera differente: “Ok, l’umano potrebbe spegnermi, ma solo se faccio qualcosa di sbagliato. Beh, non so davvero cosa sia sbagliato, ma so che non voglio farlo.” Qui sono entrati in gioco i primi 2 princìpi. “Quindi, dovrei permettere che l’umano mi disattivi.“. E qui subentra il terzo principio: il robot apprende qualcosa sugli obiettivi che dovrebbe perseguire perché impara che ciò che ha fatto non era giusto.

Cosa succede, però, se il robot si comporta male perché anche noi ci comportiamo male? Russell sostiene che non è detto che comportandosi male il robot copierà quel comportamento. Quello che i ricercatori stanno cercando di fare, anche se è complicato, è fare in modo che il robot impari a prevedere che tipo di vita ogni umano preferisce.

Il problema è ci sono tanti tipi diversi di umani. Quindi le macchine dovrebbero scendere a dei compromessi. Ma ci sono diversi motivi per essere ottimisti: grandi quantità di dati a disposizione e incentivi economici per raggiungere lo scopo nel modo giusto.

E proprio sugli incentivi economici Russell ha fatto un esempio tanto simpatico quanto valido. Le aziende che producono robot e sviluppano IA di sicuro non voglio che un robot finisca col cucinare il gatto domestico perché in frigo non c’è nulla. Sarebbe un danno inestimabile.

Intanto, c’è ancora un bel po’ di tempo a disposizione prima che le macchine inizino a ragionare in un certo modo sul loro pulsante rosso. Stuart Russell da tempo lavora a un modo per avvicinare l’intelligenza alle macchine. Questi 3 princìpi potrebbero rivelarsi utili per lo sviluppo di IA sicure e affidabili. E magari smetteremo di temere un’apocalisse robotica una volta per tutte. Oppure no.

Iscriviti alla newsletter se vuoi aggiornamenti sul mondo delle tecnologie digitali dirompenti e sul lavoro di esperti come Stuart Russell.

Controcorrente Newsletter

Foto: Flickr


Lascia un commento