La definizione di un quadro etico per l’intelligenza artificiale (IA) è diventato l’obiettivo principale di diverse organizzazioni. Come possiamo costruire robot sofisticati che agiranno sempre in modo adeguato in diversi contesti?

Christoph Salge, informatico presso la New York University, sta adottando un approccio differente rispetto a tanti altri esperti. Invece di stabilire come una macchina dovrebbe o non dovrebbe comportarsi, Salge e il suo collega Daniel Polani stanno indagando su “quello che un robot deve fare in primo luogo“.

Hanno descritto la loro ricerca nel documento “Empowerment As Replacement for the Three Laws of Robotics“. L'”empowerment”, ovvero la responsabilizzazione, come rimpiazzo delle 3 leggi della robotica.

Salge ne ha parlato in un’intervista per Quanta. Vediamo di cosa si tratta.

 

L’aporoccio di Christop Salge nella robotica e nell’IA

Alcuni tecnologi ritengono che l’IA sia una minaccia importante, anche esistenziale. Ti preoccupa la prospettiva di un’IA fuori controllo?

Sono un po’ indeciso. Voglio dire, penso che attualmente ci siano preoccupazioni genuine sui robot e l’influenza crescente dell’IA. Ma penso che nel breve termine probabilmente siamo più preoccupati della sostituzione di posti di lavoro, del processo decisionale, probabilmente di una perdita di democrazia, di una perdita di privacy.

Non sono sicuro quanto sia probabile che questo tipo di IA fuori controllo arrivi presto. Ma anche un’IA che controlla il tuo sistema sanitario o quali opzioni di trattamento stai avendo – dobbiamo cominciare ad essere preoccupati per il tipo di questioni etiche che derivano da ciò.

Come ci aiuta ad affrontare questi problemi il concetto di “responsabilizzazione”?

Penso che l’idea di responsabilizzazione riempia una nicchia. Consente ad un agente di lasciar morire un umano, ma una volta che hai soddisfatto questa base fondamentale, ha ancora un impulso continuo per creare ulteriori possibilità e permettere agli umani di esprimersi di più e di avere più influenza sul mondo.

In uno dei libri di Asimov penso che i robot finiscano col mettere tutti gli esseri umani in qualche tipo di contenitore sicuro. Sarebbe indesiderabile. Invece, avere le nostre capacità per influenzare il mondo continuamente migliorato sembra essere un obiettivo finale molto più interessante da raggiungere.

Hai provato le tue idee sugli agenti virtuali in un ambiente per videogiochi. Cosa è successo?

Un agente motivato dalla propria responsabilizzazione potrebbe uscire dalla traiettoria di un proiettile, o continuare a cadere in un buco, o evitare qualsiasi numero di situazioni che potrebbero causare la sua perdita di mobilità, morire o essere danneggiato in modo da ridurre la sua operatività. Continua a funzionare.

Quando è stato abbinato a un giocatore umano che doveva responsabilizzare anche se stesso, abbiamo osservato che il robot virtuale manteneva una certa distanza in modo da non bloccare il movimento umano. Non ti blocca; non sta all’entrata per renderti impossibile passare. Abbiamo sostanzialmente visto che questo effetto mantiene il compagno attaccato a te in modo che possa aiutarti. Ha portato al comportamento dove avrebbe potuto prendere il comando o seguire.

Ad esempio, abbiamo creato uno scenario in cui avevamo una barriera laser che avrebbe danneggiato l’uomo, ma non pericolosa per il robot. Se in questo gioco l’uomo si avvicina al laser, improvvisamente per il robot c’è sempre più un incentivo motivato dalla responsabilizzazione a bloccare il laser. L’incentivo diventa più forte quando l’uomo si trova proprio accanto, come a suggerire: “Voglio attraversare ora”. E il robot bloccava il laser standogli davanti.

Gli agenti si sono impegnati in qualche comportamento non intenzionale, come quello che emerge dalle tre leggi nel racconto di Asimov?

Inizialmente abbiamo avuto un buon comportamento. Ad esempio, il robot virtuale elimina i nemici che cercano di ucciderti. Ogni tanto potrebbe mettersi davanti a un proiettile per te, se questo è l’unico modo per salvarti. Ma una cosa che era un po’ sorprendente per noi, all’inizio, era che anche esso aveva molta paura di te.

Il motivo ha a che fare con il suo modello “local forward“: in pratica, esamina come determinate sequenze d’azione di due o tre passi nel futuro influenzano il mondo, sia per te che per sé. Quindi, come primo passo semplice, abbiamo programmato questo modello per supporre che il giocatore agisse in modo casuale.

Ma in pratica ciò significa che l’agente stava sostanzialmente agendo sotto l’ipotesi che il giocatore umano fosse una specie di psicopatico e quindi, in qualsiasi momento, l’uomo poteva decidere, ad esempio, di sparare all’agente. Quindi l’agente era sempre molto attento a stare in posizioni dove l’uomo non poteva ucciderlo.

Abbiamo dovuto risolvere questo problema, quindi abbiamo modellato ciò che chiamiamo un presupposto di fiducia. Fondamentalmente, l’agente compagno agisce secondo l’ipotesi che l’uomo sceglierà solo le azioni che non eliminano la responsabilizzazione dell’agente, comunque un modello probabilmente più naturale per un compagno.

L’altra cosa che abbiamo notato nel gioco era che se tu avevi, per esempio, 10 punti di salute, il compagno non era affatto interessato se ne perdevi i primi otto o nove – e ogni tanto ti avrebbe anche sparato solo per ridere.

Lì, ancora una volta, ci siamo resi conto che c’è una sconnessione tra il mondo in cui viviamo e il modello in un gioco per computer. Una volta che abbiamo modellato una limitazione di capacità derivante dalla perdita di salute, questo problema è sparito.

Ma poteva anche essere stato affrontato progettando il modello local-forward in modo da renderlo in grado di guardare ulteriormente nel futuro di pochi passi. Se l’agente fosse stato in grado di guardare molto nel futuro, avrebbe visto che avere più punti di salute potrebbe essere stato utile per le cose a venire.

Invece, se la perdita di punti di salute di riserva al momento non fa alcuna differenza per la mia responsabilizzazione…

L’agente in sostanza dice: “Oh, potrei non sparargli, o potrei sparargli. Nessuna differenza”. E a volte ti spara. Quello ovviamente è un problema. Non accetto la sparatoria casuale ai giocatori. Abbiamo aggiunto una correzione in modo che il robot virtuale si preoccupi un po’ di più della tua responsabilizzazione rispetto alla sua.

Come rendi precisi questi concetti?

Se pensi agli agenti come sistemi di controllo, puoi pensare in termini di informazioni: le cose si verificano nel mondo e questo in qualche modo ti influenza. Non stiamo solo parlando di informazioni in termini di cose che percepiamo, ma come ogni tipo di influenza – potrebbe essere materia, tutto ciò che scorre avanti e indietro tra il mondo e te.

Potrebbe essere la temperatura che ti influenza, o le sostanze nutritive che entrano nel tuo corpo. Qualsiasi cosa che permea questo confine tra il mondo e l’agente trasporta informazioni. E allo stesso modo, l’agente può influenzare il mondo esterno in numerosi modi, il che fornisce anche informazioni.

Puoi guardare questo flusso come a una capacità di canale, che è un concetto dalla teoria dell’informazione. Hai un elevato potere di responsabilizzazione se hai diverse azioni che puoi prendere che porteranno a risultati diversi.

Se una di queste funzionalità peggiora, allora il tuo potere di responsabilizzazione diminuisce, perché la perdita di capacità corrisponde ad una riduzione quantificabile di questa capacità di canale tra te e l’ambiente. Questa è l’idea fondamentale.

Quanto deve conoscere l’agente affinché la responsabilizzazione funzioni?

La responsabilizzazione ha il vantaggio di poter essere applicata anche se la tua conoscenza non è completa. L’agente ha bisogno di un modello di come le sue azioni stiano interessando il mondo, ma non ha bisogno di una comprensione completa del mondo e di tutte le sue complessità.

A differenza di alcuni approcci che cercano di modellare tutto il mondo nel modo migliore possibile e poi cercare di capire quali sono le loro azioni effettivamente significative, qui è necessario solo capire come le tue azioni influenzino la tua percezione.

Non è necessario capire dove stia tutto; puoi avere un agente che esplora il mondo. Fa cose e cerca di capire come le sue azioni influenzano il mondo. Mentre questo modello cresce, l’agente migliora anche nel capire quanto sia responsabilizzato.

L’hai testato in ambienti virtuali. Perché non nel mondo reale?

L’ostacolo principale per scalare questo modello e il motivo per cui non lo stiamo facendo con un vero e proprio robot è che è difficile calcolare la capacità del canale di un agente e di un uomo avanti nel tempo in un ambiente ricco come il mondo reale.

Ci sono molte iniziative in corso per renderlo più efficiente. Sono ottimista, ma attualmente è una preoccupazione computazionale. Ecco perché abbiamo applicato il framework ad un compagno di giochi per computer, che ovviamente è una forma molto più semplice, rendendo le problematiche elaborative più facili da risolvere.

Sembra che la responsabilizzazione, idealmente, porterebbe le nostre macchine ad agire come cani guida veramente potenti.

In realtà conosco alcuni roboticisti che stanno modellando deliberatamente il comportamento del compagno nello stile dei cani. Voglio dire, avere robot che ci trattano come ci trattano i nostri cani è probabilmente un futuro in cui tutti possiamo vivere.

 

Alcuni appunti

Devo precisare una cosa prima che qualcuno abbia da ridire su questa traduzione. Responsabilizzazione, in questo caso, è il termine che forse meglio traduce il concetto di “empowerment”. In realtà, il termine “empowerment” è un po’ più complesso e presenta diverse sfumature.

Su Wikipedia c’è una pagina dedicata che offre una buona panoramica del suo significato.

“Con il termine empowerment viene indicato un processo di crescita, sia dell’individuo sia del gruppo, basato sull’incremento della stima di sé, dell’autoefficacia e dell’autodeterminazione per far emergere risorse latenti e portare l’individuo ad appropriarsi consapevolmente del suo potenziale.”

Quello di Christoph Salge, dunque, è un approccio differente rispetto a quello che di solito vediamo proporre da altri esperti in robotica e IA. Salge non parte dalle definizioni etiche e filosofiche più elevate per capire come le macchine dovrebbero agire. Non segue un modello top-down, dall’alto verso il basso.

È il contrario: il suo approccio è bottom-up, dal basso verso l’alto. La linea guida è: cosa dovrebbe fare un robot per prima cosa affinché la sua azione non danneggi gli umani?

Il concetto di “empowerment” è ispirato in parte dalla cibernetica e dalla psicologia. Esso descrive la motivazione intrinseca di un agente di operare nel suo ambiente. “Come un organismo, vuole sopravvivere. Vuole essere in grado di influenzare il mondo“, ha spiegato Salge. Quindi vuole avere la responsabilità delle proprie azioni.

Ma sappiamo bene che non si tratta solo di robot. Salge ha studiato anche le interazioni sociali uomo-macchina e si è chiesto cosa potrebbe potrebbe succedere se un agente responsabilizzato facesse attenzione anche alla responsabilizzazione di qualcun altro. “Tu non vuoi solo che il tuo robot rimanga in funzione“, ha affermato Salge, “vuoi anche esso se ne assicuri per il partner umano“.

Per costruire robot eticamente corretti, Salge e colleghi ritengono che si debba ricorrere alla teoria dell’informazione. Questa teoria offre un modo per tradurre questa responsabilizzazione reciproca in un quadro matematico.

Una delle lacune delle tre leggi della robotica è che sono basate sul linguaggio“, ha spiegato Salge, “e il linguaggio ha un elevato grado di ambiguità. Stiamo cercando di trovare qualcosa che sia realmente operativizzabile“.

Sarà un percorso alternativo valido per risolvere l’urgenza etica nell’intelligenza artificiale?

Per ricevere aggiornamenti sull’evoluzione digitale, iscriviti alla newsletter.

Controcorrente Newsletter

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.