Un piccolo robot

Come costruire robot eticamente corretti

Con i progressi che osserviamo ogni giorno nel settore della robotica e dell’intelligenza artificiale (IA), diventa sempre più facile immaginare un futuro in cui vivremo a più stretto contatto con i robot. Nelle nostre case, al lavoro, nelle nostre auto, negli ospedali: saranno ovunque e interagiremo con loro per ottenere diversi benefici. Ma sarà possibile solo se i robot saranno capaci di seguire un modello di ragionamento morale simile a quello nostro.

Diversi scienziati di diverse università stanno lavorando a un progetto per identificare le basi logiche, cognitive e sociali della competenza morale umana, modellarle per adattarle all’interazione umano-robot e sviluppare nuovi strumenti di calcolo con cui le macchine potranno ragionare ed agire in modo etico.

Una sfida che qualcuno sicuramente definirà impossibile. Ma gli scienziati non vogliono importare nelle macchine precisi principi morali. Vogliono sviluppare un’architettura di calcolo che integri i processi di simulazione, ragionamento e comprensione sociali per cogliere nel miglior modo possibile gli aspetti morali e sociali della vita umana.

Per raggiungere questo obiettivo, gli scienziati dovranno trovare risposte a molte domande. Come quantificare le norme contrastanti che guidano le nostre scelte? Come fare per dotare i robot di abilità comunicative con cui potranno spiegarci in modo comprensibile le loro scelte? E poi, davvero vogliamo che i robot prendano sempre decisioni coerenti con le nostre aspettative?

Su IEEE Spectrum è stato pubblicato un video che ci spiega quale approccio si potrebbe adottare per costruire robot eticamente corretti. Lo trovi qui sotto insieme alla traduzione.

Insegniamo la morale ai robot

 

Narratrice: “Come fai ad insegnare a un robot a distinguere ciò che è giusto e ciò che è sbagliato? È una domanda che sembra sia uscita direttamente da un film di fantascienza, ma è anche qualcosa con cui potremmo dover fare i conti molto prima di quanto si possa pensare. Prendi, ad esempio, un’auto senza pilota che deve scegliere tra investire un bambino o schiantare il proprio passeggero in una barriera. Oppure immagina un robot di salvataggio che rileva due persone ferite tra le macerie di un terremoto, ma che sa di non avere tempo di salvare entrambe.”

Bertram Malle: “Come fa quel robot a decidere quale di queste persone deve provare a salvare per prima? Come comunità, è qualcosa che dobbiamo capire per davvero.”

Narratrice: “È un dilemma morale. È per questo che una squadra di scienziati sta cercando di costruire robot con senso della morale. Se i robot staranno con noi, dovremo insegnare loro come comportarsi – il che significa trovare un modo per renderli consapevoli dei valori che per noi sono più importanti.

Matthias Scheutz è un informatico della Tufts [University] che studia l’interazione umano-robot e che sta provando a capire come modellare il ragionamento morale in una macchina. Ma con la morale le cose diventano confusionarie abbastanza in fretta. Anche come umani non abbiamo alcuna regola concreta su cosa sia giusto e sbagliato, almeno non su quelle su cui siamo riusciti a concordare. Invece, abbiamo norme – in sostanza, migliaia di linee guida confuse e contraddittorie. Norme che ci aiutano a prevedere come le persone intorno a noi si comporteranno e come vorranno che ci comportassimo.

Matthias Scheutz: “In questo momento, la sfida più grande anche per pensare a come i robot potrebbero essere in grado di comprendere le norme morali, è che non capiamo dal lato umano come gli umani rappresentano e discutono, se possibile, le norme morali.”

Narratrice: “La grande fregatura – specialmente se sei un robot – è che nessuna di queste norme è assoluta. In una certa situazione, una particolare norma o un valore verranno percepiti come estremamente importanti. Ma cambiando lo scenario, le regole del gioco cambiano completamente.

Quindi, come facciamo a costruire un robot che possa capire quali norme seguire e quando?

Qui è dove subentrano gli psicologi sociali della Brown University. Hanno iniziato compilando una lista di parole, idee e regole che le persone adottano per parlare della moralità – un vocabolario morale di base. Il passo successivo è capire come quantificare questo vocabolario: come sono collegate e organizzate queste idee nella nostra mente?

Secondo una teoria, il panorama morale umano potrebbe apparire un po’ come una rete semantica, con gruppi di concetti strettamente correlati di cui diventiamo più o meno consapevoli a seconda della situazione.”

Bertram Malle: “La nostra ipotesi è che, in ogni particolare contesto, viene attivato un sottoinsieme di norme – un particolare gruppo di regole legate a quella situazione. Quel sottoinsieme di norme è poi disponibile per guidare l’azione, riconoscere le violazioni e permetterci di prendere decisioni.”

Narratrice: “Qui la chiave è che le relazioni tra queste sottoreti sono in realtà qualcosa che si può misurare. Malle inizia con la scelta di uno scenario – per esempio, un giorno in spiaggia – e chiede a molte persone come pensano che si comporterebbero. Cosa dovrebbero fare? E cosa non dovrebbero fare assolutamente?

L’ordine in cui i partecipanti menzionano certe regole, il numero di volte che le menzionano e il tempo richiesto tra la menzione di un’idea e l’altra sono tutti valori concreti. Raccogliendo dati da situazioni abbastanza diverse, Malle pensa che sarà in grado di costruire una mappa approssimativa di una rete umana delle norme. In futuro, un robot potrebbe essere dotato di una versione integrata di quella mappa. In questo modo potrebbe richiedere il corretto quadro morale di qualsiasi situazione che è a portata di mano.

Ma anche se il robot potesse imitare perfettamente il processo decisionale di un umano – è qualcosa che ci piacerebbe davvero avere? Malle in effetti sospetta che potremmo desiderare che i robot prendano decisioni diverse rispetto a quelle che vorremmo che altri umani prendessero. Per verificare ciò, chiede ai suoi soggetti di immaginare un classico dilemma morale.

Immagina un carrello in fuga in una miniera di carbone che ha perso l’uso dei freni. Il carrello ha quattro persone a bordo e sta precipitando verso un massiccio muro di mattoni. C’è un binario alternativo sicuro, ma occupato da un tecnico che è ignaro di quello che sta succedendo.

Un altro lavoratore nelle vicinanze osserva la situazione. Potrebbe tirare una leva che porterebbe il carrello sull’altro binario, salvando i passeggeri nel carrello ma uccidendo il tecnico. Deve scegliere.

Bertram Malle: “Il dilemma fondamentale è: interverrai e ucciderai una persona per salvarne quattro? Oppure hai intenzione di lasciare che il destino faccia il suo corso, e molto probabilmente quattro persone moriranno?”

Narratrice: “Malle presenta questo scenario in modi diversi: alcuni dei partecipanti vedono un umano prendere la decisione, alcuni vedono un robot umanoide e altri vedono una macchina robotica. Dopo chiede ai partecipanti di giudicare la decisione che ha preso il tecnico [se tirare la leva o meno].

In genere, i partecipanti incolpano più il tecnico umano quando tira la leva – salvando quattro vite ma sacrificandone una – rispetto a quando non fa nulla. A quanto pare, osservare un’altra persona prendere una decisione fredda e calcolata per sacrificare una vita umana ci fa nausea.

Ma la prova suggerisce in realtà che dovremmo aspettarci che un robot tiri la leva. I partecipanti all’esperimento di Malle incolpavano di più il robot quando non interveniva. E più il robot somigliava a una macchina, e più lo incolpavano di aver fatto morire quattro persone.

C’è un’altra svolta interessante in questo. Se nella storia il robot o l’umano prendeva una decisione impopolare – ma poi forniva una ragione per quella scelta – i partecipanti incolpavano di meno il tecnico.

E questo è molto, molto importante perché ci fa arrivare a un’abilità fondamentale di cui i robot avranno bisogno: la comunicazione.

Tornando al laboratorio di Matthias Scheutz alla Tufts, stanno lavorando esattamente su questo problema. Hanno programmato un piccolo robot autonomo in modo che segua semplici istruzioni: può sedersi, alzarsi e camminare in avanti.

Ma gli hanno dato anche un’altra importante regola da seguire: non fare nulla che possa causare danni a te stesso o agli altri. Se un ricercatore dà un’istruzione al robot che viola quella regola, il robot non deve seguire quell’istruzione. E ti dirà perché non lo farà.

Il ricercatore può dare al robot nuove informazioni. E il robot aggiornerà la comprensione del suo piccolo mondo e deciderà un modo diverso di agire.

Questa comunicazione è essenziale perché le norme morali non sono invariabili. Ragioniamo e discutiamo sulla moralità – e spesso impariamo gli uni dagli altri e aggiorniamo i nostri valori come gruppo. E ogni robot che segue la morale avrà bisogno di essere parte di questo processo.

Siamo ancora molto lontani dal costruire robot davvero virtuosi. Ma i prossimi passi potrebbero essere simili a questo.”


Vero, siamo ancora lontani dal poter costruire robot che possano seguire principi morali ed etici. Principi che spesso hanno confini poco chiari e che non sono immutabili proprio perché frutto dell’imperfezione umana. Ma bisogna partire da qualcosa e questo qualcosa potrebbe essere lo studio descritto nel video.

Col tempo impariamo a distinguere il bene dal male ed è quello che ci auguriamo possano anche i robot quando vivranno insieme a noi. Il cinema e la letteratura ci hanno mostrato e ci mostrano benissimo come potrebbero essere i robot cattivi e i robot buoni. E spesso questi robot vengono rappresentati come dotati di una personalità e di una consapevolezza che li spinge ad agire seguendo emozioni ed obiettivi.

Non possiamo sapere con certezza se raggiungeremo questo livello di progresso, o se almeno ci avvicineremo. Però di recente, a quanto pare, questa discussione sta riscuotendo parecchio interesse tra gli scienziati e gli esperti. C’è chi si chiede come e perché costruire robot emotivi, chi gestisce il proprio laboratorio di ricerca come un “asilo” per robot e chi, come Federico Pistono e Roman Yampolskiy, pubblica uno studio su come costruire un’intelligenza artificiale cattiva.

Il pericolo causato da macchine che potrebbero provocare danni alle nostre società e a noi è alquanto lontano. Ma questi studi, queste discussioni e questi confronti ci aiutano a fare il punto della situazione. Oggi non riusciremmo a sviluppare robot malvagi autonomi, cioè in grado di prendere decisioni letali per il genere umano. Ma sappiamo che il progresso tecnologico è costante e che non tutti gli umani agiscono per il bene comune.

Come ho sostenuto diverse volte, la creazione di macchine cattive, robot killer e IA criminali passerà sempre per la mano umana. Se possiamo insegnare ai robot a comportarsi in modo rispettoso nei confronti degli altri, possiamo fare anche l’esatto contrario. Tutto parte da noi, anche in questo caso.

Il futurista Ray Kurzweil ha parlato di singolarità tecnologica, ovvero del momento in cui un’intelligenza artificiale supererà quella umana in termini di capacità di comprensione e di previsione degli eventi. Ci sarebbero decine di motivi per non temere la singolarità tecnologica e anche decine di motivi per temerla. Tuttavia, Kurzweil ha una visione prettamente ottimistica della singolarità. Ma se arriverà o meno questo momento di rottura è ancora oggetto di discussione.

Dall’altra parte, invece, ci sono esperti che ci suggeriscono di muoverci con più cautela. Alcuni di loro hanno addirittura fondato un’organizzazione per la ricerca sicura sull’intelligenza artificiale chiama Open AI.

Quello che voglio dire è che tutti questi studi, che siano ottimisti o meno, ci aiutano a capire fin dove siamo arrivati e fin dove potremmo arrivare. La visione di uno scienziato può sembrarci meno convincente rispetto a quella di un altro esperto del settore, anche se entrambi hanno dati concreti dalla loro parte. Credo che la cosa importante sia un’altra: queste discussioni ci aiutano a comprendere le nostre potenzialità e i nostri limiti. E solo conoscendo questi elementi potremo davvero continuare a fare progressi.

Fonte immagine: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.