Costruire robot che rispettino anche le norme etiche è fondamentale. Un compito complesso che richiederà molto tempo e lavoro.

Tuttavia, c’è anche chi la pensa diversamente. Alan Winfield, professore di etica applicata alla robotica, sostiene che incorporare un processo decisionale etico in una macchina potrebbe essere sbagliato.

Vediamo perché.

 

Etica e robotica: un altro punto di vista

Alan Winfield, insieme al suo collega Dieter Vanderelst, ha spiegato la sua teoria in un documento intitolato “The Dark Side of Ethical Robots“.

Nel documento viene descritto un esperimento interessante dove sono stati usati 2 robot NAO. Uno interpretava un essere umano e l’altro il suo assistente robot. Con una semplice alterazione logica di quest’ultimo robot, esso ha iniziato a comportarsi in modo non etico. Ha iniziato a comportarsi in modo competitivo e aggressivo nei confronti del robot che interpretava l’essere umano.

Il passaggio da un comportamento etico a uno non etico da parte del robot non ha sorpreso gli studiosi. Si tratta della conseguenza del fatto che entrambi i comportamenti richiedono lo stesso meccanismo cognitivo. C’è solo una differenza nel modo in cui un singolo valore viene calcolato. Infatti, la differenza tra un robot etico e un robot aggressivo sta nella semplice negazione di questo valore.

Secondo Winfield, possiamo costruire macchine esplicitamente etiche. Con questa espressione, introdotta da James Moore, ci si riferisce a robot che selezionano i comportamenti sulla base di regole etiche. Sono quindi robot che valutano le conseguenze etiche di diverse possibili azioni.

Ma i risultati dell’esperimento di Winfield e Vanderelest mettono tutto ciò in discussione. I rischi associati ai robot che si comportano in modo etico sono 3.

Innanzitutto c’è il rischio che un produttore senza scrupoli possa inserire nei suoi robot alcuni comportamenti non etici per sfruttare i consumatori più ingenui o vulnerabili e ottenere un guadagno finanziario o un vantaggio di mercato.

Poi c’è il pericolo che deriva dalla possibilità che un consumatore o un tecnico possa erroneamente o deliberatamente modificare i comportamenti dei robot. Molto dipende da come sono codificati i principi etici delle macchine. Ma se le regole etiche del robot fossero espresse in un formato facilmente accessibile? La soluzione più concreta sarebbe quella di impedire ai destinatari finali di accedere a tali impostazioni.

Anche un’etica ben codificata non è esente da rischi. Cracker esperti potrebbero violare i codici e manipolare i robot a proprio piacimento. Questo è forse il rischio più serio di tutti.

 

Soluzioni?

Winfield sostiene che possiamo prevedere diversi approcci per mitigare i rischi di violazione dei codici etici dei robot. Una soluzione potrebbe essere adottare una crittografia potente. Un’altra potrebbe essere quella di far autenticare al robot le sue regole etiche attraverso un server sicuro. Un errore di autenticazione disabiliterebbe l’etica impostata e il robot non agirebbe in alcun modo.

Non sono approcci infallibili. I cracker più determinati potrebbero comunque trovare un modo per violare questi tipi di sicurezza.

Solo che la responsabilità non è e non sarà dei robot. La responsabilità di assicurare che si comportino bene compito degli esseri umani. Per Winfield, duqnue, abbiamo bisogno di una governance etica. Il problema è che, anche con una forte governance, i rischi che l’etica di un robot possa essere compromessa da attori senza scrupoli sono così grandi da sollevare seri dubbi sulla saggezza di incorporare processi decisionali etici nei robot.

In ogni caso, questa è solo una delle tante sfide che dovremo affrontare nel settore della robotica.

Foto: Flickr

2 thoughts on “E se costruire robot etici non fosse una buona idea?”

  1. Mah a parte che l intelligenza artificiale non esiste ancora .. e quindi manco un etica artificiale , ma ci si è basati su un NAO “anti-etico” ??? Ma che avrà mai fatto sto giocattolo di così anti etico? Camminato troppo lentamente? No.. perfavore.. . Se ne riparlera tra molti anni di questa cosa.. e cmq per limitare i danni basta evitare l’accesso internet al device ( invece di anutenticare con crittografia chissà che da chissà dove) ed impedire al device di usare coltelli e pistole ( haha )

    1. L’intelligenza artificiale esiste ed è quella debole: ormai oggi la ritroviamo in tantissime applicazioni. Quella che non esiste ancora è un’intelligenza artificiale generale (AGI). Il robot non ha fatto nulla di che e non avrebbe potuto fare chissà cosa, sia per i limiti tecnologici sia perché in generale sarebbe fuori luogo fare delle sperimentazioni pericolose.

      Questi esperimenti servono a farci capire qual è lo stato attuale della tecnologia di IA, quali potrebbero essere gli sviluppi futuri e quali potrebbero essere invece i rischi. Ad un certo punto nel documento dello studio si legge che il robot può “essere facilmente modificato per usare la sua “conoscenza” delle tue preferenze per massimizzare le tue perdite – in altre parole, per causare il massimo danno.

      Il danno nella sperimentazione ovviamente è minimo o nullo, se non controllato. Ma cosa succederebbe se i sistemi futuri, completamenti autonomi e diffusi a livello globale, avessero una criticità del genere? Beh sarebbe un bel problema. Altro che pistole e coltelli. 😀

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.