La questione delicata sul tema auto senza pilota riguarda la sicurezza dei passeggeri e dei pedoni. In una situazione di pericolo, il veicolo autonomo deciderà di salvare la vita dei pedoni sacrificando quella dei passeggeri o farà la scelta opposta? Questa è la sfida più grande per coloro che lavorano su queste tecnologie: creare un algoritmo in grado di prendere decisioni che evitino conseguenze disastrose.
Il dilemma sociale dei veicoli autonomi
Prima che le auto senza pilota diventino davvero completamente autonome e vengano adottate in gran numero, ci sono diversi problemi morali che i regolatori, i produttori e i venditori di automobili devono affrontare. Questi problemi sono stati descritti in un recente studio chiamato “The social dilemma of autonomous veichles“, pubblicato su Science.
La maggior parte dei 1928 intervistati sostiene che i veicoli autonomi, in caso di immediato pericolo, dovrebbero schiantarsi su qualcos’altro piuttosto che sui pedoni. Nell’auto di sicuro non c’è un pilota, ma il problema è che potrebbe esserci almeno un passeggero. Secondo i ricercatori del MIT (Massachusetts Institute of Technology), dell’Università dell’Oregon e della francese Toulouse School of Economics, “gli algoritmi che controllano [i veicoli autonomi] necessiteranno di incorporare principi morali per guidare le loro decisioni in situazioni di danno inevitabile“.
Ma c’è una contraddittorietà. Gli stessi partecipanti si sono dimostrati riluttanti all’idea di comprare un’automobile di questo tipo. Preferivano invece l’idea di stare in un veicolo autonomo programmato per tutelare più la loro sicurezza piuttosto che quella dei pedoni in strada. Egoisti? Forse lo saremmo un po’ tutti di fronte a un caso del genere. Cosa sceglieresti tra la tua vita e quella di un pedone? Tra la tua vita e quella di una famiglia che stava attraversando la strada? Potrei continuare rendendo lo scenario più tragico, ma sono sicuro che già sai fin dove possiamo arrivare.
Non a caso le domande della ricerca erano basate soprattutto sull’esperimento etico noto come il “problema del carrello ferroviario“. Ne esistono diverse versioni, ma la principale consiste nell’immedesimarsi nello scenario in cui un carrello ferroviario sta per investire delle persone. Siamo lì, stiamo per assistere alla tragedia, ma possiamo agire in due modi. Un intervento che sacrificherà una persona per il bene del gruppo o un intervento che salverà la singola persona a discapito del gruppo. Cosa sceglieresti? Difficile fare una scelta avendo molto tempo a disposizione, figuriamoci farla in pochi secondi.
Tuttavia, lo studio ha evidenziato anche che i veicoli autonomi possono procurarci diversi vantaggi. Diminuire il traffico, ridurre l’inquinamento e ridurre del 90% degli incidenti. Non tutti gli incidenti però potranno essere evitati. E proprio in quei momenti il veicolo autonomo deve prendere una decisione. Per fare in modo che questa decisione sia la più corretta dal punto di vista morale, i produttori di auto senza pilota, i venditori e le autorità per il loro regolamento dovranno raggiungere 3 obiettivi:
- essere coerenti,
- non provocare indignazione pubblica e
- non scoraggiare i compratori.
Non è così semplice. I problemi di natura morale sono dietro l’angolo. Bisognerebbe quanto prima allineare gli algoritmi con i valori umani partendo da una discussione collettiva sull’etica da far seguire ai veicoli autonomi. La discussione collettiva comprende anche la partecipazione dei comuni cittadini. Bisognerebbe decidere quali algoritmi siamo disposti ad accettare come proprietari di auto e come pedoni. Dopo potremo passare ad ulteriori sperimentazioni per capire quale sono le soluzioni migliori per le auto senza pilota e ovviamente per la nostra sicurezza.
Algoritmi e valori umani: mettiti alla prova
Ma è davvero possibile insegnare i valori umani a un algoritmo? Qualcuno ha criticato lo studio di Science perché non considera come funziona davvero il modo in cui si sta sviluppando l’intelligenza artificiale per le auto senza pilota.
Il professore di ingegneria elettrica e di informatica presso il CyLab della Carnegie Mellon University, Ragunathan “Raj” Rajkumar, ha affermato: “Tale questione etica è diventata popolare tra le persone che non lavorano sulla tecnologia. L’intelligenza artificiale non ha le stesse capacità cognitive che abbiamo noi umani.“.
I veicoli autonomi prenderanno decisioni in base a dati come velocità, stato della strada, meteo, distanze e altri elementi rilevabili tramite sensori. Quindi, dal suo punto di vista, la sfida primaria riguarderà la capacità e la velocità di elaborazione di tutti questi dati per evitare situazioni di pericolo. Il professor Rajkumar sostiene che non sempre ciò sarà possibile e che è scettico su una eventuale decisione finale che spetterà direttamente all’automobile. “La preoccupazione più grande che ho sui veicoli autonomi è l’abilità di proteggerli dagli hacker che potrebbero prenderne il controllo mentre qualcuno è a bordo.“.
Già, i veicoli autonomi funzionano anche grazie alla rete: un dettaglio da non sottovalutare. Qualsiasi oggetto collegato ad internet può essere violato. Un tema molto delicato. A riguardo suggerisco di dare un’occhiata al pensiero di Marc Goodman sul futuro dell’internet delle cose.
Tornando agli algoritmi e al loro allineamento con gli aspetti morali umani: forse è improbabile. Ma se è così improbabile, allora gli scienziati dovranno affrontare la questione con un altro approccio. Non quello della corrispondenza con i valori umani, ma quello di un'”interpretazione” che sia la più efficace possibile da parte degli algoritmi. Un’interpretazione che si avvicini il più possibile alla sensibilità delle persone.
Anche questa è una sfida enorme se consideriamo i molteplici aspetti culturali e sociali che caratterizzano i popoli di tutto il mondo. Ma sembra sia una buona strada da seguire. I ricercatori che hanno condotto lo studio, infatti, ritengono che questo è solo l’inizio. Intanto hanno creato un sito web chiamato Moral Machine dove hai la possibilità di fare un test, giudicare come dovrebbe reagire un veicolo autonomo in situazioni in cui sono a rischio le vite di giovani o di anziani, di sesso maschile o femminile, con aspetto fisico diverso, con o senza un lavoro, criminali o dottori. Ah, ci sono anche cani e gatti che attraversano le strisce pedonali. Credimi, alcune scelte sono davvero difficili. Provalo!
Il test di Moral Machine ci aiuta a capire meglio quali e quanti elementi un’auto senza pilota dovrà prendere in considerazione in una frazione di secondo, dove in ballo ci saranno delle vite umane. Davvero noi umani sapremmo fare di meglio? Il nostro istinto sarà sempre migliore della capacità di calcolo di un’intelligenza artificiale? Per la prima domanda la mia risposta è no. Per la seconda sarei portato per un “ni” perché al momento non abbiamo ancora quella tecnologia che ci garantisce un buon livello di sicurezza. Ma in futuro le cose potrebbero cambiare.
L’incidente mortale con la Tesla e il futuro delle auto senza pilota
I veicoli automatizzati di Google sono stati i primi a irrompere in questo settore e a scatenare una serie di domande sul futuro della tecnologia e sugli aspetti morali. In 6 anni di sperimentazione c’è stato un solo incidente in cui la Google Car aveva davvero qualche colpa. In tutti gli altri casi, circa una ventina, l’auto dell’azienda di Mountain View aveva rispettato il codice della strada e non ci sono stati feriti.
Chi deve affrontare una soluzione molto più difficile, invece, è Tesla. Un incidente stradale ha causato la morte di un uomo alla guida di una Tesla con autopilota inserito. Pare che il sistema di visione artificiale non sia riuscito a riconoscere il lato bianco del rimorchio a causa del riflesso della luce del sole. È stata aperta un’inchiesta per capire le reali dinamiche dell’incidente. Si tratta di una tragedia che farà discutere e farà riflettere produttori, venditori, guidatori di veicoli autonomi, ma anche le autorità che regolano il loro uso.
Oggi sono diversi i produttori che hanno deciso di puntare sui veicoli autonomi. Si è aperto un nuovo mercato che potrà essere fiorente se riusciremo a risolvere, almeno in parte, questo dilemma sociale. Ci riusciremo? Credo che un paio di motivi validi per risolverlo ce l’hanno anche le aziende produttrici che hanno deciso di investire su questi veicoli. Di sicuro non vorranno mettere in strada un’auto con il rischio di causare più danni che benefici. Lo stesso vale per le autorità per il regolamento e per noi comuni cittadini.
Sono sicuro che possiamo migliorare i veicoli autonomi. Ci vorrà tempo, ma riusciremo ad ottenere risultati migliori. “The social dilemma of autonomous veichles” mi sembra un buon percorso. Vedere cosa ne pensa la gente, capire perché fa una scelta piuttosto che un’altra, discutere. Saranno ingredienti fondamentali per costruire veicoli autonomi più efficienti e sicuri. Il recentissimo incidente mortale con l’auto Tesla alimenterà questo delicato dibattito ancora per un bel po’ di tempo. Ed è giusto che sia così. Dobbiamo risolvere il dilemma sociale dei veicoli autonomi il prima possibile se vogliamo averli davvero sulle nostre strade.
Fonte: Scientific American