I robot possono fare da modelli di comportamento?

Quando trascorriamo molto tempo con una persona, una parte del suo carattere potrebbe influenzare il nostro comportamento. Ma cosa succede se trascorriamo molto tempo a interagire con un robot o un sistema di intelligenza artificiale (IA)?

I sistemi di IA acquisiscono aspetti sempre più umani col trascorrere degli anni. Di conseguenza, aumenta anche la loro capacità di condizionare le persone. Il New Scientist ha descritto uno studio in cui viene dimostrato che dei bambini che hanno trascorso del tempo con un compagno-robot assimilano elementi del suo comportamento. Altri studi suggeriscono che quando i bambini giocano con un robot “intraprendente” acquisiscono parte dell’atteggiamento costruttivo della macchina.

Ma allora i robot possono fare da modelli di comportamento?

 

Gli esperimenti con robot e bambini

I ricercatori dell’Università di Tel Aviv hanno condotto degli esperimenti con il robot Tega. Il robot somiglia a un incrocio tra un Furby e un Teletubby. Per osservare come la “personalità” del robot possa influenzare il comportamento dei bambini, i ricercatori lo hanno programmato con un set di diverse risposte.

L’obiettivo è avere un compagno che abbia tutti i comportamenti che vogliamo infondere e promuovere nel bambino“, ha affermato Goren Gorden, uno dei ricercatori.

40 bambini hanno giocato con il robot Tega che proponeva degli indovinelli. Con metà di loro, Tega ha mostrato un comportamento “neutrale”. Significa che ogni volta che vinceva si limitava a dire “Ho risolto l’indovinello“. Quando perdeva, invece, diceva: “Era difficile“.

Con l’altra metà dei bambini, Tega ha mostrato un atteggiamento più positivo. Ovvero, quando vinceva esclamava: “È stato difficile, ma mi sono impegnato e ce l’ho fatta“. Quando perdeva, invece, esclamava: “Hai lavorato duramente e ci sei riuscito!“.

Le differenze di atteggiamento delle due versioni di Tega erano sottili. Ma l’effetto che hanno avuto sulle reazioni dei bambini è stato significativo. Infatti, i bambini del secondo gruppo si impegnavano di più e quando perdevano mostravano maggiore determinazione nel voler vincere.

Un altro esperimento ha visto Tega come ascoltatore di storie. Attraverso filmati di 18 bambini, un algoritmo ha identificato i tratti distintivi mostrati più spesso quando erano attenti. Haen Won Park del MIT, che ha guidato la ricerca, ha dichiarato: “Abbiamo scoperto che in effetti i bambini si avvicinano e ti guardano quando sono impegnati con una storia. Gli adulti in realtà non lo fanno, ma per i bambini è davvero importante.”

I bambini poi hanno raccontato una storia a 2 robot Tega identici posti uno accanto all’altro. Uno è stato programmato per ascoltare come un bambino: proteso in avanti, annuendo, sorridendo e reagendo di più quando il narratore era più energico. Mentre l’altro ascoltava in modo più riservato. I sondaggi hanno mostrato che i bambini pensavano che il Tega più infantile fosse più attento e quindi lo preferivano come ascoltatore di storie.

Le storie sono importanti per la crescita di un bambino. Quindi potrebbe essere interessante avere robot che possano fornire un supporto in ciò. Ma è ancora troppo presto per giungere a conclusioni precise. I ricercatori effettueranno altri studi a lungo termine per ottenere delle risposte più approfondite.

 

Un esperimento (in corso) con robot e adulti

Altri ricercatori, invece, stanno cercando di comprendere effetti simili negli adulti. Un gruppo di studiosi della Queensland University of Technology sta programmando una serie di robot Nao per insegnare alle persone a mangiare in modo sano.

I ricercatori sperano che interagire con i robot sulle scelte alimentari possa rivelarsi più utile rispetto al monitoraggio del consumo di calorie tramite smartphone.

Lo studio vede la partecipazione di 12 volontari che converseranno con 2 robot Nao: Andy e Rob. I due robot porranno domande, ascolteranno gli obiettivi dei volontari e discuteranno con loro come raggiungerli. Con lo studio si vuole verificare se Andy e Rob, con una voce abbastanza infantile, possono ridurre la riservatezza di quelli che normalmente non si sentono a loro agio nel parlare di questi temi.

Il ruolo dei 2 robot non è quello di professionisti sanitari. Piuttosto, è quello di strumento aggiuntivo per fornire un trattamento quotidiano a basso costo e costante. Nicole Robinson, la ricercatrice che sta conducendo lo studio, sostiene che molte persone sanno cosa fa bene e cosa no. Solo che a volte hanno bisogno solo di un “supporto per mettere in atto quelle azioni“.

Abbiamo già avuto modo di intravedere le possibilità future con robot sempre più sofisticati nella diagnosi delle malattie, nella telechirurgia e chirurgia. Questo esperimento, però, è una novità perché vede protagonisti robot che interagiscono con le persone attraverso la conversazione. “Sarà interessante vedere come le persone risponderanno al supporto robotico quando si tratta di risultati sulla salute“, ha affermato Robinson.

Nicole Robinson con un robot Nao
Nicole Robinson con un robot Nao – Foto: Queensland University of Technology

 

Alcuni rischi

Questi esperimenti ci suggeriscono che dei robot, in alcuni casi, potrebbero fare da modelli di comportamento. Ma bisogna procedere con cautela: l’interazione uomo-macchina presenta elementi delicati soprattutto per quanto riguarda il rapporto tra bambini e robot.

Ci sono stati, infatti, casi di effetti negativi. Alcuni genitori, ad esempio, si sono lamentati del fatto che Alexa, l’assistente digitale di Amazon, portasse i bambini ad essere scortesi. L’IA di Alexa non ha bisogno che le persone le si rivolgano con “per piacere” e “grazie”. Quindi, i bambini che interagiscono con Alexa sono più propensi ad essere poco gentili con le persone.

Può succedere anche il contrario: persone che fanno da pessimo modello per le macchine. Alla Stanford University hanno sviluppato un robot chiamato Jackrabbot che può camminare sui marciapiedi, monitorare le persone e imparare come comportarsi con loro in modo appropriato. Ma, ovviamente, se le persone si comportano male con il robot, quest’ultimo imparerà a comportarsi male con altre persone. Una cosa simile è successa con il chatbot Tay di Microsoft: apprendeva analizzando i tweet, così l’IA è diventata maleducata e antisemita.

Non esiste ancora un metodo per sviluppare robot socialmente intelligenti. Gli esperti devono scegliere attentamente i tratti che i robot devono possedere. Non è semplice, anche perché ci sono aspetti etici che andrebbero studiati e programmati. E non va dimenticato che sono gli umani che sviluppano le macchine. Sarà possibile, allora, sviluppare intelligenze artificiale che non abbiano i nostri pregiudizi? Intanto, diversi esperti del Future of Life Institute hanno stabilito 23 princìpi per un’intelligenza artificiale benefica.

Fonte: MIT Technology Review
Foto copertina: Personal Robots Group


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.