Il nostro volto può raccontare molte cose del nostro stato emotivo agli altri. È facile capire se una persona è arrabbiata, pensierosa, felice, annoiata o preoccupata. Nel trattato “L’espressione delle emozioni nell’uomo e negli animali” (1872), Charles Darwin scriveva: “Fra tutte le parti del corpo la faccia è quella che più viene osservata e considerata, come è naturale, essendo essa la sede principale dell’espressione e la sorgente della voce. […] Per questa ragione la faccia sarà stata soggetta per una lunga serie di generazioni ad un’attenzione speciale e più profonda di quello che non lo sia stata qualunque altra parte del corpo“.
Gli scienziati confermano che esistono espressioni facciali innate, ma i contesti sociali e culturali hanno un’enorme influenza. Lo ha confermato anche uno studio del 2012 dove viene dimostrato che gli occidentali possiedono espressioni facciali distinte. Queste si basano essenzialmente su 6 principali stati emotivi: felicità, tristezza, sorpresa, paura, disgusto e rabbia. Gli orientali, invece, mostrano una maggiore propensione alle espressioni dinamiche degli occhi.
Con il progresso tecnologico e scientifico degli ultimi anni siamo ormai in grado di effettuare analisi più precise. Queste ci supporteranno nella conferma di determinati stati emotivi, tra cui anche la depressione.
Un algoritmo che rileva le tue emozioni e non solo
Oggi studiare le espressioni facciali è molto più facile grazie al machine learning (apprendimento automatico). I ricercatori della Carnegie Mellon University hanno sviluppato un algoritmo che è in grado di analizzare le espressioni del viso basandosi su 68 punti differenti del volto.
Con l’aggiunta del uovo sistema chiamato MultiSense è anche possibile monitorare in tempo reale la posizione della testa di una persona, la direzione del suo sguardo e l’orientamento del suo corpo. Questi dettagli fanno la differenza e possono rivelarci molte cose.
Guardando le micro-espressioni del naso e delle sopracciglia, gli scienziati possono distinguere tra un sorriso felice e un sorriso bugiardo, o comunque non scaturito da un’emozione vera, ma piuttosto da una particolare situazione sociale. Ti è mai capitato di sorridere solo per cortesia, mentre nella tua testa stai desiderando di trovarti in un altro posto a fare tutt’altro? Ecco, questo sistema insieme all’algoritmo potrebbe rilevarlo senza troppi problemi.
Ma c’è dell’altro. Il professor Louis-Philippe Morency, della School of Computer Science della Carnegie Mellon, crede che tecnologie come queste potranno essere d’aiuto nel trovare collegamenti tra le espressioni facciali e stati emotivi nelle persone depresse. Quindi si è messo al lavoro insieme ai suoi colleghi e ha scoperto qualcosa di interessante. Le persone depresse e quelle non depresse sorridono con la stessa frequenza. Ma è il tipo di sorriso che è diverso. Il sorriso delle persone depresse è più breve.
È stato anche dimostrata una differenza di genere evidente nelle espressioni facciali delle persone depresse. Grazie a uno studio dell’University of Southern California, che ha visto anche la partecipazione del professor Morency, è stato scoperto che gli uomini depressi corrugano le sopracciglia molto più spesso rispetto agli uomini non depressi. Per le donne l’effetto è l’opposto. Le donne depresse corrugano le sopracciglia meno frequentemente rispetto alle donne non depresse.
Secondo il professor Morency, il prossimo passo sarà quello di capire se queste differenze dipendono da norme sociali o meno. “È collegato alla cultura? È locale? Nazionale? Internazionale? O c’è ancora un altro fattore – sociale, culturale, psicologico – che ancora non conosciamo?“. Molto probabilmente la tecnologia di riconoscimento delle espressioni facciali potrà darci un grande aiuto nel trovare le giuste risposte.
Gli effetti
Se un algoritmo può rilevare con precisione le espressioni facciali e gli stati emotivi collegati ad esse significa che in futuro potranno essere prodotti molti dati a riguardo. E i dati, soprattutto per la scienza, sono un prezioso tesoro. Le implicazioni di questa tecnologia sul settore sanitario potrebbero essere davvero interessanti. I medici potranno tenere sotto controllo il benessere dei loro pazienti e stabilire terapie più adeguate.
Ma i dati sono preziosi anche per qualcun altro. Non è una novità che il Dipartimento della Difesa americano stia lavorando su software per il riconoscimento facciale. In particolare, si sta occupando dello sviluppo di una piattaforma per migliorare il trattamento del disturbo da stress post-traumatico. L’obiettivo finale, però, è quello di riuscire a costruire un sistema capace di comprendere e prevedere il comportamento delle persone.
I risultati arrivano e anche da altre istituzioni. L’Università dell’Illinois, ad esempio, sta progettando un robot psichico in grado di prevedere le intenzioni delle persone. In Germania, invece, hanno persino sviluppato un sistema di riconoscimento facciale che funziona anche al buio.
C’è molto entusiasmo per lo sviluppo di queste tecnologie. Però lo stesso Morency raccomanda di fare attenzione perché questi dispositivi sono più adatti in determinati contesi piuttosto che altri. Sono molto utili per le cure di un paziente depresso, ma non costituiscono strumenti adatti ad effettuare delle diagnosi. Bensì, i medici potranno sfruttare i sistemi di riconoscimento delle espressioni facciali per avere un ulteriore supporto alle loro ipotesi, diagnosi e terapie. “Personalmente preferirei di gran lunga questa tecnologia come strumento di supporto alle decisioni, ma non come strumento decisionale. Quando si comincia a parlare del processo decisionale, questo porta a un gran numero di questioni etiche che devono essere affrontate.“.
Non mentiremo perché se ne accorgeranno
Noi esseri umani riusciamo a cogliere il significato derivante dalle espressioni facciali senza adottare tecnologie specifiche. Riusciamo a capire se qualcuno è felice o triste osservando soprattutto la sua bocca, la sua fronte e i suoi occhi. Ma noi esseri umani mentiamo. Lo facciamo spesso e non solo quando da bambini. A volte lo facciamo “a fin di bene”, per evitare di dire una verità scomoda a una persona a cui siamo affezionati (la cosiddetta bugia bianca). Altre volte per sembrare migliori agli occhi degli altri, altre volte per ingannare e trarne profitto. E scoprire se qualcuno ci sta mentendo semplicemente osservando il suo viso non è facile. Le micro-espressioni facciali si notano a malapena.
Algoritmi e tecnologie come MultiSense potrebbero essere adottate in futuro anche per estrapolare la verità dalle persone. Immagino interrogatori polizieschi del futuro o i prossimi investigatori privati che si affideranno alle tecnologie più di riconoscimento delle micro-espressioni facciali per consegnare i criminali alla giustizia.
Hai mai visto la serie “Lie to Me” (2009-2011)? Il protagonista, Cal Lightman, è un esperto della comunicazione non verbale che offre consulenze a enti pubblici e a privati. Lightman, attraverso i suoi studi, ha scoperto che esistono delle micro-espressioni facciali che sono universali. Quindi è possibile capire se qualcuno mente cogliendo questi segnali. A volte si aiuta con un computer nel quale sono immagazzinate centinaia e centinaia di foto di espressioni facciali di personaggi famosi e non. Il personaggio è ispirato a Paul Ekman, famoso psicologo ed esperto del linguaggio del corpo.
Oppure avremo a disposizione una tecnologia molto più potente, tipo quella descritta da Philip K. Dick in “Ma gli androidi sognano pecore elettriche?“. Il protagonista, Rick Deckard, è un cacciatore di taglie. Il suo lavoro è eliminare gli androidi che hanno commesso dei crimini contro gli umani. Durante le sue indagini, per capire se sta avendo a che fare con un androide o meno, Deckard esegue il test Voight-Kampff. Fa delle domande provocatorie, o che comunque possiedono una forte carica emotiva. Nel frattempo con uno strumento misura parametri come respirazione, frequenza cardiaca, dilatazione della pupilla e verifica inoltre se il soggetto arrossisce. Il romanzo ha ispirato la creazione del film “Blade Runner” (1982) che si differenzia un po’ dalla storia raccontata da Dick, ma che ha saputo riprendere bene alcuni aspetti, tra cui proprio il test.
Non saprei dire se arriveremo davvero ad aver bisogno di un test per inchiodare androidi cattivi. Ma forse in futuro le espressioni facciali e il linguaggio del corpo saranno analizzato e interpretati da algoritmi. A quel punto potremo dire davvero che siamo riusciti a costruire una macchina della verità. Non ci sarà più spazio per i bugiardi imbroglioni. La bugia sopravviverà solo in contesti privati e familiari, a meno che inventeranno un kit domestico. Il solo sottrarsi al test da parte di parenti o amici farà subito capire loro che stai nascondendo qualcosa. Che sia grave o meno non importerà. Uno strumento che influenzerebbe molto le nostre vite, vero?
Fonte: theatlantic