Un disegno di un cervello con il logo di Facebook

Facebook: in arrivo un’interfaccia cervello-computer?

Ogni anno, il CEO di Facebook Mark Zuckerberg riunisce centinaia di sviluppatori, aziende partner e giornalisti all’evento F8. Quest’anno una notizia ha incuriosito più di altre. Pare che Facebook stia lavorando su uno strumento che possa usare il cervello come dispositivo di input.

Ebbene sì, sembra si tratti di un’interfaccia cervello-computer (BCI). Ma per quale scopo? Ma soprattutto, quanto c’è di vero in questa notizia?

 

Ciò che sappiamo

Chiariamo subito un paio di cose. Innanzitutto, lo sviluppo di un’interfaccia cervello-computer davvero precisa e funzionale richiederà ancora diversi anni. Nel frattempo potrebbe succedere di tutto (non me ne voglia il caro Zuckerberg). In secondo luogo, i dettagli rivelati da Facebook su questo futuro dispositivo sono davvero pochi.

Sono pochi perché la società non l’ha ancora inventato, o a malapena ha iniziato a lavorarci. D’altra parte, Facebook ha già fatto sapere la funzione di questa interfaccia cervello-computer attraverso un annuncio stampa.

Abbiamo adottato un approccio decisamente diverso, non-invasivo e profondamente scientifico per costruire un’interfaccia cervello-computer di speech-to-text.”

Di solito con “speech to text” si fa riferimento alle tecnologie di riconoscimento vocale: identificare il linguaggio parlato o trasformare le parole in testo scritto. Ma in questo caso il riconoscimento non avverrebbe al livello del linguaggio parlato, ma al livello del pensiero.

L’azienda ha descritto la tecnologia come “un’interfaccia silenziosa per il linguaggio, con la velocità e la flessibilità della voce e la privacy del testo“. Obiettivo: elaborare “100 parole al minuto, direttamente dall’area del discorso del tuo cervello“.

Si tratterebbe, dunque, di un’interfaccia cervello-computer che traduce in scrittura i nostri pensieri. Fin qui sembra tutto molto bello. Ma proviamo ad osservare meglio alcuni particolari.

 

“La privacy del testo”

Questa parte del comunicato è davvero curiosa: “la privacy del testo“. Curiosa perché il binomio Facebook-privacy suscita ormai qualche perplessità.

Per questo dispositivo di riconoscimento del pensiero, Facebook ha affermato di aver composto una squadra di “oltre 60 scienziati, ingegneri e integratori di sistemi” provenienti dalle università più prestigiose degli USA. Lo squadrone è gestito dall’ex direttrice della DARPA ed ex capo del gruppo di ricerca sperimentale ATAP di Google Regina Dugan. Insomma, alti livelli.

A maggior ragione, le preoccupazioni sulla privacy sono state il fulcro delle prime domande dei giornalisti presenti all’F8. Una di queste domande riguardava l’intromissione nei pensieri delle persone attraverso il dispositivo.

Dugan ha risposto che non si trattava di invadere i pensieri delle persone, ma di “decifrare le parole che hai già deciso di condividere inviandole all’area del discorso del tuo cervello“. Poi ha aggiunto: “Pensala così: prendi molte foto e scegli di condividerne solo alcune. Allo stesso modo, hai molti pensieri e scegli di condividere solo alcuni di essi.“.

Non so se la risposta abbia soddisfatto le preoccupazioni dei giornalisti o di chiunque tenga alla propria privacy. Ma è la stessa scarsità di dettagli e informazioni che, al momento, non ci consente di formulare un’opinione precisa in merito.

 

Una nuova strategia di advertising?

Passiamo al lato economico della questione. Facebook guadagna attraverso pubblicità mirate. Sam Biddle, giornalista di The Intercept, ha posto la seguente domanda a Facebook proprio nel giorno in cui la tecnologia è stata annunciata: “Facebook è in grado, come adesso, di impegnarsi affinché l’attività cerebrale dell’utente non verrà usata in alcun modo per scopi pubblicitari di qualsiasi tipo?”

La portavoce di Facebook Ha Thai ha risposto così: “Stiamo sviluppando un’interfaccia che permette di comunicare con la velocità e la flessibilità della voce e la privacy del testo. In particolare, solo le comunicazioni che hai già deciso di condividere, inviandole all’area del discorso del tuo cervello. La privacy sarà integrata in questo sistema, come per ogni impegno di Facebook.”.

La portavoce, in sostanza, ha ripreso le parole di Regina Dugan. Ma non ha risposto alla domanda, per cui il giornalista ha chiesto di nuovo: “La mia domanda è questa: Facebook è in grado, come adesso, di impegnarsi affinché l’attività cerebrale dell’utente non verrà utilizzata in alcun modo per scopi pubblicitari di qualsiasi tipo?

La risposta di Thai: “Sam, questa è la miglio risposta che posso fornire in questo momento.

Possiamo considerarla una risposta implicita: no, Facebook per ora non non può assicurarci che le attività cerebrali degli utenti non verranno sfruttate per fini pubblicitari. Ciò non significa però che l’azienda si servirà di questa tecnologia anche per questo scopo.

A dire la verità, potrebbe essere anche una strategia di mercato. Un espediente per suscitare curiosità e interesse verso nuove tecnologie e applicazioni.

Intanto, però, le preoccupazioni per la privacy restano. Sia per la gestione attuale della piattaforma, sia per quella futura.

 

Problemi etici

La possibilità di schiaffarci in faccia pubblicità mirate o di entrare nei nostri pensieri preoccupa seriamente anche i neuroeticisti. Eran Klein, professore di neurologia presso l’Oregon Health and Sciences University e neuroeticista presso il Center for Sensorimotor Neural Engineering, si è chiesto se pensiamo abbastanza su cosa significa perdere il controllo su una zona di privacy.

Una delle cose che ci rende umani è che possiamo decidere cosa rimane nella nostra mente e cosa esce dalla nostra bocca.”

Cosa succederebbe se i nostri monologhi interiori venissero caricati sui server e analizzati da estranei? Secondo il dottor Klein, nella società “se hai un pregiudizio, ma hai lavorato diligentemente per schiacciare quel pregiudizio, ciò dice qualcosa di buono del tuo carattere“. Ma se a causa di un’interfaccia cervello-computer, come quella descritta da Facebook, “tutti quei pregiudizi sono aperti ad altre persone per essere visti e giudicati, allora si apre un modo completamente diverso di valutare il carattere morale e le scelte morali delle persone“.

L’importanza di pensare le cose e lasciarle inespresse è fondamentale per l’umanità. Non è solo una questione di privacy, ma anche di possibilità di riflessione, concentrazione, sfogo e introspezione.

Nel 2013 Facebook pubblicò uno studio condotto su 600.000 persone ignare che fece discutere un bel po’. Ciò che disturbò di più fu il fatto che Facebook registrò non solo il testo digitato e pubblicato sulle bacheche, ma anche il testo digitato, poi cancellato e non pubblicato.

Un episodio che non tutti hanno dimenticato. Ci si può fidare di Facebook?

La storia secondo cui gli utenti di Facebook saranno in grado di scegliere quali pensieri trasmettere e quali no non convince Klein. Il neuroeticista, infatti, sostiene che una parte intrinseca del discorso riguarda proprio il non pensare a ogni singola parola o frase prima di pronunciarla.

Inoltre, la nostra mente non funziona come se avesse delle impostazioni di privacy come quelle di Facebook. “Se bisogna prendere una decisione su ogni piccola cosa, diventa faticoso“, ha detto Klein. E si arriverebbe a ciò che i neurologi chiamano “un elevato carico cognitivo”.

Klein poi ha aggiunto che “l’unico modo in cui queste tecnologie diventeranno veramente parte della nostra seconda natura è se diventeranno subconscie ad un certo livello“. A quel punto, l'”analogia con le fotografie si spezza perché non si sceglie coscienziosamente ogni cosa da lasciar passare al setaccio“.

Tutto ciò porta a una sorta di paradosso: “Affinché questa tecnologia sia utile, dovrebbe essere subconscia, il che esclude il tipo di decisioni granulari sulla privacy descritte nei commenti della PR di Facebook.

Ecco perché in ottica advertising la situazione sarebbe ancora più delicata: “Se è subconscia, non hai il controllo cosciente di quali informazioni le aziende ottengono su di te… Quindi potresti essere bersaglio di di annunci per cose che non ti rendi nemmeno conto che ti piacciono.

Anche Howard Chizeck, neuroeticista e professore di ingegneria elettrica presso l’Università di Washington, la pensa come Klein. Chizeck pensa che Facebook sia sopravvalutando la possibilità di trasformare il cervello in una sorta di “modalità di privacy” per la coscienza.

Dubito che si possa scegliere precisamente le parole che si voglia ‘pensare’ verso un sistema esterno, oppure contro i pensieri verbali che si verificano.

Chizeck ha poi aggiunto che tale attività “può sembrare sufficientemente diversa nei cervelli di diverse persone in condizioni differenti” (ad esempio da ubriachi o esausti). Ciò rende la realizzazione del progetto di Facebook ancora più difficile.

Ma anche se si dimostrerà possibile scegliere i pensieri destinati al discorso, Chizeck sostiene che ci sarebbe comunque un altro rischio. “Anche se è possibile vedere le parole desiderate da inviare, anche altri segnali cerebrali potrebbero essere monitorati… Il che è una preoccupazione per la privacy“.

 

Dalla fantascienza alla realtà

Sia Klein sia Chizeck sono convinti che Facebook dovrebbe stabilire subito i principi della ricerca sul cervello, invece di evitare di rispondere alle domande sulla privacy.

Penso che dovrebbero progettare il loro sistema, sin dall’inizio, con una considerazione sulla privacy“, ha dichiarato Chizeck. “In ultima analisi, ritengo che ci sia bisogno di standard (sviluppati da un settore industriale, una società professionale o un consorzio), con meccanismi di auto-applicazione da parte dell’industria e di controllo da parte del governo o di terzi.

Anche Klein pensa sia importante per aziende private come Facebook condurre quello che potrebbe diventare un lavoro scientifico pionieristico per stabilire le norme fondamentali in anticipo. In particolare, per “stabilire in anticipo quali sono i loro valori e quale sia la visione“. Klein pensa che se lasceremo che la tecnologia guidi tutto, allora “l’etica sarà sempre il cane che cerca di prendere l’auto“.

Le preoccupazioni di oggi per una tecnologia ancora da sviluppare a volte sono giustificate. In questo caso specifico, le preoccupazioni sono più che giustificate. Perché le interfacce cervello-computer non sono più dispositivi che appartengono al solo mondo della fantascienza. Sono sempre più una realtà.

Ti cito qualche esempio. C’è quella a cui sta lavorando il MIT, che è spessa quanto un capello. C’è quella wireless sviluppata dagli olandesi della Utrecht University. C’è Braingate che permette ai pazienti con SLA di “scrivere” 6 parole al minuto. Alcune di queste tecnologie permettono alle persone di controllare braccia robotiche e altre protesi con la mente. E naturalmente in questo momento ce ne saranno tante altre in fase di sviluppo.

Per cui se senti parlare di scenari futuri in cui potremo essere vittime di hackeraggio del cervello non ti meravigliare. Di sicuro non possiamo dire con certezza che prima o poi sarà davvero possibile intromettersi nei pensieri delle persone o “rubarli”. Ma la tecnologia di base è già qui.

Forse è solo questione di tempo, o forse non succederà mai. Ma se siamo arrivati a questo punto, possiamo e dobbiamo porci qualche domanda.

Prima che Facebook e altre aziende provino a entrare nella tua testa senza il tuo consenso, iscriviti alla newsletter. Riceverai aggiornamenti sul mondo delle tecnologie digitali dirompenti.

Controcorrente Newsletter


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.