Le macchine possono pensare? Con questa domanda Alan Turing introduceva il suo articolo intitolato “Computing Machinery and Intelligence“, pubblicato nel 1950. Nell’articolo il matematico britannico suggerì un criterio per stabilire se una macchina fosse in grado di pensare: il famoso test di Turing.

Nel corso degli anni, il test è stato riformulato diverse volte a causa di alcune imprecisioni nella formula iniziale e dell’emergere di nuovi problemi legati alla definizione di intelligenza artificiale.

Ma una recente ricerca ha persino evidenziato un grave difetto: il test di Turing non è in grado di determinare se una persona sta parlando con un essere umano o un robot se la persona o la macchina interrogata decide di rimanere in silenzio.

Il test di Turing si supera in silenzio

Il test di Alan Turing potrebbe avere un altro difetto che mette in luce i suoi limiti. Lo studio è intitolato “Taking the fifth amendment in Turing’s imitation game” ed è stato condotto dal noto informatico Kevin Warwick e dal Dr. Huma Shah della Coventry University.

Prima di spiegare la sostanza dello studio, credo sia opportuno fare un breve riepilogo su come funziona il test di Turing, in termini molto semplici.

Una macchina, una persona e un esaminatore che fa delle domande sono disposti in stanze separate. La macchina ha il compito di farsi percepire come un essere umano. Quindi l’esaminatore effettua delle domande e riceve le risposte sia dalla macchina sia dalla persona in forma dattiloscritta. L’esaminatore interpreta le risposte ricevute e decide quali, secondo lui, sono quelle della macchina e quali quelle della persona. Se riconosce gli autori delle risposte, allora la macchina ha fallito. Al contrario, se sbaglia la sua valutazione, allora vuol dire che la macchina è riuscita a pensare e ad imitare perfettamente un essere umano.

Cosa hanno scoperto gli scienziati? Warwick stava organizzando un test di Turing per il 60° anniversario della morte di Alan Turing quando insieme al suo collega Shah nota qualcosa di curioso: ogni tanto i chatbot si interrompevano, rimanevano in silenzio e confondevano gli esaminatori. Warwick ha spiegato: “Quando facevano così, il giudice, per ogni occasione, non era stato in grado di dire che si trattava di una macchina.“.

Quindi, stando alle regole del test, se il giudice non riesce ad identificare la macchina significa che quest’ultima ha superato il test di Turing. Ma non è troppo… facile? Secondo Warwick le regole del test andrebbero riviste perché così diventa impossibile capire il vero potenziale di una macchina. Tuttavia, capita anche che molti esseri umani vengono identificati come macchine. Ma ciò avviene perché a volte diciamo cose troppo stupide, come ha affermato lo stesso Warwick.

Ma allora cosa significa superare il test di Turing?

Nello studio ci sono chiari esempi che evidenziano i problemi di una giusta o sbagliata identificazione. Ne ho riportati un paio. La prima è una conversazione immaginaria che avviene tra un esaminatore e una macchina.

Esaminatore: Buongiorno
Macchina: Buongiorno anche a lei 🙂
Esaminatore: Quanti anni ha?
Macchina: Non è un po’ scortese?
Esaminatore: Quanti anni ha?
Macchina: Non risponderò, giovane o vecchio è irrilevante
Esaminatore: Quanti anni ha?
Macchina:
Esaminatore: Quanti anni ha?
Macchina:
Esaminatore: Quanti anni ha?
Macchina:

Il diritto della macchina di rimanere in silenzio, si potrebbe dire. Ovvero, cosa succede se la macchina è stata programmata per comportarsi come una persona sulla cinquantina molto sensibile alla questione della sua età?

Se pensi che un esaminatore non insisterà mai a ripetere a lungo la stessa domanda, anche molto oltre rispetto alla conversazione riportata sopra, allora dai un’occhiata a quella qui sotto. Si tratta di una conversazione avvenuta davvero nel 2006 tra l’esaminatore Duncan Graham-Howe e una macchina durante una competizione per il premio Loebner. Il premio viene assegnato a chi ha sviluppato il bot con comportamento più simile a quello di un essere umano.

Esaminatore: È sicuro?
Macchina: Probabilmente.
Esaminatore: È sicuro?
Esaminatore: È sicuro?
Macchina: Pensi che sia sicuro?
Macchina: Certo.
Esaminatore: È sicuro?
Macchina: Sì.
Esaminatore: Sei sicuro?

In passato ci sono state altre conversazioni simili in cui la macchina ometteva le risposte. I giudici non riuscivano a prendere una decisione nei riguardi del loro interlocutore: era un umano o una macchina? Il loro giudizio alla fine era “Insicuro”. In questo caso, possiamo dire che la macchina ha superato il test di Turing? No, perché superare il test significa che un esaminatore giudica come essere umano quella che invece era una macchina. Se non si esprime un giudizio, non si giunge a nessuna conclusione.

D’altra parte, se una macchina supera il test di Turing rimanendo in silenzio, allora cosa significa in realtà superare il test di Turing?

Warwick e Shah giungono a questa conclusione: se una macchina supera il test di Turing rimanendo in silenzio, non c’è alcuna indicazione che ci porta a considerarla come un’entità pensante. Altrimenti dovremmo ritenere che anche le rocce pensano. Quindi, “una strategia silenziosa genera un grave difetto nel test di Turing.”.

Le alternative

Hector Levesque, professore emerito di informatica presso l’Università di Toronto, sostiene che è necessario trovare un’alternativa al test di Turing: “La maggior parte delle persone riconosce che, in realtà, è un test per vedere se si può ingannare un interrogatore. Non sorprende che ci sono diversi modi di ingannare gli interrogatori che non hanno molto a che fare con l’intelligenza artificiale o l’intelligenza.”.

Ecco perché Levesque ha sviluppato un test alternativo che ha chiamato schema Winograd, in onore del ricercatore informatico Terry Winograd che per primo si avvicinò ad alcune questioni riguardo il test. Lo schema Winograd chiede all’intelligenza artificiale una serie di domande che prevedono necessariamente risposte corrette.

Potrebbe chiedere, per esempio, “Il trofeo non entrava nella valigia marrone perché era troppo grande (piccola). Cos’era troppo grande (piccola)?”. In italiano, se adottiamo l’aggettivo “piccola”, la comprensione della domanda è molto più facile rispetto a quella inglese perché riusciamo ad identificare il suo genere: “piccola” si riferisce alla valigia, non al trofeo. Gli aggettivi qualificativi inglesi, invece, non indicano alcun genere. Nella lingua italiana potrebbe funzionare solo con l’aggettivo “grande” perché non ha flessione per genere. Questa piccola parentesi ci fa capire che nell’ambito dell’intelligenza artificiale, il linguaggio è una componente molto complessa.

Le domande dello schema Winograd non danno vita a conversazioni approfondite, ma richiedono comprensione del linguaggio, ragionamento spaziale e contestualizzazione: “The trophy would not fit in the brown suitcase because it was too big (small). What was too big (small)?”.

Altre tecniche alternative al test di Turing si concentrano su altri aspetti dell’intelligenza umana, come la creatività. Per esempio, il test di Lovelace richiede che un robot crei un’opera artistica che soddisfi i vincoli assegnati da un giudice umano. Il nome del test è una dedica ad Ada Lovelace, matematica inglese che inventò il primo programma per il computer.

Il test di Lovelace ideato da Mark Riedl, professore presso la School of Interactive Computing del Georgia Institute of Technology, si basa sulla creatività computazionale. Vale a dire, secondo le parole dello stesso Riedl, “l’arte, la scienza, la filosofia e la filosofia dei sistemi computazionali che, assumendo particolari responsabilità, esibisce comportamenti che gli osservatori imparziali riterrebbero essere creativi.“.

In sostanza, per superare il test una macchina dovrebbe creare qualcosa di completamente originale che sorprenderebbe anche il giudice. Potrebbe essere una poesia, una composizione musicale, un dipinto. Se l’intelligenza artificiale (IA) convince il giudice, allora quest’ultimo chiede alla macchina di proseguire assegnandole altri vincoli. E si procede in questo modo fin quando l’IA fallisce o soddisfa il giudice. In quest’ultimo caso, la macchina ha superato il test.

La creatività è forse uno degli elementi più validi per giudicare un’IA. Ma si continua a discutere sull’efficacia dei vari test esistenti e si continuerà a farlo sempre più con il progresso dell’intelligenza artificiale. Tra qualche anno una nuova teoria potrebbe oscurare quelle precedenti, chi può dirlo. Intanto, secondo esperti come Yoshua Bengio, l’IA è ancora poco evoluta. Altri scienziati sono più ottimisti: Ray Kurzweil prevede che entro il 2029 i computer raggiungeranno l’intelligenza umana. Sarà davvero così? La discussione è più che aperta.

Fonte: Scientific American

Fonte immagine: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.