“Suggeriamo una ricerca ampliata volta a garantire che i sistemi di IA sempre più capaci diventino robusti e benefici: i nostri sistemi di IA devono fare ciò che vogliamo che facciano.“. Così si poteva leggere nella lettera aperta sui rischi dell’intelligenza artificiale presentata dal Future of Life Institute. Il professore di informatica e fondatore del Center for Intelligent Systems presso l’Università della California Stuart Russell è stato il primo firmatario: da tempo infatti si interessa del potere e dei pericoli legati all’intelligenza artificiale (IA).
Quanta Magazine, un editoriale online indipendente, ha intervistato il professor Russell, il quale si è soffermato sul concetto di intelligenza e sulla grande sfida da affrontare per avvicinarla con sicurezza alle macchine.
L’intelligenza e le macchine
Pensi che l’obiettivo del tuo settore dovrebbe sviluppare intelligenza artificiale “dimostrabilmente allineata”con i valori umani. Cosa Significa?
Si tratta di una dichiarazione volutamente provocatoria perché è mettere insieme due cose -“dimostrabilmente” e “valori umani”- che sembrano incompatibili. Potrebbe essere che i valori umani resteranno per sempre qualcosa di misterioso. Ma nella misura in cui i nostri valori si rivelano nel nostro comportamento, si potrebbe sperare di essere in grado di dimostrare che la macchina sarà capace di “ottenere” la maggior parte di essi. Ci potrebbero essere alcuni pezzi lasciati negli angoli che la macchina non capisce o su cui non siamo d’accordo tra di noi. Ma fino a quando la macchina acquisisce bene le basi, si dovrebbe essere in grado di dimostrare che non può essere molto dannosa.
Come si fa a farlo?
Questa è la domanda su cui sto lavorando adesso. Una macchina, dove si procura qualche approssimazione di valori che agli umani piacerebbe che essa avesse? Penso che una risposta sia una tecnica chiamata “apprendimento per rinforzo inverso” [inverse reinforcement learning]. L’apprendimento per rinforzo inverso è un processo in cui si sono dati premi e punizioni in base a come ti comporti. Il tuo obiettivo è quello di capire il comportamento che ti porterà il maggior numero di premi.
Questo è ciò che il sistema DQN sta facendo. È dato il punteggio del gioco, e il suo obiettivo è quello di aumentare il punteggio. L’apprendimento per rinforzo inverso è il contrario. Puoi vedere il comportamento, e devi cercare di capire quale punteggio quel comportamento sta cercando di massimizzare. Ad esempio, il robot domestico ti vede strisciare fuori dal letto al mattino e macinare alcune cose marroni rotonde in una macchina molto rumorosa e fare qualcosa di complicato con il vapore, l’acqua calda, il latte e così via, e dopo sembri felice. Dovrebbe imparare che parte della funzione del valore umano del mattino è avere un po’ di caffè.
C’è una quantità enorme di informazioni là fuori nei libri, nei film e sul web sulle azioni umane e gli atteggiamenti verso le azioni. Quindi è una risorsa incredibile per le macchine per imparare quali sono i valori umani – chi vince medaglie, chi va in galera, e perché.
Come ti sei interessato all’intelligenza artificiale?
Quando ero all’università, l’IA non era stata pensata come una disciplina accademica, in generale. Ma ero in collegio a Londra, al St. Paul, e ho avuto la possibilità di evitare il rugby obbligatorio facendo un corso di informatica di livello A in un collegio vicino. Uno dei miei progetti per il livello A è stato un programma che ha insegnato a se stesso a giocare a tris, o tic tac toe. Sono diventato molto impopolare perché ho usato il computer del college per ore e ore. L’anno successivo ho scritto un programma di scacchi e ho ottenuto il permesso da uno dei professori presso l’Imperial College di usare il loro gigante computer mainframe. Era affascinante cercare di capire come arrivare a giocare a scacchi. Ho imparato alcune delle cose che in seguito sarebbero state insegnate nel mio libro.
Ma questo era solo un hobby. In quel momento il mio interesse accademico era la fisica. Ho fatto fisica a Oxford. E poi quando stavo per laurearmi ho fatto domanda per fare fisica teorica all’Università di Oxford e Cambridge, e ho fatto domanda per fare informatica al MIT, Carnegie Mellon e Stanford, non rendendomi conto che avevo perso tutte le scadenze per le applicazioni per gli Stati Uniti. Fortunatamente Stanford ha rinunciato alla scadenza, così sono andato a Stanford.
E sei stato sulla costa occidentale da allora?
Si.
Hai trascorso molto della tua carriera provando a capire cos’è l’intelligenza come prerequisito per comprendere come le macchine possano raggiungerla. Cosa hai imparato?
Durante la mia tesi di ricerca durante gli anni ’80, ho cominciato a pensare al processo decisionale razionale e il problema è che in realtà è impossibile. Se tu fossi razionale potresti pensare: ecco il mio stato attuale, queste sono le azioni che potrei fare in questo momento, e dopodiché posso fare quelle azioni e poi quelle azioni e poi quelle azioni. Quale percorso è garantito per guidarmi al mio obiettivo? La definizione di comportamento razionale richiede che tu ottimizzi l’intero futuro dell’universo. È solo computazionalmente completamente irrealizzabile.
Non ha molto senso il fatto che dovremmo definire ciò che stiamo cercando di fare con la IA come qualcosa di impossibile. Quindi ho cercato di capire: come dobbiamo davvero prendere le decisioni?
Quindi, come lo facciamo?
Un trucco è quello di pensare a un breve orizzonte e poi di indovinare come sarà il resto del futuro. Così i programmi di scacchi, per esempio, se fossero razionali giocherebbero solo mosse che garantiscono lo scacco matto, ma non lo fanno. Invece loro guardano avanti di una dozzina di mosse e fanno delle ipotesi su quanto sono utili queste condizioni, e quindi scelgono una mossa che sperano portino a una delle buone condizioni.
Un’altra cosa che è davvero essenziale è quella di pensare al problema decisionale su più livelli di astrazione, quindi il “processo decisionale gerarchico“. Una persona fa circa 20.000 miliardi di azioni fisiche nel corso della sua vita. Venendo a questa conferenza per dare un discorso ce ne sono volute 1,3 miliardi o qualcosa del genere. Se tu fossi razionale proveresti a guardare avanti di 1,3 miliardi di passi. Completamente, assurdamente impossibile.
Quindi il modo in cui gli esseri umani gestiscono questo è di avere questo archivio astratto di azioni ad alto livello molto ricco. Non pensi, “Prima posso spostare il mio piede sinistro o il mio piede destro, e poi, dopo posso anche…”. Pensi: “Andrò su Expedia e prenoterò un volo. Quando atterrerò, prenderò un taxi “. E questo è tutto. Io non penso più fino a quando ho fatto scendere l’aereo in aeroporto e cercato il cartello che dice “taxi”. Allora scendo più nel dettaglio. Questo è il modo in cui viviamo la nostra vita, in fondo. Il futuro si estende, con un sacco di dettagli molto vicini a noi nel tempo, questi grandi pezzi dove ci siamo impegnati per azioni molto astratte, come “ottenere un dottorato di ricerca”, “avere dei figli”.
I computer sono attualmente in grado di prendere decisioni gerarchiche?
Ecco, questo è uno dei pezzi mancanti in questo momento. Da dove vengono tutte queste azioni di alto livello? Non pensiamo che programmi come la rete DQN possano capire le rappresentazioni astratte delle azioni. Ci sono alcuni giochi in cui DQN proprio non capisce. Ed i giochi che sono difficili sono quelli che richiedono di pensare molti, molti passi avanti nelle rappresentazioni primitive delle azioni. Quelle in cui una persona potrebbe pensare: “Oh, quello che mi serve fare ora è aprire la porta “, e aprire la porta comporta il recupero della chiave, eccetera. Se la macchina non ha la rappresentazione “aprire la porta”, allora non può davvero mai fare progressi in questo compito.
Ma se questo problema è stato risolto, e non è certamente impossibile, allora dovremmo vedere un altro grande aumento della capacità della macchina. Ci sono due o tre problemi del genere dove se tutti fossero risolti, allora non è chiaro per me che non ci sarebbe alcun ostacolo maggiore tra lì e l’IA di livello umano.
Cosa ti preoccupa sulla possibilità di un’IA di livello umano?
Nella prima edizione del mio libro [1994] c’è una sezione chiamata “E se abbiamo successo?”. Perché mi sembrava che le persone nella IA non ci stavano veramente pensando molto. Probabilmente era una cosa troppo lontana. Ma è abbastanza chiaro che il successo sarebbe una cosa enorme. “Il più grande evento nella storia umana” potrebbe essere un buon modo per descriverlo. E se questo è vero, allora abbiamo bisogno di metterci molto più pensiero rispetto a ciò che stiamo facendo in quella che potrebbe essere la forma precisa di tale evento.
L’idea di base dell’esplosione di intelligenza è che una volta le macchine raggiungono un certo livello di intelligenza, esse saranno in grado di lavorare sulla IA proprio come facciamo noi e migliorare le proprie capacità, ridisegnare il proprio hardware e così via, e la loro intelligenza sfreccerà fuori scala.
Negli ultimi anni, la comunità ha progressivamente affinato i suoi argomenti sul perché ci potrebbe essere un problema. L’argomento più convincente ha a che fare con l’allineamento del valore. Si crea un sistema che è estremamente buono a ottimizzare una funzione di utilità, ma la funzione di utilità non è proprio giusta. Nel libro di Nick Bostrom [Superintelligence] c’è questo esempio delle graffette. Voi dite: “Fai alcune graffette.” E trasforma l’intero pianeta in una vasta discarica di graffette. Crei un super-ottimizzatore; quale funzione di utilità gli dai? Perché ha intenzione di farlo.
Cosa dici sulle differenze dei valori umani?
È un problema intrinseco. Si potrebbe dire che le macchine dovrebbero sbagliare per eccesso nel non fare nulla nelle zone dove c’è un conflitto di valori. Questo potrebbe essere difficile. Penso che dovremo costruire in queste funzioni di valore. Se si vuole avere un robot domestico in casa, deve condividere un buon spaccato dei valori umani. Altrimenti farà cose piuttosto stupide, come mettere il gatto nel forno per la cena perché non c’è cibo nel frigorifero e i bambini sono affamati. La vita reale è piena di questi compromessi. Se la macchina fa questi compromessi in modo da rivelare che semplicemente non ha capito – perché manca solo qualche pezzo di ciò che è ovvio per gli esseri umani – allora non vorrai quella cosa nella tua casa.
Non vedo alcun reale modo per aggirare il fatto che ci sarà, in un certo senso, un settore di valori. E penso anche ci sia un enorme incentivo economico per farlo bene. Ci vuole solo una o due cose come un robot domestico che mette il gatto nel forno per la cena per fare in modo che le persone perdano la fiducia e non li comprino.
Poi c’è un’altra questione. Se facciamo le cose così bene che alcuni sistemi intelligenti si comportano bene, quando si fa una transizione verso sistemi sempre più intelligenti, vuol dire che si devono ottenere funzioni di valore sempre migliori che puliscano le ultime cose, o continueranno a comportarsi bene? Non conosco ancora la risposta.
Hai sostenuto che dobbiamo essere in grado di verificare matematicamente il comportamento dell’IA in tutte le circostanze possibili. Come funzionerebbe ciò?
Una delle difficoltà che le persone indicano è che un sistema può arbitrariamente produrre una nuova versione di sé che ha diversi obiettivi. Questo è uno degli scenari di cui gli scrittori di fantascienza parlano sempre. In qualche modo, la macchina spontaneamente ha questo obiettivo di sconfiggere la razza umana. Quindi la domanda è: si potrebbe dimostrare che i sistemi non possono mai, non importa quanto intelligenti siano, sovrascrivere i loro obiettivi originali come stabilito dagli umani?
Sarebbe relativamente facile dimostrare che il sistema DQN, com’è scritto, non avrebbe mai potuto cambiare il suo obiettivo di ottimizzare tale punteggio. Ora, c’è un attacco informatico di cui la gente parla chiamato “wire-heading” dove si potrebbe effettivamente andare nella console del gioco Atari e cambiare fisicamente la cosa che produce il punteggio sullo schermo. Al momento non è fattibile per DQN, perché il suo campo d’azione è del tutto all’interno del gioco stesso; non ha un braccio da robot. Ma questo è un problema serio se la macchina ha un raggio d’azione nel mondo reale. Quindi, si potrebbe dimostrare che il sistema è progettato in modo tale che non potrà mai cambiare il meccanismo con cui il punteggio si presenta, anche se è nel suo campo di azione? Questa è una prova più difficile.
Ci sono dei progressi in questa direzione che pensi potranno avere successo?
C’è un settore emergente chiamato “sistemi informatici-fisici” [cyber-physical systems] sui sistemi che agganciano i computer al mondo reale. Con un sistema cyber-fisico, hai un po’ di bit che rappresentano un programma di controllo del traffico aereo. Poi hai alcuni aerei reali, e ciò che interessa è che nessun aereo si scontri. Stai cercando di dimostrare un teorema circa la combinazione dei bit con il mondo fisico. Ciò che si dovrebbe fare è scrivere una descrizione matematica molto conservatrice del mondo – gli aerei possono accelerare entro tale copertura – e i tuoi teoremi sarebbero ancora veri nel mondo reale. A patto che il mondo reale sia da qualche parte dentro la gamma dei comportamenti.
Eppure hai sottolineato che potrebbe non essere matematicamente possibile verificare formalmente i sistemi di intelligenza artificiale.
C’è un problema generale di “indecidibilità” in un sacco di domande che potete fare su programmi informatici. Alan Turing ha dimostrato che nessun programma per computer è in grado di decidere se qualsiasi altro programma possibile potrà eventualmente terminare e produrre una risposta o di rimanere bloccato in un ciclo infinito. Quindi, se si inizia con un programma, ma che potrebbe riscrivere se stesso per essere un qualsiasi altro programma, allora hai un problema. Perché non è possibile dimostrare che tutti i possibili altri programmi potrebbero soddisfare alcune proprietà. Quindi la domanda sarebbe: è necessario preoccuparsi dell’indecidibilità per i sistemi di intelligenza artificiale che si riscrivono? Essi si riscriveranno su un nuovo programma basato sul programma esistente più l’esperienza che hanno nel mondo. Qual è la possibile portata di effetto di interazione con il mondo reale su come il programma successivo viene progettato? Ecco dove non abbiamo ancora molta conoscenza.
Da questa intervista si evince molto chiaramente la posizione di Stuart Russell nei confronti dell’intelligenza artificiale. Abbiamo ancora tanto da capire e su cui lavorare, per questo motivo non possiamo avere alcuna certezza.
È ancora più evidente la presenza di due filoni di pensiero. C’è chi è più ottimista, come Frank Tipler e Kevin Kelly, e chi sostiene che bisogna essere molto cauti, come Nick Bostrom, Paul Saffo, Elon Musk e altri esperti. Non si tratta di capire chi ha ragione e chi no. Da entrambe le parti vengono sostenute tesi valide e interessanti.
E forse la presenza di questi due poli quasi opposti è un bene. Perché rilevare sia i punti forti sia i punti deboli è la procedura ideale per innescare un progresso vantaggioso. Solo con la costruzione di un buon dialogo, caratterizzato dal continuo confronto tra idee diverse, può portare la giusta innovazione.
Questo articolo è tradotto in modo talmente cattivo da essere in molti punti incomprensibile o fuorviante. Tanto per fare un esempio: secondo voi che vuol dire "Ma fino a quando la macchina ha il diritto di base"? (*) Se qualcuno è interessato vada a cercare la versione inglese su Wired, o, alla peggio, aspetti che esca, fra un paio di mesi, un articolo di Russell su questi temi su "Le Scienze" che sto traducendo in questo momento.
C'è poco da fare: chi si affida ai traduttori automatici continua a prendere enormi cantonate. Magari fra qualche anno cambierà, ma per adesso ci vogliono ancora i traduttori professionisti.
Alfredo Tutino
(*) anche senza vedere l'originale in inglese, si può dire che il senso dev'essere più o meno "Ma finché la macchina possiede la nozione di diritto elementare"
Salve Alfredo, mi soffermo solo un attimo sulla questione "diritto di base" perché è quella che ha menzionato. Ho adottato "di base" come sinonimo di "basilare" e quindi anche "elementare". È davvero una traduzione cattiva?
Sarei felice se mi segnalasse anche gli altri errori per capire dove ho sbagliato. Non mi affido e non mi affiderò mai solo ed esclusivamente ai traduttori automatici, soprattutto per interventi come questo dove ci sono espressioni specifiche sulla matematica e sull'ingegneria.
In questo blog, a volte, riporto le traduzioni di alcune interviste perché ci sono persone interessate a questi temi che conoscono pochissimo l'inglese o che non hanno voglia di leggere in inglese. Lo faccio per passione, con serietà, ci perdo delle ore, da solo. Purtroppo, non posso rivolgermi a traduttori professionisti. Faccio quello che posso senza mai essere superficiale.
Aspetterò con piacere l'uscita dell'articolo su "Le Scienze": se vorrà segnalarmelo una volta pubblicato, anche in privato, gliene sarei molto grato.
Purtroppo, rivedere un testo tradotto è un vero e proprio lavoro, per cui mi faccio pagare; per di più, rivederlo senza l'originale inglese è un'acrobazia veramente rischiosa. Comunque, nella frase che segnalavo, il problema non è "di base" o "elementari" (si potrebbe anche dire "fondamentali", anzi); il problema è che leggendo "(la macchina) ha il diritto" viene da pensare a un diritto soggettivo della macchina (la macchina ha il diritto di fare qualche cosa), mentre qui (giudico dal contesto) l'idea è che la macchina ha ormai acquisito certe idee di base su quali sono i diritti degli esseri umani e quindi può sbagliare su elementi secondari ma non violerà i diritti fondamentali.
Per fare qualche altro esempio, restando alla risposta alla prima domanda: non le pare che "i nostri valori si rivelano nel nostro comportamento" sia meglio di "sono rivelati (da chi?) nel nostro comportamento"? E che " 'arrivare' alla maggior parte di essi" sia meglio di " 'ottenere' la maggior parte di essi"?
Ancora, all'inizio della risposta successiva, al posto di "Una macchina dove si procura….?" non funzione meglio "Dove una macchina si procura…? (O almeno. "Una macchina, dove di procura…?" – è solo una virgola, ma facilita di molto lettura e comprensione).
In generale, un buon traduttore è tale non perché sa l'inglese molto meglio di lei ma perché sa scrivere in italiano. E il miglior consiglio che io possa darle è di rileggere quello che scrive, con intenti e sforzi che non posso non apprezzare, dopo qualche ora (o meglio ancora qualche giorno) e domandarsi se ci sono dei punti in cui una persona digiuna dell'argomento specifico rischia di capire fischi per fiaschi o di restare confusa – come nell'esempio iniziale, dove un'espressione come "avere il diritto" è talmente comune da condizionare con forza l'interpretazione della frase. Ancor più utile sarebbe farlo leggere a una terza persona e farle segnare i punti dove non capisce o fa fatica, e poi riflettere se si tratta solo di mancanza di conoscenze o se si può aiutarla di più lavorando sul testo.
Mi auguro di esserle stato utile – sia chiaro che le mie critiche, comunque, non sono rivolte a lei e al suo blog ma solo a questo specifico intervento.
Il pezzo che su cui sto lavorando dovrebbe uscire su Le Scienze, penso, a giugno o a luglio, insieme ad altri pezzi sull'AI, ma non posso essere più preciso – entro la settimana prossima lo invierò alla redazione, e da quel momento in poi non ne saprò più nulla fino a che non lo vedrò sulla rivista. Comunque, a quel punto cercherò di ricordarmi di segnalarglielo…
Stia bene
Alfredo
Ora capisco a cosa si riferiva per quanto riguarda la questione del "diritto" e ammetto di aver tradotto male. Correggerò appena posso. Faccio sempre una rilettura dei post, ma quella volta dovevo essere particolarmente distratto o non mi ero preso il tempo necessario. Un errore che, grazie alle sue indicazioni, spero non ripeterò più.
Accetto con piacere critiche come queste, si figuri: per me è un'opportunità per crescere e fare meglio. Sono sincero: leggendo la prima riga del suo primo commento avevo avvertito un pizzico di aggressività. Ma poi mi sono ricreduto.
Se per qualsiasi motivo volesse rileggere l'intervista originale, trova il link di Wired alla fine del post: cito sempre la fonte proprio per permettere ai visitatori di risalire al testo originale.
Se passerà di nuovo di qui, spero troverà altri post interessanti e magari traduzioni di migliore qualità. Grazie di nuovo, la saluto.