Alla domanda “Cosa pensi delle macchine che pensano?” ha risposto anche Aubrey de Grey, biochimico inglese che si occupa principalmente dello studio di terapie per curare l’invecchiamento. Ma nel corso degli anni ha nutrito profondo interesse anche nei confronti dell’intelligenza artificiale (IA). De Grey sostiene che bisognerebbe evitare la creazione di macchine consapevoli. Ma, allo stesso tempo, crede che sia meglio iniziare a pensare ai diritti delle macchine pensanti, da subito.

 

“Quando un servo non è un servo?”

Se viene chiesto di classificare i problemi dell’umanità in base alla gravità, darei la medaglia d’argento alla necessità di spendere così tanto tempo a fare cose che non ci danno alcuna soddisfazione. Lavorare, in una sola parola. Ritengo che l’obiettivo finale dell’intelligenza artificiale è respingere questo fardello ai robot che hanno abbastanza senso comune per svolgere questi compiti con una minima supervisione.

Ma alcuni ricercatori dell’IA hanno aspirazioni del tutto più alte per le macchine del futuro. Loro prevedono che la funzionalità del computer supererà di gran lunga la nostra in ogni sfera di cognizione. Tali macchine non solo farebbero cose che le persone non vorrebbero. Potrebbero anche scoprire come fare cose che nessuno può ancora fare. Questo processo può, in linea di principio, ripetersi – più le macchine possono fare, più possono scoprire.

Cos’è che non piace di questo? Perché non lo vedo come un obiettivo di ricerca superiore rispetto alle macchine con senso comune (che chiamerò “serve/i”)?

In primo luogo, vi è la preoccupazione ben pubblicizzata che tali macchine possano impazzire. Soprattutto se la crescita del set di abilità di una macchina (il suo “auto-miglioramento“) non è iterativa ma ricorsiva. Ciò che vogliono dire i ricercatori con questo è che i miglioramenti potrebbero non essere solo al database delle cose che una macchina può fare, ma ai suoi algoritmi per decidere cosa fare.

È stato suggerito, in primo luogo, che questo ricorsivo auto-miglioramento potrebbe essere esponenziale (o superiore), creando funzionalità che non possiamo minimamente comprendere prima di poter fermare il processo. Per ora sembra grandioso, se non fosse che la traiettoria di miglioramento sarebbe fuori dal nostro controllo, cosicché queste macchine superintelligenti potrebbero gravitare intorno gli “obiettivi” (metriche con le quali decidono cosa fare). Molto lavoro è stato fatto sui modi per evitare questo “spostamento di obiettivo” e per creare un affidabile e permanente “amichevole” sistema di auto-miglioramento ricorsivo, ma con ben poco progresso.

La ragione per credere che l’auto-miglioramento ricorsivo non è l’obiettivo finale per la ricerca sull’IA non è in realtà il rischio di una IA ostile. Piuttosto, ho il sospetto abbastanza forte che l’auto-miglioramento ricorsivo è matematicamente impossibile. In analogia con il cosiddetto “problema della terminazione” riguardo al determinare se un programma termina, sospetto che ci sia ancora una misura di complessità da scoprire con la quale nessun programma può mai scrivere un altro programma (compresa una versione di se stesso) che è un miglioramento.

Il programma scritto può essere vincolato ad essere, in un senso precisamente quantificabile, più semplice del programma che fa la scrittura. È vero che i programmi possono attingere al mondo esterno per ottenere informazioni su come migliorare se stessi. Ma sostengo che (a) ciò che davvero offre è un auto-miglioramento iterativo lontano e meno spaventoso piuttosto che uno ricorsivo. E che (b) in ogni caso sarà intrinsecamente auto-limitante, in quanto una volta che queste macchine diventano intelligenti quanto l’umanità, loro non avranno nuove informazioni da imparare. Questo argomento non è nemmeno lontanamente abbastanza solido per dare vera rassicurazione, lo so. E piango il fatto che (per quanto ne sappia) non si stia lavorando davvero per cercare una tale misura di profondità o per dimostrare che nessuna può esistere – ma è un inizio.

Ma al contrario, sono assolutamente preoccupato dell’altra ragione per la quale aderisco alla creazione di servi come obiettivo naturale dell’IA. È che ogni macchina creativa – tecnologicamente, artisticamente, o altro – mina la distinzione tra uomo e macchina. L’umanità ha già un’imponente incertezza riguardo quali diritti hanno le varie specie non umane. Sin dai giudizi morali obiettivi costruiti su norme concordate, che a loro volta derivano dal controllo di cosa vorremmo per noi stessi, sembra impossibile anche dall’inizio formulare tali giudizi riguardanti entità che differiscono molto più da noi che da ciò che fanno gli animali gli uni agli altri.

Per cui dico che non dovremmo mettere noi stessi nella posizione di dover provare. Per esempio, si consideri il diritto di riprodurre nonostante il limite delle risorse. Le soluzioni di compromesso basate su incentivi economici sembrano funzionare adeguatamente. Ma come possiamo identificare tali compromessi per le “specie” con un potenziale riproduttivo praticamente illimitato?

Io sostengo che il possesso di senso comune non produce questi problemi. Definisco il buon senso, ai presenti fini, come la capacità di elaborare informazioni incomplete in modo da individuare un metodo ragionevolmente vicino-all’ottimale per raggiungere un obiettivo specifico, scelto da un parametrico set pre-specificato di metodi alternativi. Ciò esclude esplicitamente la possibilità di “pensare” – di cercare nuovi metodi, al di fuori del set pre-specificato, che potrebbero migliorare le prestazioni di qualsiasi cosa all’interno del set.

Quindi, di nuovo per l’illustrazione, se l’obiettivo è quello che idealmente dovrebbe essere raggiunto rapidamente, e può essere raggiunto più velocemente da molte macchine rispetto a una sola, la macchina non esplorerà la possibilità di costruire una prima copia di se stessa. A meno che l’opzione sia pre specificata come ammissibile, per quanto bene possa “sapere” che fare in questo modo sarebbe una buona idea. Poiché l’accettabilità è specificata dall’inclusione piuttosto che dall’esclusione, il rischio dello “spostamento di metodo” può (rivendico) essere eliminato in modo sicuro. Essenzialmente, è possibile impedire l’auto-miglioramento ricorsivo (se risulta possibile dopo tutto!) interamente.

La disponibilità di una vista aperta di modi ammissibili per raggiungere i propri obiettivi costituisce una buona definizione operativa di “consapevolezza” di tali obiettivi. La consapevolezza implica la capacità di riflettere sull’obiettivo e sulle proprie opzioni per la sua realizzazione, che equivale a valutare se ci sono opzioni che non erano state pensate.

Potrei concludere con un semplice “Quindi cerchiamo di non creare macchine consapevoli”. Ma ogni possibile tecnologia che qualcuno pensa sia auspicabile finirà per essere sviluppata, quindi non è così semplice. Quello che dico invece è, pensiamo fortemente ora ai diritti delle macchine pensanti, in modo che ben prima che l’auto-miglioramento ricorsivo arrivi, possiamo testare le nostre conclusioni nel mondo reale con macchine che sono solo leggermente consapevoli dei loro obiettivi. Se, come prevedo, in tal modo scopriamo che il nostro miglior sforzo nei confronti di etiche del genere fallisce completamente anche in quella fase iniziale, forse tale lavoro cesserà.


Anche altri esperti hanno risposto alla domanda “Cosa pensi delle macchine che pensano?”:

Immagine: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.