Kevin Kelly

Kevin Kelly: il mito della superintelligenza artificiale in 5 punti

Kevin Kelly, cofondatore di Wired ed esperto di cultura digitale, spesso affronta una domanda ben precisa nelle sue conferenze. È vero che quando le macchine diventeranno più intelligenti di noi rischieremo l’estinzione del genere umano?

Anche esperti del calibro di Elon Musk, Stephen Hawking e Bill Gates temono questa possibilità. Ciò alimenta le preoccupazioni di molte altre persone. Kelly sostiene che sono 5 le ipotesi che supportano un simile scenario, ma che non sono dimostrabili.

  1. L’intelligenza artificiale (IA) sta già diventando più brillante di noi a un ritmo esponenziale.
  2. Creeremo intelligenze artificiali con obiettivi generali, sul modello della nostra intelligenza.
  3. Possiamo costruire l’IA in silicio.
  4. L’intelligenza può essere ampliata senza limiti.
  5. Una volta che avremo la superintelligenza esplosiva, questa risolverà gran parte dei nostri problemi.

Kevin Kelly spiega perché queste 5 ipotesi non sono dimostrabili, almeno per ora.

 

1. L’intelligenza non ha una sola dimensione

Kevin Kelly ritiene che affermare che “le macchine diventeranno più intelligenti di noi” non ha molto senso. Questo perché l’intelligenza umana non possiede una singola dimensione. L’intelligenza è un aggregato complesso di diversi tipi di cognizione. Misurarla attraverso un modello lineare, secondo Kelly, è fuorviante.

Se l’intelligenza fosse un’unica dimensione, dovremmo organizzare le intelligenze di un pappagallo, un delfino, un cavallo, uno scoiattolo, un polipo, una balena blu, un gatto e un gorilla nel corretto ordine ascendente di una linea. Attualmente non abbiamo alcuna prova scientifica di tale linea.

L’intelligenza è un continuum combinatorio. Nodi multipli sono collegati ad altri nodi e creano strutture complesse di elevata diversità. Possediamo molteplici tipi di cognizione che comportano diversi tipi di pensiero: deduzione, induzione, ragionamento simbolico, intelligenza emotiva, logica spaziale, memoria a breve termine e a lungo termine. Anche il sistema nervoso del nostro intestino è una sorta di cervello con la propria modalità di cognizione. Non pensiamo solo con il nostro cervello, ma anche con il nostro corpo.

Questi set di cognizione variano tra individui e tra specie. Uno scoiattolo può ricordare l’esatta posizione di parecchie migliaia di ghiande per anni, un’attività che sfugge alle menti umane. Quindi, in questo tipo di cognizione, gli scoiattoli superano gli esseri umani.”

Lo stesso discorso vale per l’IA. “Le menti artificiali già superano gli esseri umani in determinate dimensioni. La tua calcolatrice è un genio in matematica; la memoria di Google è già al di là della nostra in una certa dimensione. Stiamo progettando IA per eccellere in modalità specifiche. Alcune di queste modalità sono cose che possiamo fare, ma loro possono farle meglio, come la probabilità o la matematica. Altre riguardano il tipo di pensiero che non possiamo elaborare affatto – memorizzare ogni singola parola su sei miliardi di pagine web, una caratteristica di qualsiasi motore di ricerca. In futuro, inventeremo nuovi modi di cognizione che non esistono in noi e che non esistono in nessuna parte della biologia.”

Kevin Kelly crede che il modello più utile di IA è quello di pensarla come intelligenza aliena. Ma al momento non possediamo delle buone metriche per misurare l’intelligenza.

 

2. Gli umani non hanno una mente basata su obiettivi generali

La seconda idea sbagliata è che noi umani possediamo un’intelligenza per scopi generali. Questa convinzione errata, secondo Kelly, sta spingendo i ricercatori alla creazione di un’intelligenza artificiale generale (AGI). L’intelligenza umana non assume una posizione centrale dove altre intelligenze specializzate le ruotano intorno. L’intelligenza umana, invece, è molto specifica e si è evoluta nel corso di milioni di anni.

Siccome riteniamo che le nostre menti umane siano di per sé generali, tendiamo a credere che la cognizione non segue il compromesso dell’ingegnere, che sarà possibile costruire un’intelligenza che massimizza tutte le modalità di pensiero. Ma non vedo alcuna prova di questo.”

Il compromesso dell’ingegnere: non possiamo ottimizzare ogni dimensione di pensiero. Abbiamo solo dei compromessi. Non possiamo creare un’unità multifunzionale generale che possa superare i compiti specializzati.

 

3. L’emulazione del pensiero umano sarà vincolata dai costi

Gli esperti più ottimisti credono che un giorno saremo in grado di riprodurre totalmente il pensiero umano in silicio. Parte di questa credenza si basa sul concetto di calcolo universale, conosciuto anche come ipotesi di Church-Turing (1950). Secono questa teoria, tutti i calcoli che soddisfano una determinata soglia sono equivalenti. Quindi esisterebbe un nucleo universale a tutti i calcoli, sia che si verifichino in una macchina sia che si verifichino in un cervello biologico. Si tratterebbe dello stesso processo logico.

Ciò significherebbe che dovremmo essere in grado di emulare qualsiasi processo computazionale in qualsiasi macchina che possa eseguire calcoli “universali”. I sostenitori della singolarità tecnologica credono che attraverso questo principio saremo in grado di progettare cervelli di silicio che pensino come gli umani, ma molto più intelligenti. Secondo Kelly, dovremmo essere scettici perché questa speranza si basa su un malinteso dell’ipotesi Church-Turing.

Il punto di partenza della teoria è: ‘Dati un nastro [memoria] e il tempo innfiniti, tutto il calcolo è equivalente’. Il problema è che in realtà nessun computer ha memoria o tempo infinito. Quando si opera nel mondo reale, il tempo reale fa una differenza enorme, spesso una differenza di vita o di morte. Sì, tutto il pensiero è equivalente se si ignora il tempo. Sì, si può emulare il pensiero umano in qualsiasi matrice si voglia se si ignorano il tempo o i vincoli della vita reale relativi all’archiviazione e alla memoria.

L’unico modo per riprodurre il pensiero umano è eseguire il calcolo su un tessuto molto simile a quello umano. Kevin Kelly prevede che la somiglianza tra pensiero umano e artificiale si otterrebbe se fosse possibile costruire cervelli artificiali con neuroni analoghi a quelli umani. Solo che i costi di queste operazioni sono enormi.

Più la riproduzione di tale tessuto sarà simile al tessuto cerebrale umano, più redditizio sarà creare un umano. Dopo tutto, creare un umano è qualcosa che possiamo fare in 9 mesi.”

 

4. Le dimensioni dell’intelligenza non sono infinite

Kevin Kelly torna poi sull’argomento della multidimensionalità dell’intelligenza. Secondo l’esperto, alla base della nozione di intelligenza sovrumana c’è la convinzione che l’intelligenza si posizioni su una scala infinita. Ma non esiste una dimensione fisica nell’universo che sia infinita. Quindi la domanda da porsi è: dov’è il limite dell’intelligenza?

Difficile rispondere. Tendiamo a pensare che il limite si trovi oltre le capacità umane. Ma potremmo essere noi stessi questo limite. Oppure potrebbe trovarsi leggermente oltre le nostre capacità. Di solito, però, pensiamo che l’intelligenza sia qualcosa che possa continuare ad espandersi all’infinito.

Kelly prova ad affrontare il problema da un’altra prospettiva: considerare la nostra intelligenza come una delle milioni possibili. Quindi, se ogni dimensione di cognizione e calcolo ha un limite ed esistono centinaia di dimensioni, allora esistono anche innumerevoli varietà di menti. Ognuna di esse non può essere infinita in alcuna dimensione. Quando incontriamo o progettiamo queste menti artificiali, ci rendiamo conto che alcune di esse possono superarci. Ad esempio, una mente simile alla nostra ma che risponde più velocemente; una che è lenta, ma che può archiviare un’elevata quantità di informazioni; oppure una mente specializzata nel fare previsioni accurate.

Inoltre, aggiunge Kelly, coloro che credono nello sviluppo della superintelligenza artificiale sostengono che l’inteligenza crescerà esponenzialmente. Ma non c’è alcuna prova che testimoni tale crescita e che indichi una metrica valida. Se non esistono adesso, perché dovremmo pensare che esisteranno in futuro?

L’unica cosa che si espande su una curva esponenziale sono gli input nell’IA, le risorse dedicate alla produzione dell’acutezza o dell’intelligenza. Ma la prestazione dell’output non si trova sulla crescita della legge di Moore. Le IA non raddoppiano la loro intelligenza ogni 3 anni, nemmeno ogni 10 anni.

Kelly ha chiesto il parere di diversi esperti su questo tema e nessuno di loro ha confermato la crescita esponenziale. Anche Ray Kurzweil ha risposto alla sua domanda dicendogli che l’IA non cresce in modo esplosivo, ma per livelli. Quello che invece sta crescendo esponenzialmente è il nostro sforzo per sviluppare IA sempre più efficienti.

 

5. La superintelligenza non risolverà gran parte dei nostri problemi

Molti sostenitori dell’esplosione di intelligenza affermano che di conseguenza ci sarà un’esplosione del progresso. Kevin Kelly respinge quest’ipotesi e pone gli esempi del cancro e del prolungamento della vita.

Nessuna intelligenza, non importa quanto eccellente, può capire come funziona il corpo umano semplicemente leggendo tutta la letteratura scientifica nota del mondo di oggi e poi contemplandola. […] È necessario molto più che pensare per muoversi tra il non sapere come funzionano le cose e il sapere come funzionano. Ci sono un mucchio di esperimenti nel mondo reale, ognuno dei quali produce tonnellate e tonnellate di dati contraddittori, che richiedono ulteriori esperimenti necessari per formare l’ipotesi di lavoro corretta. Pensare i dati potenziali non fornirà i dati corretti.

D’altra parte, non c’è dubbio che una super IA possa accelerare il processo scientifico. Possiamo fare simulazioni di atomi o di cellule e delle loro funzioni. Ma, sottolinea Kelly, due problemi limitano l’utilità delle simulazioni. Innanzitutto, le simulazioni dei modelli possono essere più veloci dei soggetti perché trascurano qualcosa. Questa è la natura di un modello o di una simulazione. Inoltre, i test e le verifiche di questi modelli devono avvenire nel tempo di calendario per adattarsi al tasso dei loro soggetti.

Per essere utili, le intelligenze artificiali devono essere incorporate nel mondo e questo mondo spesso determinerà il ritmo delle innovazioni. Senza condurre esperimenti, costruire prototipi, avere fallimenti e impegnarsi nella realtà, un’intelligenza può avere pensieri, ma non risultati. […] Certamente il tasso di scoperta sarà notevolmente accelerato dall’IA, in parte perché l’IA aliena porrà domande che nessun umano chiederebbe, ma anche un’intelligenza molto potente (rispetto a noi) non significa avere progressi immediati. I problemi hanno bisogno di molto più di una semplice intelligenza per essere risolti.”

Quindi non esistono prove nemmeno sul fatto che basta pensare all’intelligenza per creare nuovi livelli di intelligenza. Abbiamo molte prove, invece, sulla necessità di esperimenti, dati, errori e di altre attività che sono al di fuori dell’intelligenza per inventare nuovi menti artificiali performanti.

 

L’intelligenza è complicata

Kevin Kelly conclude dicendo che le sue 5 ipotesi sul mito della superintelligenza artificiale potrebbero rivelarsi sbagliate. Forse un giorno scopriremo una metrica adatta per misurare l’intelligenza. Il punto è che sappiamo ancora poco dell’intelligenza, tanto meno della coscienza.

Dunque, Kelly considera improbabile il raggiungimento della singolarità tecnologica. Ma allo stesso tempo è d’accordo con coloro che supportano cause come fa l’organizzazione OpenAI. Ovvero, sviluppare IA sicure e come trasferire in esse valori auto-replicanti che combacino con i nostri.

Anche se penso che un’IA sovrumana sia una remota minaccia esistenziale (e degna di considerazione), credo che la sua inaccettabilità (basata sulle prove che abbiamo finora) non dovrebbe essere la guida per la nostra scienza, le politiche e lo sviluppo. […] Allo stesso modo, le evidenze finora suggeriscono che le IA non saranno sovrumane, ma saranno molte centinaia di nuove specie di pensiero extra-umano […] Ci sarà invece una galassia di intelligenze finite, che lavorano in dimensioni sconosciute, che superano il nostro pensiero in molte di queste, che lavorano insieme a noi in tempo per risolvere i problemi esistenti e creare nuovi problemi.”

Il mito della superintelligenza artificiale continuerà a sopravvivere. Ma dobbiamo riconoscere che si tratta, al momento, di un’idea poco scientifica. “Se esaminiamo le prove che abbiamo finora in materia di intelligenza, artificiale e naturale, possiamo solo concludere che le nostre speculazioni su una mitica IA sovrumana sono proprio questo: miti.”

I miti, però, possono insegnarci tanto. D’altronde, le IA in questo pianeta sono già pervasive e continueranno a diffondersi, potenziarsi e diversificarsi.

“Nessuna invenzione pareggerà il suo potere nel cambiare il nostro mondo, e alla fine del secolo l’IA toccherà e ricostruirà tutto nella nostra vita. Tuttavia, il mito di un’IA sovrumana, in grado di darci super-abbondanza o distruggerci in una super-schiavitù (o entrambe), probabilmente sopravviverà – una possibilità troppo mitica da respingere.”

Il concetto di intelligenza è complesso, così complesso che è facile parlare di IA con superficialità. Kevin Kelly aveva persino introdotto una nuova espressione: cognificazione artificiale. Cognificare, rendere più astuto. In tale contesto, Kelly sostiene che bisognerebbe parlare di “smartness” e non di “intelligence”, ovvero “acutezza” anziché “intelligenza”. E ora riusciamo a comprenderne meglio i motivi.

Cosa dovremo aspettarci allora nei prossimi anni dai progressi nell’IA? Iscriviti alla newsletter per conoscere le novità e curiosità dell’evoluzione digitale.

Controcorrente Newsletter

Fonte: Backchannel
Foto: Flickr


Lascia un commento