Lo studioso ed esperto di cultura digitale Kevin Kelly ha voluto condividere il suo punto di vista su una questione che divide diversi scienziati: il progresso dell’intelligenza artificiale (IA), ad un certo punto, diventerà pericoloso per l’umanità? A differenza di coloro che hanno firmato le lettere aperte sui rischi dell’intelligenza artificiale (qui la prima e qui la seconda), Kevin Kelly sostiene che non dovremo temere l’arrivo di una super intelligenza artificiale. Ce lo ha spiegato attraverso 4 punti che ritiene fondamentali. Vediamoli.
4 motivi per non temere la super intelligenza artificiale
Kevin Kelly, prima di spiegare le sue motivazioni, afferma che “è saggio pensare alle implicazioni della nuova tecnologia” e che comprende le buone intenzioni di studiosi come Jaron Lanier, i quali hanno avvertito sugli eventuali rischi dello sviluppo dell’IA. Ma Kelly sostiene che gli approcci di questi esperti si basano troppo sulla paura e non sui dati che invece possediamo. Ecco allora i 4 motivi per non temere la super intelligenza artificiale, secondo Kevin Kelly.
1. L’IA non sta migliorando esponenzialmente
“Nella ricerca del mio recente articolo sui benefici dell’IA commerciale, mi sono sorpreso di scoprire che l’IA non stava seguendo la Legge di Moore. Ho specificamente chiesto ai ricercatori di IA se la prestazione dell’IA stesse crescendo esponenzialmente. Potevano indicare una crescita esponenziale negli input dell’IA. Il numero dei processori, i cicli, i set di dati di apprendimento, eccetera stavano in molti casi crescendo esponenzialmente. Ma non c’era alcuna crescita esponenziale nell’intelligenza di output perché, in parte, non c’è alcuna metrica per l’intelligenza.
Abbiamo riferimenti per particolari tipi di apprendimento e di acutezza, come il riconoscimento del linguaggio, e questi stanno convergendo su un asintoto di 0 errori. Ma non abbiamo un righello per misurare il continuo dell’intelligenza. Non abbiamo nemmeno una definizione operativa di intelligenza. Semplicemente non c’è alcuna prova che mostri una metrica di intelligenza che sta raddoppiando ogni X.
Il fatto che l’IA stia migliorando costantemente, ma non esponenzialmente, è importante perché ci dà tempo (decenni) per il seguito.”
2. Riprogrammeremo le IA se non siamo soddisfatti della loro prestazione
“Nonostante non stia seguendo la Legge di Moore, l’IA sta diventando più utile in modo più veloce. Quindi l’utilità dell’IA potrebbe crescere esponenzialmente, se potessimo misurarla. Ma nel secolo scorso l’utilità dell’elettricità esplose non appena il maggior uso innescò l’utilizzo di più dispositivi, nonostante la qualità dell’elettricità non crescesse esponenzialmente.
Appena l’utilità dell’IA cresce molto velocemente, questa porta la paura dello scompiglio. Recentemente, questa paura è stata alimentata da persone che hanno familiarità con la tecnologia. La cosa principale di cui sembrano essere spaventati è che l’IA si sta prendendo carico delle decisioni che una volta venivano prese dagli umani.
Diagnosticare ai raggi-x, guidare le auto, dirigere i missili. Queste possono essere decisioni di vita e di morte. Per quanto possa dire dalla poca documentazione di quelli che hanno paura, la loro grande paura – la minaccia dell’estinzione – è che l’IA si prenderà carico sempre più delle decisioni e poi decideranno di non volere gli umani, o in qualche modo le IA faranno deragliare la civiltà.
Questo è un problema di ingegneria. Per quanto possa dire, le IA non hanno ancora preso una decisione di cui i loro creatori umani si sono pentiti. Se lo faranno (o quando lo faranno), allora cambieremo i loro algoritmi. Se le IA prenderanno delle decisioni che la nostra società, le nostre leggi, il nostro consenso morale, o il mercato dei consumatori non approvano, allora dovremmo, e dovremo, modificare i principi che governano le IA, o crearne di migliori che prendano decisioni che approviamo.
Certamente le macchine faranno degli ‘errori’, anche grandi errori – ma li fanno anche gli umani. Continuiamo a correggerli. Ci saranno tonnellate di controlli sulle azioni delle IA, quindi il mondo sta osservando. Tuttavia, non abbiamo consenso universale su ciò che troviamo appropriato, quindi sarà qui che troveremo gran parte del contrasto su di esse. Quando noi decidiamo, la nostra IA deciderà.”
3. La loro riprogrammazione, autonoma, è il meno probabile degli scenari
“La grande paura pompata da qualcuno, però, è che l’IA che guadagnerà la nostra fiducia nel prendere decisioni, in qualche modo ci impediranno di alterare le loro decisioni. La paura è che ci bloccheranno. Che diventeranno sleali. È molto difficile immaginare come succederà. Sembra molto improbabile che gli ingegneri umani programmino un’IA che non possa essere modificata in alcun modo. È possibile, ma molto impraticabile. Questo intralcio non è d’aiuto nemmeno a un pessimo attore.
Il solito scenario spaventoso è che un’IA riprogrammerà se stessa per essere inalterabile dagli estranei. È immaginabile come una mossa egoistica da parte dell’IA, ma non è chiaro come un programma inalterabile possa essere un vantaggio per un’IA. Potrebbe essere anche un incredibile risultato per una banda di ingegneri umani creare un sistema che non possa essere violato. Tuttavia, potrebbe essere possibile in un tempo distante, ma è solo una delle molte possibilità. Un’IA potrebbe altrettanto decidere da sola di lasciarsi modificare da chiunque, in modalità open source. O potrebbe decidere di voler unirsi con la forza di volontà umana. Perché no?
Nell’unico esempio dove abbiamo un’intelligenza consapevole introspettiva (ominidi), abbiamo scoperto che l’evoluzione sembra aver progettato le nostre menti per non essere facilmente auto-riprogrammabili. Eccezion fatta per alcuni yogi, non si può entrare dentro e cambiare il codice mentale facilmente. Sembra esserci uno svantaggio evolutivo nell’essere in grado di giocherellare facilmente con il tuo sistema operativo di base, ed è possibile che le IA necessitino della stessa auto-protezione. Non lo sappiamo. Ma la possibilità che loro, da sole, decidano di bloccare i loro partner (e i dottori) è solo una delle tante possibilità, e non necessariamente la più probabile.
4. Più che una promozione della paura, questa è una grande opportunità
“Dal momento che le IA (a volte incorporate nei robot) assumeranno molti dei compiti che fanno gli umani, abbiamo molto da insegnare loro. Perché senza questo insegnamento e questa guida, potrebbero essere spaventose, anche con livelli minimi di intelligenza. Ma la motivazione basata sulla paura è improduttiva. Quando le persone agiscono per paura fanno cose stupide. Un modo molto migliore per lanciare la necessità di insegnare alle IA l’etica, la morale, l’uguaglianza, il senso comune, il giudizio e la saggezza è vederla come un’opportunità.
L’IA ci dà l’opportunità di elevare e affinare la nostra etica e la nostra morale e la nostra ambizione. Crediamo con compiacimento che gli umani – tutti gli umani- hanno un comportamento superiore rispetto alle macchine, ma l’etica umana è superficiale, sfuggente, inconsistente e spesso sospetta. Quando guidiamo per strada, non abbiamo una soluzione migliore al dilemma di chi colpire (un bambino o un gruppo di adulti) rispetto a un veicolo automatizzato – anche se pensiamo di averla. Se miriamo per sparare qualcuno in guerra, i nostri criteri sono inconsistenti e vaghi.
La chiara programmazione etica che le IA hanno bisogno di seguire ci costringerà a mettercela tutta e ad essere più chiari sul perché crediamo ciò che pensiamo di credere. In quali condizioni vogliamo essere relativisti? In quali contesti specifici vogliamo che la legge sia contestuale? La moralità umana è un pasticcio di enigmi che potrebbero trarre beneficio dallo scrutinio, dalla minor superstizione e da un maggiore pensiero basato sulle prove. Scopriremo rapidamente che provare ad addestrare le IA ad essere più umanistiche ci sfiderà ad essere più umanistici. Nel modo in cui i bambini possono migliorare i loro genitori, la sfida di educare le IA è un’opportunità – non un orrore. Dovremmo accoglierla. Vorrei che l’accogliessero anche quelli con un forte seguito.”
Il mito dell’IA?
“Infine, non sono preoccupato della principale contrarietà di Jaron sulla deformazione semantica causata dall’IA perché culturalmente (piuttosto che tecnicamente) abbiamo definito IA ‘reale’ come quella intelligenza che non può produrre oggi con le macchine, quindi qualsiasi cosa che oggi produciamo con le macchine non può essere IA, e quindi IA nel suo senso più stretto arriverà sempre domani. Dal momento che domani starà sempre per arrivare, non importa ciò che fanno le macchine oggi, non ci concederemo la benedizione di chiamarla IA. La società chiama qualsiasi intelligenza proveniente dalle macchine apprendimento automatico [machine learning], o machine intelligence, o con qualche altro nome. In questo senso culturale, anche se tutti lo stanno usando per tutto il giorno tutti i giorni, l’IA rimarrà un mito.”
Kevin Kelly è stato molto chiaro nel descrivere il suo punto di vista. Non teme l’arrivo di una super intelligenza artificiale perché il suo progresso non è esponenziale. Quindi abbiamo tutto il tempo necessario per fare in modo che “fili tutto liscio”. Le IA cresceranno sempre più e le probabilità che acquisiranno la capacità di auto-programmarsi e di rendersi inaccessibili dall’esterno sono molto scarse. E secondo Kelly, sarebbe anche una capacità svantaggiosa dal punto di vista “evolutivo”.
Il quarto motivo per cui non dovremmo temere la super intelligenza artificiale è forse quello più importante. Dovremmo considerare questi progressi come un’opportunità per migliorare e migliorarci. Facciamo già molta fatica ad entrare nel significato specifico di concetti come etica, morale e giustizia. Concetti che, tra l’altro, variano da paese a paese. Ed è una fatica ancora più grande provare solo ad immaginare macchine che acquisiscono perfettamente tali nozioni.
Ciò non significa che è impossibile, come ha ricordato diverse volte lo stesso Kelly. Tuttavia, è molto complicato fare delle previsioni a riguardo. I progressi dell’intelligenza artificiale sono costanti: nel 2015 ci sono state innovazioni interessanti in questo settore e continueranno ad esserci. Di recente Kelly si è espresso su quello che è definito apprendimento sintetico non supervisionato: l’apprendimento può essere automatizzato.
Altrettanto interessanti sono gli interventi di coloro che con l’intelligenza artificiale ci hanno a che fare direttamente. Alcuni di loro respingono qualsiasi storia dai toni sensazionalistici. Tra questi vi è Yoshua Bengio, il quale sostiene che in realtà l’attuale IA è decisamente stupida. Così stupida che lui preferirebbe adottare l’espressione “stupidità artificiale”. Ci vorrà molto tempo prima che le macchine si avvicinino alla vera intelligenza di livello umano. E poi c’è Rodney Brooks, l’esperto di robotica che conferma un costante progresso dell’IA, ma non esplosivo.
Questi esperti ci dicono di rimanere con i piedi per terra. Ma allo stesso tempo sostengono che è importante volgere lo sguardo verso il futuro per capire le implicazioni delle tecnologie che stiamo costruendo. Diamo sfogo alla nostra immaginazione, dunque, ma non spacciamo per realistica qualsiasi previsione che non sia basata su dati certi. O che dipinga un futuro prossimo dove i robot e le IA avranno la meglio sull’umanità. Il futuro è incerto, possiamo solo impegnarci al massimo per evitare disastri.
I 4 motivi forniti da Kevin Kelly per non temere la super intelligenza artificiale ti convincono?