Anche il giornalista italiano Luca De Biase ha risposto alla domanda dell’anno di EdgeCosa pensi delle macchine che pensano?“. Secondo De Biase, l’eventuale effetto negativo sulla vita delle persone non sarà prodotto dall’intelligenza artificiale, ma dalla “struttura incentivante che le dà forma e funzione“, e che “la forma assunta dall’intelligenza artificiale è data dalla narrazione prevalente che una civiltà si dà come prospettiva storica“. Qui di seguito ho riportato la traduzione del suo intervento.

Luca De Biase

 

“Non riguarda la specie umana: riguarda le civiltà”

Cosa dovrebbero realmente fare le macchine che pensano? Analizzare i dati, capire i sentimenti, generare nuove macchine, prendere decisioni senza l’intervento umano. Per pensare alle macchine che pensano, dovremmo essere in grado di partire dall’esperienza. Qui c’è un esempio.

Il lunedì 19 ottobre 1987, un’ondata di vendite nelle borse si originò ad Hong Kong, attraversò l’Europa e colpì New York, causando il calo del Dow Jones del 22%. Il Lunedì Nero è stato uno dei più grandi crolli nella storia dei mercati finanziari, e ci fu qualcosa di speciale in merito. Per la prima volta, secondo molti esperti, i computer furono incolpati del crollo finanziario. Gli algoritmi stavano decidendo quando e come comprare e vendere nella borsa. I computer avrebbero dovuto aiutare gli operatori di borsa a minimizzare i rischi, ma in realtà si stavano muovendo tutti verso la stessa direzione, incrementando i rischi. C’è stata molta discussione sul fermare gli scambi commerciali automatizzati, ma ciò non accadde.

Al contrario, dopo la crisi di Marzo delle dot-com nel 2000, le macchine sono state usate ancora e ancora di più per prendere decisioni sofisticate nel mercato finanziario. Le macchine ora calcolano tutti i tipi di correlazioni tra incredibili quantità di dati. Analizzano le emozioni che le persone esprimono su internet comprendendo il significato delle loro parole, riconoscono gli schemi e prevedono i comportamenti, sono autorizzate a scegliere autonomamente gli affari, creano nuove macchine – software chiamati “derivatives” – che nessun ragionevole essere umano potrebbe forse comprendere.

Un’intelligenza artificiale sta coordinando gli sforzi di una sorta di intelligenza collettiva, lavorando migliaia di volte più veloce dei cervelli umani, con molte conseguenze per la vita umana. I primi segnali dell’ultima crisi si sono verificati in America nell’agosto del 2007, e hanno avuto terribili conseguenze influendo sulle vite delle persone in Europa e altrove. Persone reali hanno immensamente sofferto per queste decisioni. Andrew Ross Sorkin nel suo libro “Too Big to Fail” mostra come anche i banchieri più potenti non avessero alcun potere nel bel mezzo della crisi. Nessun cervello umano è sembrato capace di controllare e cambiare il corso degli eventi per prevenire il crollo che sarebbe avvenuto.

Possiamo considerare questo esempio per imparare a come pensare delle macchine che pensano?

Queste macchine sono realmente molto più autonome nel comprendere il loro contesto e nel prendere decisioni. E stanno controllando ampie dimensioni della vita umana. Questo è l’inizio di una era post-umana? No: queste macchine sono molto umane. Queste sono create da designer, programmatori, matematici, alcuni economisti e alcuni manager. Ma sono solo un altro strumento, da utilizzare per il bene e per il male dagli esseri umani? No: in realtà queste persone non hanno altra scelta, creano queste macchine senza pensare alle conseguenze, stanno solo offrendo una narrazione. Queste macchine sono infatti modellate da una narrazione che è stata contestata da pochissime persone.

Secondo questa narrazione, il mercato è il modo migliore per allocare risorse, nessuna decisione politica può forse migliorare la situazione. E il rischio può essere controllato mentre i profitti possono crescere senza limiti e le banche dovrebbero essere autorizzate a fare qualsiasi cosa vogliano. Ci sono solo un obiettivo e una misura di successo: il profitto.

Le macchine non hanno inventato la crisi finanziaria, come il crollo della borsa del 1929 ci ricorda. Senza le macchine nessuno potrebbe avere a che fare con la complessità dei mercati finanziari moderni. Le migliori intelligenze artificiali sono quelle che sono state create grazie ai più grandi investimenti e dalle menti migliori. Non sono controllate da nessun individuo, non sono progettate da alcuna persona responsabile. Sono modellate dalla narrazione e rendono la narrazione più efficace. E questa particolare narrazione è molto intollerante.

Se conta solo il profitto, allora le esternalità non contano: le esternalità sociali, culturali e ambientali non sono un problema delle istituzioni finanziarie. Le intelligenze artificiali che sono formate da questa narrazione creeranno un contesto nel quale le persone non sentiranno alcuna responsabilità. Un rischio emergente: quelle macchine sono così potenti e si adattano così bene nella narrazione che riducono la probabilità di mettere in discussione il quadro, che ci rendono meno propensi a guardare le cose da un angolo diverso… cioè, fino alla prossima crisi.

Questo tipo di storia si applicherà molto facilmente a materie diverse. Medicina, e-commerce, politica, pubblicità, sicurezza nazionale e internazionale. Anche incontrando e condividendo i territori nei quali lo stesso genere di sistemi di intelligenza artificiale sta iniziando a lavorare. Questi sono modellati secondo una narrazione generalmente molto concentrata, tendono a ridurre la responsabilità umana e a trascurare le esternalità. Rinforzano la narrativa dominante. Cosa farà l’intelligenza artificiale medica? Sarà modellata da una narrazione che vuole salvare le vite o che vuole salvare i soldi?

Cosa impariamo da ciò? Impariamo che l’intelligenza artificiale è umana e non post-umana, e che gli umani possono rovinare loro stessi e il loro pianeti in molti modi diversi, l’intelligenza artificiale non sarà il modo più perverso.

Le macchine che pensano sono modellate dal modo in cui gli umani pensano e dal ciò che gli umani non pensano abbastanza. Tutte le narrazioni danno luce a qualcosa e dimenticano altre cose. Le macchine reagiscono e trovano risposte in un contesto, rinforzando la struttura. Ma chiedere domande fondamentali è ancora una funzione umana. E gli umani non si fermano mai a chiedere domande. Anche quando queste domande non sono coerenti con la narrazione dominante.

Le macchine che pensano sono probabilmente indispensabili in un mondo di complessità crescente. Ma ci sarà sempre una pluralità di narrazioni che daranno loro forma. Come negli ecosistemi naturali, una monocultura è una soluzione fragile ma efficiente, così anche negli ecosistemi culturali, una singola linea di pensiero genererà relazioni fragili ma efficienti tra gli umani e il loro ambiente, qualsiasi sia l’intelligenza artificiale che sono in grado di costruire. La diversità negli ecosistemi e la pluralità nelle dimensioni della storia umana sono le fonti di quelle diverse problematiche e domande che generano risultati più ricchi.

Pensare le macchine che pensano significa pensare la narrazione che le modella: e se nuove emergenti narrazioni arriveranno da un approccio ecologico e aperto, se saranno in grado di crescere in una rete neutrale, formeranno la prossima generazione di intelligenze artificiali. anche in un modo plurale e diverso, aiutando gli umani a capire le esternalità. L’intelligenza artificiale non ha intenzione di sfidare gli esseri umani come specie: sfiderà le loro civiltà.


Anche altri esperti hanno risposto alla domanda “Cosa pensi delle macchine che pensano?”:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.