Il futurista Gerd Leonhard è tornato a parlare della partnership sull’IA (intelligenza artificiale) che si è costituita di recente. Aveva già scritto una lettera aperta descrivendo la sua opinione in merito. Ora la partnership ha dei nuovi membri, un consiglio d’amministrazione e la Apple si è unita al gruppo.

Considerate queste novità, Leonhard ha deciso di pubblicare una seconda lettera aperta alla partnership. La puoi leggere qui sotto.

 

La seconda lettera aperta di Gerd Leonhard alla partnership sull’IA

Cari consiglio di amministrazione e aziende associate alla “Partnership sull’IA a beneficio delle persone e della società“,

la “Partnership sull’IA a beneficio delle persone e della società” è un cambiamento positivo per la celebrazione dell’innovazione del settore della tecnologia e la “trasformazione digitale”. Ma la vostra iniziativa stimolerà anche una discussione seria sull’etica dell’era digitale e su quanto lontano dovremmo andare con questa imminente convergenza uomini/donne e macchine?

I dati sono già il nuovo petrolio, chiaramente, ma il progresso esplosivo nell’IA, l’apprendimento profondo e il cognitive computing di sicuro aumentaranno enormemente il potere di coloro che detengono tutti i dati nei loro cervelli “globali”, e in proporzioni letteralmente inimmaginabili. Ma a differenza dei giganti dell’era dei combustibili fossili, come BP o Exxon-Mobile, c’è poca supervisione su cosa esattamente voi e i vostri colleghi potrete e vorrete fare con questo potere, e quali regole dovrete seguire una volta che avete costruito quell’IA onnipotente – costituita da bot e macchine – e su chi stabilisce le regole, tanto per cominciare.

Questa collaborazione mostrerà una gestione lungimirante? Ciò significa che le vostre aziende sono finalmente pronte ad accettare la responsabilità per le conseguenze di queste invenzioni che cambiano l’umanità? Lotterete per un migliore mix di precauzione e pro-azione che darà la precedenza alla prosperità umana? Considererete di rinunciare ad alcuni seri profitti a causa di qualche nuovo progetto magico che potrebbe avere conseguenze troppo negative (anche se non volute)?

In un mondo non troppo lontano in cui le macchine avranno un QI di 50.000 e l’Internet delle cose comprenderà 500 miliardi di dispositivi, cosa succederà con quei contratti sociali, i valori e l’etica che sono alla base degli elementi essenziali umani come l’autodeterminazione, la privacy e il libero arbitrio? I significativi limiti umani come l’invecchiamento o addirittura la morte verranno presto messi in discussione mentre la tecnologia progredisce a ritmi elevatissimi?

Mi sembra chiaro che la questione non è più se la tecnologia può fare qualcosa, ma perché. Chi deciderà questo? Chi è il “controllo missione per l’umanità”?

Diversi spostamenti di paradigma stanno cambiando la società alla velocità della luce e le vostre organizzazioni sono nell’occhio del ciclone causato da quelli che chiamo i Megashifts: digitalizzazione, cognitivizzazione, automazione, disintermediazione e virtualizzazione, solo per citare i più importanti. Sono elementi rivoluzionari esponenziali e combinatori che trasformano più domini contemporaneamente e ci possono portare ad un futuro molto luminoso (immaginate sconfiggere il cancro od ottenere energia o acqua abbondanti). Ma procedere senza un quadro globale di etica digitale potrebbe anche creare un tipo speciale di inferno.

Attualmente l’etica digitale non se la passa meglio rispetto alla sostenibilità delle imprese (CSR), secondo il programma di Silicon Valley e delle Big Tech. Il paradigma predefinito, come dice Bert Brecht, è ancora “prima la cena, poi la morale”. Questo è chiaramente insostenibile.

Certo, l’etica è culturalmente relativa, ma certe cose universali sono evidenti da sé, come avere la possibilità di continuare ad esistere o la lotta per la felicità. E certo, il profitto e la crescita sono un elemento critico nella maggior parte delle civiltà, e le società come l’Impero Romano che hanno perso la loro base di profitto sono appassite rapidamente. Ma cosa succederebbe se la vostra prossima fase di evoluzione, non solo vi offrisse un codice etico digitale, ma ne richiedesse uno? La prossima grande narrazione aziendale potrebbe essere la tendenza principale per un comportamento digitale etico? Non aspettiamo le macchine intelligenti con un QI di 50.000 prima di raggruppare questi dilemmi etici.

Qui ci sono quattro punti essenziali che voglio presentare per la discussione:

1) Siamo al punto di svolta della curva esponenziale. Presto le cose diventeranno incredibilmente diverse a causa dell’IA e delle “macchine pensanti”. Questa è una grande opportunità per voi e per le vostre aziende per abbracciare un nuovo tipo di gestione per l’umanità, e un approccio più olistico alla prosperità umana basata sull’accettazione delle vostre nuove responsabilità centrate sull’IA sarebbe una novità. Una zona sfocata, senza dubbio, ma non è così che le cose cominciano solitamente?

2) La tecnologia non è il nostro scopo – è il nostro set di strumenti, il nostro metodo. La tecnologia non deve essere ciò che cerchiamo, ma il modo in cui cerchiamo. Gli esseri umani sono creatori di strumenti, non strumenti – e credo che dovremmo continuare in questo modo. Quindi, le vostre innovazioni nell’IA ci faranno rinunciare al nostro pensiero e alla nostra umanità – o serviranno davvero ad aumentare la prosperità umana? Come lo garantirete?

3) Abbiamo chiaramente bisogno di sfruttare la tecnologia, ma personalmente credo che non dovremmo diventarla. Cosa credete? Credete che l’umanità sia diretta verso una simbiosi totale con la tecnologia, cioè che presto diventeremo incapaci di esistere senza aumentare noi stessi? La convergenza uomini/donne-macchine è inevitabile? Qual è la vostra posizione in merito alla singolarità e al cosiddetto transumanesimo?

4) Ogni grande algoritmo ha anche bisogno di una corrispondente metrica umana, quelli che io chiamo androritmi, un fattore di equilibrio per la protezione e che ci rende unicamente umani. Forse la domanda non è più solo cosa può essere automatizzato, ma anche cosa non dovrebbe essere automatizzato o robotizzato.

La partnership per l’IA è un concetto molto promettente. Ora portiamo l’etica digitale da una zona grigia sfocata in una carta dei diritti globale.

Cordiali saluti, Gerd Leonhard

 

Alla ricerca di risposte

Ancora una volta, Gerd Leonhard ha voluto manifestare apprezzamento per la partenership, ma allo stesso tempo ha evidenziato il problema dell’etica digitale. Apple, Google, Facebook, Microsoft, IBM e Amazon sono solo alcune delle grandi aziende che sfruttano i nostri dati. Ma oltre al fatto che questi vengono organizzati per offrirci pubblicità mirate ed esperienze personalizzate, non se sappiamo granché.

Leonhard, dunque, chiede maggiore trasparenza. Abbiamo bisogno di più chiarezza per quanto riguarda le responsabilità delle aziende e del loro raggio d’azione. Abbiamo bisogno di capire che la tecnologia non è il fine, ma il mezzo con cui ottenere dei risultati, per evitare di diventare dei prodotti da mettere sul mercato. Abbiamo bisogno di un dialogo più aperto con queste aziende per capire con quali vantaggi, limiti e ostacoli avremo a che fare adottando i loro strumenti e servizi. Abbiamo bisogno di una corretta dieta digitale come alternativa all’obesità digitale e all’anoressia analogica.

La partnership per l’IA potrebbe essere allora un’opportunità per iniziare a discutere seriamente sulle prossime sfide. Il dibattito sull’etica nel settore dell’IA sta diffondendosi sempre più anche grazie ad iniziative come quella dell’IEEE. La discussione, però, dovrà coinvolgere anche chi non è esperto e quindi dovrà essere aperta a tutti coloro che desiderano saperne di più. Come ha detto Leonhard nella lettera, il concetto di etica cambia in base alle culture. Per questo motivo, redigere una carta dei diritti globale per l’etica digitale non sarà affatto facile. Ma se non iniziamo subito a rifletterci su e a lavorarci, allora diventerà sempre più complicato trovare delle soluzioni efficaci.

Fonte: futuristgerd
Foto: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.