Righe e righe di 0 e 1

23 princìpi per un’intelligenza artificiale benefica

Qualche anno fa, il cosmologo Stephen Hawking e il CEO di Tesla Elon Musk espressero le loro preoccupazioni sullo sviluppo dell’intelligenza artificiale (IA). Se creeremo delle macchine che raggiungeranno il livello umano di intelligenza, è probabile che queste a loro volta costruiranno macchine superintelligenti, come sostiene Nick Bostrom. Quindi, sarebbe meglio tenere sempre tutto sotto controllo.

Ma in che modo possiamo evitare che delle macchine superintelligenti ci procurino problemi? Negli ultimi tempi, gruppi e organizzazioni si riuniscono per discuterne. In un incontro organizzato in collaborazione col Future Of Life Institute, chiamato Asilomar Conference, sono stati delineati 23 princìpi per sviluppare un’IA benefica. Questi sono stati raggruppati in 3 categorie: problemi di ricerca, etica e valori, problemi a lungo termine.

Vediamo quali sono questi princìpi e come possono guidarci nello sviluppo di IA non pericolose per l’umanità.

 

Problemi di ricerca

L’IA fornisce già oggi strumenti utili in diversi settori. Secondo gli esperti riunitesi alla Alisomar Conference, seguendo i princìpi, l’IA ci sarà di grande aiuto nei decenni e nei secoli a venire. I princìpi appartenenti al primo gruppo riguardano i problemi di ricerca e sono i seguenti.

1) Obiettivo di ricerca – L’obiettivo della ricerca nell’IA non dovrebbe essere quello di creare un’intelligenza senza direttive, ma un’intelligenza benefica.

2) Finanziamento della ricerca – Gli investimenti nell’IA dovrebbero essere accompagnati dai finanziamenti per la ricerca volta a garantire il suo uso benefico. Dovrebbero essere approfondite questioni spinose nell’ambito dell’informatica, dell’economia, del diritto, dell’etica e degli studi sociali. Ad esempio:

  • Come possiamo rendere solidi i futuri sistemi di IA, in modo che facciano quello che vogliamo, senza malfunzionamenti o senza essere violati?
  • Come possiamo far crescere la nostra prosperità attraverso l’automazione mantenendo però le risorse e gli obiettivi delle persone?
  • Come possiamo aggiornare i nostri sistemi giuridici in modo che siano più equi ed efficaci, per tenere il passo con l’IA e per gestirne i relativi rischi?
  • Quali valori devono essere allineati con l’IA e quale status etico e legare essa dovrebbe avere?

3) Collegamento tra scienza e politica – Ci dovrebbe essere uno scambio costruttivo e salutare tra i ricercatori di intelligenza artificiale e i politici.

4) La cultura della ricerca – Una cultura della cooperazione, la fiducia e la trasparenza dovrebbero essere promossi tra i ricercatori e gli sviluppatori di IA.

5) Evitare la competizione – Le squadre che sviluppano sistemi di IA dovrebbero cooperare attivamente per evitare scorciatoie per gli standard di sicurezza.

 

Etica e valori

Qui ci sono i princìpi che raccolgono quelli che sono i problemi più delicati in ottica di sviluppo di macchine intelligenti. Come fare a costruire sistemi di IA che rispettino la morale e i valori delle varie culture esistenti?

6) Sicurezza – I sistemi di IA devono essere sicuri, protetti e controllabili per tutta la loro vita operativa.

7) Mancata trasparenza – Se un sistema di intelligenza artificiale provoca danni, dovrebbe essere possibile risalire al motivo.

8) Trasparenza giudiziaria – Qualsiasi coinvolgimento da parte di un sistema autonomo per le decisioni giuridiche dovrebbe fornire una spiegazione soddisfacente e verificabile da un’autorità umana competente.

9) Responsabilità – I progettisti e i costruttori di sistemi avanzati di IA sono parti interessate per le implicazioni morali del loro uso e abuso, con la responsabilità e l’opportunità di plasmare queste implicazioni.

10) Allineamento al valore – I sistemi di IA altamente autonomi dovrebbero essere progettati in modo che i loro obiettivi e comportamenti possano allinearsi con i valori umani per tutto il loro funzionamento.

11) Valori umani: i sistemi di IA devono essere progettati e gestiti in modo da essere compatibili con gli ideali di dignità umana, i diritti, le libertà e la diversità culturale.

12) Privacy personale – La gente dovrebbe avere il diritto di accedere, gestire e controllare i dati che genera, considerando il potere dei sistemi di IA di analizzare e usare i dati.

13) Libertà e privacy – L’applicazione di intelligenza artificiale sui dati personali non deve limitare irragionevolmente la libertà reale o percepita delle persone.

14) Beneficio condiviso – Le tecnologie di intelligenza artificiale dovrebbero procurare benefici e potenziare il maggior numero possibile di persone.

15) Prosperità condivisa – La prosperità economica creata dall’IA deve essere ampiamente condivisa a beneficio di tutta l’umanità.

16) Controllo umano – Gli umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di intelligenza artificiale per raggiungere gli obiettivi.

17) Non-sovversione – Il potere conferito dal controllo dei sistemi di IA altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili da cui dipende la salute della società.

18) Corsa agli armamenti dell’IA – Una corsa agli armamenti in armi letali autonome dovrebbe essere evitata.

 

Problemi a lungo termine

Affinché i sistemi di IA vengano sviluppati in modo corretto, occorre anche pensare alla loro applicazione a lungo termine. Così eviteremo di ritrovarci di fronte a problemi che potevano essere previsti e analizzati anni prima.

19) Attenzione alla capacità – Non essendoci alcun consenso, dovremmo evitare forti supposizioni riguardo i limiti superiori sulle future capacità dell’IA.

20) Importanza – L’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra. Dovrebbe essere pianificata e gestita con cura e risorse commisurate.

21) Rischi – I rischi associati ai sistemi di intelligenza artificiale, in particolare i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione commisurate al loto impatto previsto.

22) Auto-miglioramento ricorsivo – I sistemi di IA progettati per auto-migliorarsi ricorsivamente o per auto-replicarsi al fine di portare un rapido aumento della qualità o quantità devono essere soggetti a severe misure di sicurezza e di controllo.

23) Bene comune – La superintelligenza dovrebbe essere sviluppata solo al servizio di ideali etici ampiamente condivisi e per il beneficio di tutta l’umanità, invece di favorire uno Stato o un’organizzazione.

 

Il dialogo si espande

Questi 23 princìpi sono stati firmati da 1051 ricercatori nell’ambito dell’IA e della robotica, insieme ad altre 1907 personalità. Tra i firmatari ci sono anche Elon Musk, Stepehen Hawking, Demis Hassabis (Google), Yann LeCun (Facebook), Yoshua Bengio, Stuart Russell, Ray Kurzweil, Roman Yampolskiy e Ben Goertzel.

Durante la conferenza, agli esperti è stato chiesto anche se ritenevano possibile il raggiungimento della superintelligenza. Tutti hanno risposto di sì tranne Musk, che però sembrava stesse scherzando quando ha risposto di no. Quando è stato chiesto loro se la superintelligenza ci sarà davvero, alcuni hanno risposto di sì, Nick Bostrom ha detto “probabilmente“, mentre Musk ha risposto di nuovo con un “no” scherzoso. Più interessanti, però, sono state le risposte successive, quando è stato chiesto se a loro sarebbe piaciuto l’arrivo di una superintelligenza. C’è stato qualche “sì” insieme a qualche “è complicato”. Musk ha risposto che non lo sa, “dipende da quale tipo” di superintelligenza. Puoi vederlo proprio all’inizio del video qui sotto.

Negli ultimi mesi stiamo assistendo a una diffusione del dialogo sull’impatto dell’intelligenza artificiale sulla società. Gli aspetti etici e morali cominciano ad essere messi al centro dell’attenzione da ricercatori ed esperti. Perché, come per ogni tecnologia, l’IA può procurarci enormi benefici, ma allo stesso tempo potrebbe provocare danni di tipo economico e sociale. Tutto dipende dall’uso che ne facciamo e che ne faremo in futuro.

Stabilire delle linee guida per l’uso dell’IA può apparire come un’impresa impossibile. Di sicuro è una sfida difficile, ma con gli giusti sforzi potremo davvero costruire sistemi che ci procureranno benessere senza correre seri rischi. E il primo sforzo è quello di condividere idee, opinioni, dubbi di qualsiasi natura in merito al progresso dell’IA.

Poco tempo fa, anche l’IEEE ha organizzato un summit incentrato sull’etica nell’intelligenza artificiale. Nel frattempo, Microsoft, Apple, Facebook, IBM, Amazon e Google hanno costruito una partnership per discutere di questi temi delicati.

Insomma, qualcosa si sta muovendo. Bisognerà vedere se queste discussioni saranno seguite poi da un’applicazione pratica di questi princìpi. Sarà importante soprattutto dal punto di vista delle differenze degli aspetti etici e culturali dei paesi e della trasparenza dei processi. La strada è molto molto lunga.

Fonte: Future of Life Institute


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.