Lo scrittore di fantascienza Isaac Asimov propose 3 leggi della robotica affinché le macchine non potessero danneggiare gli esseri umani. Attraverso i racconti, queste leggi si evolvono per cercare di afferrare al meglio la complessità umana. Ad un certo punto, viene addirittura introdotta un’altra legge, la legge 0, che tenta di abbracciare anche il concetto di umanità.

Le leggi, comunque, non riescono a circoscrivere del tutto le azioni dei robot nelle storie. Tuttavia, quando si parla di futuro della robotica e dell’intelligenza artificiale (IA) è facile trovare riferimenti alle leggi di Asimov. Non perché oggi siano applicabili, ma perché potrebbero farci da guida nello sviluppo sicuro di macchine e sistemi di IA.

Di recente, la Royal Society e la British Academy hanno pubblicato un documento dove forniscono un suggerimento. Anziché 3 leggi della robotica, bisognerebbe puntare su un’unica legge: gli umani devono prosperare.

 

Un’unica legge della robotica

Le 3 leggi della robotica di Isaac Asimov sono le seguenti.

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Oggi queste leggi nella realtà non possono essere applicate perché non abbiamo ancora costruito macchine abbastanza intelligenti che possano comprenderle. Intanto gli esperti propongono diversi suggerimenti affinché il progresso continui senza recar danno agli umani.

Uno di questi suggerimenti deriva dalla Royal Society e alla British Academy. Perché seguire il modello delle 3 leggi della robotica quando ne basterebbe solo una? Ovvero: gli umani devono prosperare.

Questa legge, a sua volta, si baserebbe 4 principi fondamentali.

  1. Proteggere i diritti e gli interessi individuali e collettivi.
  2. Garantire che gli scambi riguardo la gestione e l’uso dei dati avvengano in modo trasparente, responsabile e inclusivo.
  3. Cercare buone pratiche e imparare dal successo e dal fallimento.
  4. Migliorare l’esistente amministrazione democratica.

Questi principi potranno fare da guida ed essere applicati nella forma di codici etici, tecnici, operativi o legislativi. Ma basteranno ad assicurare questa prosperità umana?

 

Per la prosperità umana

Cosa si intende per prosperità umana? Con questa espressione si vuole dare importanza al lato umano della missione. Si tratta di un principio cardine per ricordarci che la società non è al servizio dei dati, ma che i dati devono essere al servizio delle comunità umane.

Nel documento possiamo leggere che il concetto di prosperità umana “è deliberatamente ampio: sottolinea la natura del benessere umano, oltre a riconoscere l’importanza del contesto e del ruolo degli interessi e dei valori contesi“. La prosperità umana, quindi, ha diverse caratteristiche che possono guidarci soprattutto nella gestione dei dati.

  • La prosperità può essere applicata come un test per l’adozione e la gestione di tutti i dati,
    identificabili personalmente o meno. Anche i dati personali non identificabili sono molto importanti per la prosperità umana poiché sostengono la crescita economica e procurano diversi vantaggi in settori come quello della salute, delle infrastrutture e dell’ambiente.
  • La prosperità è multidimensionale, così come la gestione dei dati. La prosperità produce dei requisiti che si aggiungono alla soddisfazione della vita e a alla felicità per definire altri scopi umani e per valutare le capacità necessarie per raggiungerli.
  • La prosperità è dinamica e basata sul contesto. È impossibile pre-definire degli obiettivi statici per gli umani. Ma è possibile migliorare le misure rilevanti per particolari situazioni.

Nel report, dunque, si fa richiesta di un approccio del tutto nuovo. Un approccio basato sulla promozione della prosperità umana. Un obiettivo perseguibile attraverso l’osservazione di alcuni principi che tuteleranno diversi aspetti della nostra vita insieme alle macchine intelligenti.

Ma chi controllerà che questi principi verranno osservati da persone, organizzazioni e aziende? Nel report si fa anche richiesta della creazione di un “organismo di amministrazione” composto da esperti di diverse discipline. Questi esperti avranno il compito di redigere un quadro etico per lo sviluppo di tecnologie di IA e robotiche.

Non è la prima volta che si discute sulla creazione di un organo di questo tipo. Abbiamo già visto come l’IEEE abbia organizzato un summit in proposito e anche i 23 principi proposti durante l’ultima Asilomar Conference.

Con l’avvento dei veicoli autonomi, tra l’altro, la delicata questione diventa sempre più vicina al pubblico. Cosa succederà in una situazione in cui il veicolo autonomo dovrà scegliere tra la sicurezza degli altri veicoli e quella dei pedoni? In caso di incidente, di chi sarà la responsabilità? Del proprietario del veicolo, del produttore o di entrambi?

Questi problemi non riguardano solo le aziende tecnologiche, ma anche tutti noi.

 

Abbiamo bisogno di regole

Per questi motivi nel report viene evidenziata l’importanza della trasparenza dei sistemi intelligenti. Se qualcosa dovesse andare storto, dovremo essere tutti in grado di poter affrontare il problema. Oggi esistono dei regolamenti che riguardano la raccolta, la gestione e la condivisione dei dati, ma non bastano. Necessitano di revisioni e di consolidamento.

Ogni giorno forniamo alle aziende molti dati attraverso tutto quello che facciamo con i nostri dispositivi digitali. Dalla navigazione sul web all’uso delle app, siamo costantemente monitorati. Esistono sistemi che possono raggruppare questi dati e costruire un profilo che potenzialmente potrebbe essere adottato dalle compagnie di assicurazione per fissare premi. Oppure possono essere analizzati dai datori di lavoro per valutare l’idoneità per certi lavori.

Non c’è dubbio che questi sistemi possono offrire grandi vantaggi. Ma se sono privi di controllo, potremmo ritrovarci senza la possibilità di scegliere ciò che è meglio per noi. Senza un adeguato controllo, saranno le macchine a scegliere per noi e non sempre questa è la situazione più conveniente.

Secondo il professor Dame Ottoline Leyser, che co-presiede il gruppo consultivo sulla linea politica della Royal Society, la regolamentazione deve essere definita caso per caso. “Un algoritmo per prevedere quali libri si dovrebbe raccomandare su Amazon è una cosa molto diversa dall’utilizzare un algoritmo per diagnosticare la propria malattia in una situazione medica. Quindi, non è ragionevole regolare gli algoritmi nel loro insieme senza tenere conto di ciò per cui vengono usati.

Regolamentare gli algoritmi in base ai contesti e alle modalità d’uso potrebbe essere una buona strada. Ma sarà un lavoro arduo. Ecco perché vale la pena pensare sin da subito ai rischi che potrebbero comportare sistemi di IA sempre più sofisticati. Non conviene aspettare che un’IA raggiunga il livello umano di intelligenza prima di trovare delle soluzioni. Perché c’è molto lavoro da sbrigare e ridursi all’ultimo minuto non sarebbe una buona idea. Non perché rischieremmo un’apocalisse robotica, ma perché avremmo più possibilità di vedere i nostri diritti violati dall’azione delle macchine.

Ora è difficile stabilire se un’ipotetica unica legge della robotica basata sulla prosperità umana potrà davvero essere d’aiuto. Ma i principi su cui si basa di sicuro possono guidarci verso uno sviluppo corretto ed etico dei sistemi di IA. Il suggerimento inglese verrà accolto e condiviso da qualche altro paese?

Per seguire gli sviluppi dell’evoluzione digitale, iscriviti alla newsletter.

Controcorrente Newsletter

Fonte: BBC
Foto: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.