Relazione della Camera dei comuni del Regno Unito sullo sviluppo della robotica e dell'intelligenza artificiale

Robotica e IA 2016-17: il report della Camera dei comuni

Negli ultimi anni le innovazioni nel campo della robotica e dell’intelligenza artificiale (IA) si stanno presentando a un ritmo più veloce rispetto a un decennio fa. Ciò inevitabilmente produce notevoli impatti sociali, legali ed etici.

Anche la Camera dei comuni del Regno Unito ha fatto una ricerca per evidenziare i problemi di questi settori da affrontare e superare. Problemi che riguardano la trasmissione dei pregiudizi umani nelle IA, la trasparenza, il lavoro e il controllo.

Per questo le autorità della Camera dei comuni suggeriscono di formare una Commissione sull’Intelligenza Artificiale che abbia il compito di individuare dei princìpi per lo sviluppo delle applicazioni robotiche e di IA, di fornire consulenza al governo e di promuovere il dialogo pubblico.

 

Focus della ricerca

L’inchiesta della Camera dei comuni ha esaminato la situazione della robotica e dell’IA nel Regno Unito da diversi punti di vista. Ha rilevato le opportunità più importanti e anche le potenziali conseguenze negative. Lo studio è partito nel marzo 2016 ed è incentrato sui seguenti aspetti.

  • Le implicazioni della robotica e dell’IA sul futuro del mercato del lavoro nel Regno Unito e la preparazione del governo per il cambiamento delle competenze e della formazione che queste richiederanno.
  • La portata delle opportunità sociali ed economiche forniti dagli emergenti sistemi autonomi e dalle tecnologie di IA e come queste possono procurare benefici al Regno Unito.
  • Come il finanziamento, la ricerca e l’innovazione possano aiutare il Regno Unito a mantenere una posizione primaria in questo settore.
  • I problemi sociali, legali ed etici sollevati dal progresso della robotica e dell’IA e come dovrebbero essere affrontati.

Vediamo, brevemente, per ognuno di questi punti cos’è emerso di significativo.

 

Implicazioni economiche e sociali

Il discorso della sostituzione di personale con le macchine prosegue da secoli. In questa inchiesta sono stati raccolti diversi dati e pareri a riguardo. Da un lato viene evidenziata la maggiore produttività scaturita dalla sempre più diffusa adozione di robot e sistemi di intelligenza artificiale. Dall’altro, viene sottolineata la possibilità di aumento della disoccupazione.

Tra i più ottimisti c’è DeepMind di Google, la quale sostiene che nuove aree di attività economiche nasceranno grazie al maggior uso dell’IA, ma che alcuni tipi di lavoro e competenze avranno sempre meno importanza.

Anche Deloitte si è dimostrata ottimista sull’impatto positivo delle robotica e dell’IA nel mondo del lavoro. “Nel Regno Unito nuovi lavori, e in effetti, nuove industrie sono stati creati con l’avanzamento della tecnologia e, guardando indietro nel corso dell’ultimo secolo e mezzo, l’occupazione nel Regno Unito è più che raddoppiata durante un periodo di profondo cambiamento tecnologico“.

Ma quanto può aiutarci un paragone col passato? Infatti, c’è chi dubita che questo progresso possa seguire lo stesso schema di quello delle rivoluzioni industriali del passato. La ricerca di Carl Benedikt Frey e Michael Osborne dell’Università di Oxford mostra che il 35% dei lavori nel Regno Unito potrebbe essere automatizzato entro i prossimi 10-20 anni. La Banca d’Inghilterra suggerisce inoltre che 15 milioni di posti di lavoro nel Regno Unito potrebbero essere a rischio nello stesso periodo.

Tuttavia, Angus Knowles-Cutler (Deloitte) sostiene che i calcoli di Frey ed Osborne sono stati fatti “puramente da un punto di vista tecnologico“. Ovvero, non hanno considerato la resistenza sociale e politica al cambiamento, la facilità o la difficoltà di realizzazione e il rapporto costi-benefici del lavoro umano contro gli investimenti in tecnologie.

Un altro punto affrontato nel report è quello dei tipi di lavoro che sono più a rischio di automazione. Frey ed Osborne sostengono che i lavori che richiedono maggiore creatività (musicista, architetto, artista, ecc.) saranno meno a rischio. Questo, però, potrebbe cambiare nel corso del tempo, quando e se svilupperemo algoritmi in grado di imitare l’attività cognitiva umana.

Deloitte, invece, nel 2016 sosteneva che i lavori più a rischio sono quelli che prevedono salari più bassi. “Il settore con il più alto numero di lavori con alto rischio di automazione era l’ingrosso e il commercio al dettaglio, con 2.168.000 posti di lavoro, il 59% dell’attuale forza lavoro, con un’alta probabilità di essere automatizzati nei prossimi 2 decenni. Seguito da quello del trasporto e immagazzinamento – 1.524.000 posti di lavoro, 74% della forza lavoro – e da quello della salute e dei servizi sociali – 1.351.000 posti di lavoro, il 28% della forza lavoro.

Questi cambiamenti possono influenzare le diseguaglianze economiche. Parte della soluzione potrebbe risiedere nell’apprendimento di nuove competenze e nell’adattare il sistema educativo.

Un robot umanoide della NASA

 

Problemi etici e legali

I robot e i sistemi di IA ci presentano anche questioni abbastanza complesse di tipo etico e legale. Tali questioni devono essere affrontate con criterio affinché si possano massimizzare i benefici e mitigare i rischi. Non è un discorso che riguarda solo il nostro futuro, ma anche il presente perché i robot e le IA fanno sempre più parte della nostra vita quotidiana.

Nel report della Camera dei comuni si evidenziano due processi importanti: verifica e convalida. Bisogna assicurare che queste tecnologie stiano funzionando come previsto e che non si verifichino comportamenti non desiderati, che siano intenzionali o meno.

Secondo l’Association for the Advancement of Artificial Intelligence, è fondamentale avere la possibilità di “provare, testare, misurare e convalidare l’affidabilità, la sicurezza e la conformità etica – sia logicamente sia statisticamente/probabilisticamente – di questi sistemi robotici e di intelligenza artificiale prima che vengano distribuiti.”

La trasparenza dell’attività decisionale è un altro problema che andrebbe approfondito. Fin quando si tratta di sistemi di IA in grado di batterci a Go o a poker, non ci sono pericoli. Non ci interessa conoscere con precisione qualche schema abbia adottato l’IA, se non per un interesse prettamente matematico. Ma quando avremo a che fare con sistemi automatici che prenderanno decisioni in ambito finanziario e medico, allora sarà estremamente importante conoscere i loro percorsi logici. La mancanza di trasparenza in casi come questi genererebbe sfiducia nelle applicazioni tecnologiche. Un paziente non si accontenterà delle conclusioni prodotte da una macchina, ma preferirà avere maggiori dettagli, anche da un medico.

Anche il professor Alan Winfield, del Bristol Robotics Laboratory, ha sottolineato l’importanza di poter ispezionare gli algoritmi. In questo modo, se un IA prendesse una decisione che poi si rivelerebbe “disastrosamente sbagliata“, si potrebbe investigare sulla logica che ha portato a quella decisione.

Un altro problema etico descritto nel report è quello dei pregiudizi nell’IA. Noi umani, chi più chi meno, abbiamo dei pregiudizi che possiamo trasmettere ai sistemi di IA durante il loro sviluppo. Questo problema sta ricevendo la giusta attenzione solo da poco. Forse perché i ricercatori si ritrovano davanti a un processo relativamente nuovo: un motivo in più per approfondire le ricerche e trovare soluzioni.

La privacy è forse una delle questioni più delicate. Il classico esempio è l’applicazione dell’IA in ambito sanitario. Milioni e milioni di dati raccolti, analizzati e classificati dai sistemi di IA. I benefici sono enormi, ma se i sistemi non sono sicuri, allora i rischi sono davvero concreti. A tal proposito, il dr Owen Cotton-Barratt del Future of Humanity Institute ha dichiarato: “Se può automatizzare i processi e aumentare la coerenza dei giudizi e ridurre il carico di lavoro dei medici, potrebbe migliorare i risultati nella salute. Nella misura in cui ci sono sfide, significa essenzialmente che c’è meno privacy dalla stessa quantità di dati condivisi, nel senso che le persone possono ottenere più informazioni da una quantità limitata di dati.”

Il suggerimento proposto nella relazione è quello di formare un “Council of Data Ethics“, ovvero un Consiglio sull’Etica dei Dati per affrontare le difficoltà connesse agli equilibri della privacy, all’anonimato e alla sicurezza.

C’è poi la questione della responsabilità che diventa davvero complessa quando si parla di veicoli autonomi e sistemi di armi autonomi. Se qualcosa va storto, di chi è la responsabilità?

Nessuno ha la risposta a questa domanda. Ma se ne sta discutendo, anche nel Regno Unito. Il dr Cotton-Barratt ha confermato la presenza di una “piccola ma crescente comunità di ricerca che sta esaminando queste domande“.

La responsabilità ci porta al problema della governance. Ovvero, chi si occuperà di individuare e stabilire le linee guida per lo sviluppo e l’applicazione di tecnologie robotiche e di IA? Chi si assicurerà che le aziende private e pubbliche rispettino le regole? Kate Crawford (Microsoft) sostiene: “Come tutte le tecnologie prima di essa, l’intelligenza artificiale rifletterà i valori dei suoi creatori. Quindi l’inclusività è importante – da chi la progetta a chi siede nei consigli di amministrazione e quali prospettive etiche sono incluse.”

Infine, ma non per questo meno importante, il dialogo pubblico. Come riportato nell’inchiesta, alcuni esperti ritengono fondamentale il ruolo del dialogo pubblico per costruire fiducia e accettazione. Per altri esperti si tratta anche di riconoscere e migliorare la comprensione delle preoccupazioni dei cittadini. Un piccolo numero di testimoni sostiene addirittura che il pubblico gioca un ruolo nell’orientare lo sviluppo dell’IA. Ecco perché anche le persone provenienti dal mondo delle industrie, delle ONG e il pubblico dovrebbero essere maggiormente coinvolte.

 

Ricerca, finanziamenti e innovazioni

Nel 2013 il governo del Regno Unito ha riconosciuto la “Robotica e i sistemi autonomi” (RAS) come una delle “Otto Grandi Tecnologie“. Queste 8 grandi tecnologie sono quelle con cui, secondo il governo, il Regno Unito riuscirà a conquistarsi una posizione da leader globale.

Al momento, però, il governo non possiede alcuna strategia per lo sviluppo delle competenze e per garantire importanti investimenti necessari per creare una futura crescita nei settori della robotica e dell’IA. Nella relazione della Camera dei Comuni viene proposta la creazione di un Consiglio Direttivo per il RAS con membri provenienti dal mondo accademico, industriale e governativo.

Tale Consiglio dovrebbe lavorare con il governo al fine di definire gli obiettivi e per fornire supporto finanziario.

 

Problemi comuni

Ho voluto descrivere questa relazione per un semplice motivo. Per quanto riguarda la robotica e l’IA, ci sono problemi che devono affrontare tutti i paesi, a prescindere dagli aspetti economici. Questi problemi hanno a che fare perlopiù con l’etica e la legalità.

Non si tratta solo di disoccupazione tecnologica o carenza di personale specializzato. Si tratta soprattutto di regolamenti. È difficile programmare sistemi di IA senza pregiudizi umani. È difficile farlo in modo che rispettino determinate regole. Ed è ancora più difficile allargare questo discorso dal punto di vista internazionale.

Le tecnologie digitali, in particolar modo quelle di IA, possono scavalcare i confini nazionali con facilità. Basti pensare a quelle app per smartphone e tablet che sfruttano dei chatbot. A quel punto è davvero difficile, forse impossibile, stabilire delle barriere legali che consentano il corretto funzionamento di queste tecnologie.

Per non parlare della questione della responsabilità. In una prospettiva globale, il problema della responsabilità è ancora più articolato. Abbiamo nazioni, governi, istituzioni, aziende e consumatori. Abbiamo culture e linguaggi diversi.

Con questa inchiesta, la Camera dei comuni ha sollevato un problema interno, un problema governativo. Ma allo stesso tempo ha riportato delle preoccupazioni di più ampio respiro e che riguardano la robotica e l’intelligenza artificiale in generale.

Credo sia importante riflettere su questi dati. Non importa il paese di provenienza. Perché la tendenza globale è quella di affidarci sempre più a robot e a sistemi di IA per le nostre attività quotidiane. Sembra quindi opportuno iniziare a stabilire delle linee generali internazionali, oltre che a sviluppare tecnologie che possano adattarsi ai diversi contesti.

Da un anno a questa parte stiamo osservando i primi tentativi concreti in questa direzione. Un esempio è il summit dell’IEEE del 2016. Un altro è l’Asilomar Conference dove di recente sono stati stabiliti 23 princìpi per un’intelligenza artificiale benefica.

Il percorso è lungo, ma questi dialoghi (che spero saranno sempre più accessibili anche al pubblico) ci permetteranno di costruire tecnologie che siano davvero in grado di procurare benefici alla società, senza generare devastanti diseguaglianze economiche e sociali.

Se ti interessano aggiornamenti sull’evoluzione digitali delle tecnologie dirompenti, iscriviti alla newsletter. Con la consapevolezza è più facile rendere il mondo un posto migliore.

Controcorrente Newsletter


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.