I volti di una ragazza e di un ragazzo che si guardano immersi in un mare di 0 e 1.

NIPS 2017: l’intelligenza artificiale per scopi sociali

Nei primi di dicembre 2017 circa 8000 ricercatori del settore di machine learning e intelligenza artificiale (IA) hanno partecipato alla conferenza Neural Information Processing Systems (NIPS).

In quest’occasione la Royal Society, il Foreign and Commonwealth Office Science e l’Innovation Network hanno riunito alcune figure di spicco per capire come i progressi nell’IA potrebbero essere sfruttati per il bene della società.

Sono emersi alcuni temi interessanti: vediamo quali.

 

Come useremo l’IA?

L’IA salverà il mondo o lo distruggerà? Prima di rispondere a questa domanda, che tra l’altro è formulata male, ci sono alcune questioni fondamentali da affrontare. Le domande a cui dobbiamo dare la precedenza sono: come, quando e perché le società faranno uso di questa tecnologia?

Non dobbiamo chiederci se questa tecnologia sia intrinsecamente produttiva o distruttiva, ma se la società sceglierà di usarla e come condividerne i benefici. Perché di passi in avanti in questo settore ne stiamo facendo e le applicazioni di IA potranno offrirci diversi strumenti utili in svariati settori.

Assistenza sanitaria: l’IA migliorerà gli strumenti diagnostici e consentirà nuovi trattamenti basati sulla medicina personalizzata.

Trasporti: il machine learning potrà supportare lo sviluppo di sistemi di guida autonomi, oltre a consentire una gestione intelligente del traffico e migliorare la sicurezza sulle strade.

Tanti altri strumenti di IA miglioreranno le tecniche per scoprire nuovi farmaci e la ricerca scientifica in generale. Nuove opportunità nasceranno anche nell’ambito dell’istruzione e nell’assistenza tramite tecnologie robotiche.

Queste novità sono accompagnate da altre importanti domande. Le persone, le comunità e le società come interagiranno con le tecnologie di IA? Come possiamo sostenere la ricerca in aree di interesse per la società? Possiamo creare sistemi inclusivi in grado di gestire le domande basate su pregiudizi sociali? E come possono fare i ricercatori per sviluppare l’IA in modo inclusivo?

 

Creare le condizioni di base

L’applicazione dell’IA per le sfide del bene comune richiede spesso l’accesso a dati complessi su persone e servizi pubblici. Molte amministrazioni pubbliche nazionali o locali e aziende detengono quantità significative di dati che potrebbero essere utili in applicazioni di IA per scopi sociali. Ma questi dati possono essere difficili da sfruttare per diversi motivi.

Innanzitutto per le barriere istituzionali, culturali, amministrative o finanziarie che complicano l’accesso ai dati e la loro protezione. Inoltre, questo tipo di dati sono difficili da adottare: potrebbero essere conservati in sistemi obsoleti, essere organizzati secondo standard diversi, non essere compatibili con altri set di dati o essere soggetti a diversi livelli di protezione.

Un’idea emersa durante il NIPS 2017 è consentire l’accesso ai dati attraverso nuovi quadri normativi e supportare la loro gestione sulla base di standard aperti. Si tratta di un tema già affrontato dalla Royal Society nella relazione di quest’anno sul machine learning. In un’altra relazione sulla governance dei dati, invece, la Royal Society ha proposto dei principi per sostenere la fiducia pubblica nella gestione e nell’uso dei dati.

Oltre a richiedere l’accesso ai dati, la ricerca in aree di interesse sociale spesso richiede team interdisciplinari che combinano competenze diverse. La creazione di questi gruppi può essere difficile, in particolare in un ambiente in cui strutture di finanziamento o la pressione per pubblicare determinati tipi di ricerca possono contribuire alla nascita di un meccanismo di incentivi che fornisce più problemi che soluzioni.

C’è bisogno dunque di un ambiente politico che

  • consenta l’accesso a dati adeguati,
  • che supporti lo sviluppo delle competenze sia nella comunità del machine learning sia nelle aree di applicazione
  • e che riconosca il ruolo della ricerca interdisciplinare nell’affrontare temi di importanza sociale.

 

Ricerche di interesse sociale

Queste sono le questioni relative al modo d’uso del machine learning e dell’IA affrontate al NIPS 2017. I ricercatori stanno esplorando l’aspetto etico dell’uso di queste tecnologie. Ci sono stati diversi interventi e workshop che hanno trattato questo argomento.

Ad esempio, c’è stato un tutorial sull’equità del machine learning dove sono stati mostrati alcuni strumenti che i ricercatori possono usare per esaminare i modi in cui le domande sulla disuguaglianza potrebbero influenzare il loro lavoro.

In un simposio sull’interpretabilità del machine learning sono stati descritti diversi modi in cui la ricerca può fornire approfondimenti sulla complessa operazione dei sistemi di apprendimento automatico.

Mentre in un talk si è parlato del problema dei pregiudizi umani trasmessi nelle IA e delle strategie per risolverlo.

La stessa Royal Society sta partecipando attivamente a questi tipi di ricerca di interesse sociale dove la privacy, l’interazione uomo-macchina, l’interpretabilità dei dati e l’equità sono pilastri fondamentali. Per approfondire consiglio di visitare la loro pagina sul machine learning dove puoi trovare tutte le loro pubblicazioni sul tema.

Stiamo iniziando davvero a preoccuparci dei problemi etici più concreti e più vicini a noi che riguardano l’IA? Le conferenze come quelle del NIPS suggeriscono di sì. Ma come ha dichiarato Kate Crawford, cofondatrice dell’AI Now Institute, c’è un’urgenza etica nell’intelligenza artificiale e bisogna agire e aggiornarsi nello stesso momento in cui sviluppiamo queste applicazioni. Altrimenti continueremo a ritrovarci problemi di interazione, gestione e controllo dei sistemi di IA ed a proporre soluzioni che poi risultano inefficaci.

Per ricevere aggiornamenti dal blog sull’evoluzione digitale iscriviti alla newsletter.

Controcorrente Newsletter

Fonte: Royal Society


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.