Diversi 1 e 0 formano una sorta di sfera immersa nello spazio

4 tipi di intelligenza artificiale per comprenderla meglio

Oggi l’intelligenza artificiale (IA) comprende i nostri comandi verbali, riconosce soggetti nelle immagini, guida veicoli ed è migliore di noi nei videogiochi. Ma cosa ci aspetterà in futuro, allora?

Il ricercatore Arend Hintze ha descritto come potremo sviluppare sistemi di IA sempre migliori. Secondo lui, dovremo innanzitutto fare molto di più che insegnare alle macchine ad apprendere. Dovremo superare i confini che definiscono i 4 tipi di intelligenza artificiale e che separano gli umani dalle macchine.

E allora vediamoli questi 4 tipi di intelligenza artificiale.

 

1. Macchine reattive

I sistemi più elementari di IA sono definiti reattivi. Non possono basarsi su “ricordi” e nemmeno su esperienze del passato per prendere decisioni. L’esempio più attinente è quello di Deep Blue, l’IA di IBM che negli anni ’90 ha sconfitto l’allora campione mondiale di scacchi Garry Kasparov.

Deep Blue può riconoscere la posizione degli scacchi, fare previsioni delle mosse dell’avversario e prendere la decisione ottimale. Ma non ha memoria: può sol analizzare il presente e scegliere la prossima mossa. Questo tipo di IA reagisce direttamente in base a ciò che vede.

Secondo l’esperto di robotica e IA Rodney Brooks, dovremmo costruire macchine solo di questo tipo. Perché non tutti sappiamo programmare mondi simulati accurati da far usare ai computer.

Le macchine di oggi non hanno una precisa rappresentazione del mondo. Al massimo hanno una visione molto specializzata che permette loro di svolgere solo determinati compiti.

Un sistema di IA simile a Deep Blue è AlphaGo di Google che ha sconfitto il campione mondiale Lee Sedol nel gioco di Go. Il metodo di analisi di AlphaGo è più sofisticato di quello di Deep Blue perché basato su una rete neurale che valuta gli sviluppi del gioco.

Questi metodi consentono davvero ai sistemi di IA di migliorare in alcuni giochi specifici, ma non possono essere applicati a situazioni diverse. Queste macchine, cioè, non possono fare altro rispetto a ciò per cui sono state programmate. Si comportano allo stesso modo ogni volta che si ritrovano in una situazione in cui possono agire.

Certo, sistemi di IA di questo tipo possono essere più affidabili. Ma sono pessimi, se non inutili, nelle interazioni con gli umani e con altri elementi di questo mondo.

 

2. Macchine con memoria limitata

Queste macchine possono basarsi sul passato. I veicoli autonomi possono in parte già farlo. Osservano e analizzano la velocità e la direzione delle altre automobili in strada. Queste osservazioni vengono aggiunte alle rappresentazioni del mondo preprogrammate dei veicoli autonomi: strisce pedonali, semafori, curve, incroci e così via.

Tutti questi dati, quelli preprogrammati e quelli raccolti su strada, vengono elaborati quando il veicolo autonomo deve svolgere un’azione. Quando, ad esempio, deve cambiare corsia, svoltare, frenare o evitare ostacoli. Ciò richiede l’identificazione di oggetti e il loro continuo monitoraggio nel tempo.

Ma queste informazioni sul passato sono transitorie. Non sono dati che vengono salvati in una sorta di archivio da cui l’IA può imparare. Non funziona come facciamo noi con la nostra memoria, la quale cerca di apprendere in base all’esperienza. Non abbiamo ancora raggiunto un simile livello di tecnologia.

Come facciamo allora a costruire macchine che creino rappresentazioni fedeli, che ricordino in base alle esperienze e che sappiano gestire nuove situazioni? Si tratta di un obiettivo molto difficile da raggiungere. Secondo Hintze, ispirato dall’evoluzione darwiniana, una soluzione potrebbe essere quella di lasciare che le macchine costruiscano le loro rappresentazioni.

 

3. La teoria della mente

Questo è il punto che segna il confine tra le macchine che costruiamo oggi e quelle che costruiremo domani. Le macchine del futuro non solo formeranno rappresentazioni sul mondo, ma anche su altri agenti ed entità che lo abitano. In psicologia l’espressione adottata è “teoria della mente”: comprendere che le persone, le creature viventi, possono avere dei pensieri e delle emozioni che influenzano il loro comportamento.

Questo è un aspetto importante perché riguarda come noi esseri umani formiamo le società che ci permettono di partecipare alle interazioni sociali. Senza comprendere le intenzioni, le emozioni e le motivazioni degli altri difficilmente si può lavorare insieme per raggiungere un determinato scopo. Anzi, in alcuni casi è addirittura impossibile.

Se un giorno avremo a che fare quotidianamente con le IA, queste dovranno capire i nostri sentimenti e le nostre aspettative. Non solo: dovranno anche adeguarsi alle situazioni e comportarsi di conseguenza. Ciò significa un allineamento del loro comportamento con i nostri diritti, i nostri valori e la nostra etica. Un traguardo apparentemente irraggiungibile se pensiamo ai mezzi che abbiamo oggi a disposizione. Ma sappiamo che il progresso in questo settore è costante e che gli scienziati stanno già lavorando su come programmare la morale dell’intelligenza artificiale.

Riusciremo mai a costruire macchine basate sulla teoria della mente? Difficile prevederlo. Eppure c’è ancora un altro livello di intelligenza artificiale che molti classificherebbero come fantascienza.

 

4. Macchine autocoscienti

Il passo finale dello sviluppo dell’IA è quello di costruire macchine in grado di formare rappresentazioni di se stesse. Ciò significa che dovremo prima capire cos’è e come funziona davvero la coscienza. Poi dovremo trovare un modo per di costruire macchine che ne possiedono una.

Possiamo considerare questo livello come un’evoluzione di quello precedente. Siamo però davvero lontani da questa fase di sviluppo. Secondo Hintze, dovremmo concentrarci più sulla comprensione della memoria, sull’apprendimento e sull’abilità di prendere decisioni in base alle esperienze passate.

Ciò ci consentirà innanzitutto di comprendere meglio l’intelligenza umana che per diversi aspetti è ancora un mistero. Forse sarà solo in quel momento che potremo pensare davvero alle fasi 3 e 4 dello sviluppo dell’intelligenza artificiale. Nel frattempo dobbiamo direzionare i nostri sforzi sul presente e risolvere i problemi inerenti all’affidabilità, la sicurezza e la precisione.

 

Il futuro misterioso dell’IA

Ok, se ora lo scetticismo ha fatto capolino nella tua testa posso capirlo. Ma come ho accennato prima, i progressi nell’IA sono costanti. Sono tanti piccoli passi che ogni volta ci portano a un risultato importante. Ed è davvero interessante assistere a quest’evoluzione digitale.

Ed è interessante sapere anche i diversi pensieri di ricercatori e scienziati a riguardo. Il professor Arend Heintze, per esempio, ha già un’idea diversa rispetto a quella più comune sullo sviluppo dell’IA. Di solito gli esperti fanno riferimento a 3 livelli di intelligenza artificiale:

  1. un’IA debole e limitata per svolgere compiti specifici;
  2. un’IA generale o forte che eguaglia l’intelligenza umana e infine
  3. un’IA superiore all’intelligenza umana, fenomeno noto come singolarità tecnologica.

Questo è solo un piccolo esempio di come possono esseri differenti le opinioni sul progresso dell’IA. Non è facile provare a guardare al futuro di questo settore. Uno dei più interessanti tentativi è stato fatto dalla Stanford University. I suoi ricercatori hanno provato a immaginare l’intelligenza artificiale del 2030.

Di sicuro sappiamo però che le IA devono essere sviluppate seguendo certe regole tecniche ed etiche per evitare problemi di sicurezza. Questa è una condizione indispensabile per un progresso che ci procuri benefici nel breve e lungo termine. Dobbiamo quindi ripensare e ridefinire la relazione uomo-macchina, un processo che forse ripeteremo diverse volte nel corso dei prossimi anni.

Fonte: The Conversation


2 Comments

Lascia un commento