A che punto siamo con la robotica? Il professor Alois Knoll, esperto di robotica, coordinatore dell’European Clearing House for Open Robotics Development (Echord) e uno degli scienziati coinvolti nel progetto BRAIN, ha espresso la sua opinione in un’intervista consultabile su robohub. L’ho tradotta e riportata di seguito perché il suo parere mi sembra molto interessante. Buona lettura!

 

La robotica di oggi secondo Alois Knoll

Quali sono le tue attuali aree di ricerca?

Stiamo facendo ricerca in molte aree. Ma c’è una invariante: l’interazione umano-robot, la multimodalità, il circuito chiuso, o la chiusura del ciclo continuo tra l’ambiente del robot e il comportamento umano. L’interazione umano-robot è il tema di base su cui torno sempre. L’argomento attraente più interessante e più frequentemente menzionato sembra essere l’interazione umano-robot.

Quali, secondo te, sono le aree più importanti di ricerca?

Beh, ci sono alcuni problemi nella meccatronica. Le persone, come me, sembrano essere molto più interessate ai sensori, all’intelligenza artificiale, all’elaborazione dei dati, alla fusione delle informazioni dei sensori. Cose del genere.

Per il progresso dell’intero settore, penso che sarebbe utile se più persone – diversamente da me – fossero più interessate alla meccatronica e al controllo dei corpi e delle cose. Mi piacerebbe vedere ciò. Lo sviluppo dell’hardware in termini di meccanica è piuttosto lento. Mentre lo sviluppo in termini di videocamere, sensori economici e oggetti degli smartphone che si possono riutilizzare – molto economici, ma di alta qualità – è qualcosa che affascina le persone. Lo stesso vale per l’intelligenza artificiale [IA].

La robotica come settore sembra stia crescendo velocemente. Non sei d’accordo?

Saremo in continua crescita. I tassi di crescita possono anche aumentare. Ma non ci sarà un forte calo, come ad esempio con internet [la bolla] dove si ha un rapido sviluppo con tassi di crescita del 100% all’anno, ma poi rimangono solo una o due società che vincono. La robotica non sarà così. Ci sarà un grande numero di venditori con soluzioni molto specializzate. Eccelleranno sempre di più perché ci sarà maggiore necessità. Sarà un positivo ciclo di feedback. Ma non aspettatevi tassi di crescita del 50 o 100% nella robotica. Non è proprio fattibile.

Ma ovviamente il bisogno – la richiesta – è evidente. Per esempio, i sistemi di assistenza che abbiamo per le automobili autonome, che sono anche un tipo specializzato di robot. Quindi il potenziale del settore è enorme, ma non è un settore facile da percorrere.

Quali sono le tendenze importanti nella robotica?

In linea di principio, vedo una tendenza. Quello che è probabile è che i dispositivi e gli apparecchi che abbiamo in casa e nelle fabbriche diventeranno più intelligenti. Quindi saranno dotati di più sensori, maggiore potenza di calcolo, e le persone impareranno come usarli e come programmarli.

Qui, naturalmente, c’è uno dei fattori determinanti: l’interfaccia tra l’umano e il robot. Questa è una cosa importante. Ma c’è anche un’altra interfaccia tra il sistema del robot e l’ambiente – che sarà anche importante padroneggiare.

Permettere a un robot di navigare in una stanza è qualcosa che abbiamo imparato. Ma se la stanza è difficile da descrivere o se è una costruzione completamente nuova, allora è abbastanza complicato. Dotare il robot di abilità di base non è banale. Tuttavia, ciò avverrà nel corso del tempo. Tra un paio d’anni vedremo certamente interessanti sviluppi.

L’apprendimento approfondito [deep learning], o l’apprendimento automatico [machine learning] non sono la risposta al problema dei robot che non sanno come percorrere zone sconosciute?

Bisogna fare una distinzione tra un’intelligenza dotata di corpo e un’intelligenza incorporea. Un’intelligenza incorporea è un computer situato da qualche parte. Inserisci un gran blocco di dati, il computer si adatta con l’apprendimento automatico e poi produce un altro blocco di dati che viene presentato a te.

Ma qui stiamo parlando di un computer o di un’intelligenza artificiale costruita in un corpo. Il che è un gioco totalmente diverso perché quello che ci si aspetta da un’intelligenza con un corpo è che essa reagisca ai cambiamenti nell’ambiente, che reagisca alle istruzioni degli utenti, e che possa sviluppare qualche indipendenza nel muoversi in giro, nel fare qualcosa, nell’assemblare qualcosa, nell’avere un ruolo di assistenza per l’ospedale e così via. E questo è molto più difficile.

Può la colossale potenza di calcolo di oggi – il cloud, il calcolo parallelo e di tipo cluster e così via – aiutare il robot a percorrere qualsiasi ambiente, non importa quanto sconosciuto?

Deve esserci un pezzo di hardware, un robot se si vuole, che può usare un grande computer. Costruito al suo interno o connesso tramite Wi-Fi, non importa. Il punto importante è che abbiamo un corpo, un pezzo di hardware, con ruote, gambe o braccia, che percepiscono il loro ambiente e che deve rispondere in tempo reale per cambiare in questo ambiente.

Quindi, quello che stai dicendo è che è un problema di meccanica?

È un problema di capacità in tempo reale di questi algoritmi che normalmente non sono lì. Per esempio quando giochi a Go, dove il computer impiega mezzo minuto o un minuto per fare una mossa.

Il robot Robonaut

Quanto tempo ci vorrà prima che i robot diventino così sensibili ai loro ambienti e in grado di navigarli come gli umani?

A Manchester, Regno Unito, c’è un gruppo gestito da Steve Furber. Come componente dello Human Brain Project, ora sta costruendo una piattaforma informatica neuromorfica, dove lui connette un milione di questi chip che simulano un numero molto ampio di neuroni, più un numero ancora più grande di sinapsi. Proprio come nel cervello umano. Fondamentalmente, si tratta di una rete neurale come quella che abbiamo nel nostro cervello.

E lui dice che questa macchina con un milione di core – quando sarà completata – avrà la capacità intellettuale dell’1% di un cervello umano.

Quanto del cervello umano abbiamo capito?

È una domanda molto difficile a cui ora nessuno può rispondere perché bisogna davvero differenziare tra i singoli strati, dal livello molecolare alla topologia. Questa è una storia senza limiti precisi ed è difficile dire quando finirà.

Ciò che possiamo dire è che abbiamo compreso abbastanza per essere in grado di mappare parte di ciò che sappiamo del cervello. I sistemi tecnici che costruiamo, l’hardware, l’architettura informatica e anche gli algoritmi che sono di una nuova qualità, e che ci lasciano sperare che otterremo qualcosa… Sono un po’ riluttante nell’usare la parola “intelligenza” perché la connotazione è sempre riferita all’intelligenza umana. Ma diciamo che possiamo mappare la nostra conoscenza del cervello umano per le macchine più intelligenti, dispositivi più intelligenti, apparecchiature più intelligenti che prima o poi potremo comprare.

Che differenza fai tra intelligenza umana e intelligenza artificiale?

La distinzione che faccio è che l’intelligenza umana funzionerà solo in un corpo umano perché si svilupperà solo nel nostro corpo quando cresciamo. Ci mette anni per formarsi e plasmarsi con lo sviluppo dell’individuo e, ovviamente, con lo sviluppo della specie umana.

Invece, se sei lontano dall’avere un corpo del genere e dal percepire l’ambiente come facciamo noi con i nostri sensori speciali, i sensi umani, è molto improbabile che vedremo un simile sviluppo.

È il motivo per cui le persone vogliono sviluppare robot umanoidi – così possono trattarli come schiavi o macchine?

Ma questa è un’altra domanda, giusto? Quando si dispone di robot che sono come un essere umano, potrebbero forse essere come degli animali domestici, o animali, e la gente rivendicherebbe i diritti per loro.

Pensi che i robot dovrebbero avere dei diritti?

Non penso. E in realtà stiamo avendo a che fare con questi problemi di etica già con lo Human Brain Project e con questi veicoli autonomi. Anche la questione dei robot virtuali.

È davvero difficile. Ci sono molti argomenti che potrei elencare, e ci sono naturalmente persone che fanno questo a tempo pieno. Pensare all’etica della robotica. Ma è ancora solo speculazione.

Tuttavia, queste domande sono importanti perché se non rispondiamo in modo soddisfacente sarà un maggiore ostacolo per lo sviluppo di queste auto come prodotti commerciali.

Ti sentiresti al sicuro in un veicolo autonomo?

Sì, mi sentirei tranquillo in un veicolo autonomo. Non vedo alcuna ragione per la quale dovrei fidarmi meno di un’auto senza autista rispetto a un’aeroplano autonomo.

Qual è la differenza? La differenza è che l’ambiente è più complicato nel caso dell’auto. Questa è fondamentalmente l’unica differenza. Ma quando si tratta di prendere decisioni, di percepire, di controllare gli attuatori, non c’è molta differenza tra un’auto e un aeroplano.

Quali sono i progetti che hai in programma per il futuro?

Ci concentreremo sullo Human Brain Project. Stiamo lavorando sui principi base delle funzioni del cervello umano a vari livelli e stiamo provando a usare i loro dati e i dati del nostro istituto Echord, e ciò che è disponibile in tutto il mondo per sviluppare i controlli derivati dal cervello per i robot.

E allo stesso tempo, stiamo sviluppando un sistema di simulazione in modo da essere in grado di virtualizzare la nostra ricerca. Il che significa che possiamo fare gli stessi esperimenti con i robot nel mondo reale e con i computer.


Alois Knoll ci ha detto quindi che il settore della robotica sta crescendo e che continuerà a farlo seppur con dei limiti. Sviluppare delle buone interfacce sarà la prossima sfida. Così svilupperemo robot facili da usare e da programmare. Secondo l’esperto, infatti, fra un paio di anni vedremo macchine sempre più intelligenti nelle nostre case e nelle nostre industrie. Ciò anche grazie al progresso della tecnologia dei sensori, elemento considerato importante anche dal futurista Paul Saffo.

I recenti traguardi della robotica promettono bene. Ma anche Alois Knoll ci tiene a smorzare entusiasmi eccessivi circa lo sviluppo di intelligenze artificiali di livello umano. I problemi riguardano la definizione stessa di intelligenza, le misteriose funzioni del nostro cervello e quindi la riproduzione esatta della rete neurale. Una sfida enorme che qualcuno reputa impossibile. Come lui, anche Yoshua Bengio e Rodney Brooks ci vanno piano sul futuro progresso dell’IA.

Inoltre, secondo Alois Knoll è troppo presto per parlare di diritti delle macchine. Allo stesso tempo, però, sarebbe utile iniziare a farsi qualche domanda. I veicoli autonomi suscitano sempre più interesse. Le aziende stanno investendo molto per poter creare tecnologie adeguate ed è chiaro che bisognerebbe pensare anche alle regolamentazioni.

Su questo argomento ci sono anche scienziati che si sono espressi diversamente. Aubrey de Grey sostiene che dobbiamo pensare subito ai diritti delle macchine pensanti: “Pensiamo fortemente ora ai diritti delle macchine pensanti, in modo che ben prima che l’auto-miglioramento ricorsivo arrivi possiamo testare le nostre conclusioni nel mondo reale con macchine che sono solo leggermente consapevoli dei loro obiettivi.“.

Comunque negli ultimi tempi abbiamo ottenuto dei successi significativi nel campo della robotica. Ed è probabile che ne conquisteremo altri nei prossimi anni. Se sei curioso di saperne di più? Dai un’occhiata alle innovazioni di oggi e di domani nella robotica descritte da Rodney Brooks.

Ne vedremo delle belle!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.