Non molto tempo fa, alcuni esperti e avevano firmato una lettera aperta sui rischi dell’intelligenza artificiale. I ricercatori facenti parte del Future of Life Institute ne hanno redatto e firmato un’altra. L’hanno intitolata “Autonomous Weapons: an Open Letter from AI Robotics Researchers“. La lettera è stata firmata da più di 1.000 esperti, scienziati e ricercatori, tra cui Stuart Russell, Elon Musk, Steve Wozniak, Noam Chomsky, Peter H. Diamandis e Stephen Hawking.
Armi autonome: una lettera aperta dai ricercatori per la robotica dell’intelligenza artificiale
“Le armi autonome selezionano e attaccano i bersagli senza l’intervento umano. Possono includere, per esempio, un quadricottero armato che può rilevare ed eliminare persone che rispondono a determinati criteri predefiniti. Ma non includono missili da crociera o droni pilotati da remoto per i quali gli umani prendono tutte le decisioni per l’individuazione degli obiettivi.
La tecnologia dell’intelligenza artificiale (IA) ha raggiunto un punto dove lo spiegamento di un tale sistema è – praticamente se non legalmente – possibile con gli anni, non decadi. E la posta in gioco è alta: le armi autonome sono state descritte come la terza rivoluzione della guerra, dopo la polvere da sparo e le armi nucleari.
Sono stati preparati molti argomenti per e contro le armi autonome. Per esempio che rimpiazzare i soldati umani è buono, riducendo le perdite per il proprietario, ma è un male per ridurre l’inizio dell’entrata in battaglia. La questione chiave per l’umanità oggi è se iniziare una globale corsa all’armamento di IA o se evitare il suo inizio.
Se una grande potenza militare spinge verso lo sviluppo di una IA armata, una corsa globale agli armamenti è inevitabile. E il punto finale della traiettoria tecnologica è evidente. Le armi autonome diventeranno i Kalashnikov di domani. A differenza delle armi nucleari, non richiedono materie prime costose o difficili da ottenere. Quindi diventeranno onnipresenti ed economiche per la produzione di massa da parte di tutte le significative potenze militari.
Sarà solo una questione di tempo fin quando non appariranno nel mercato nero e nelle mani di terroristi. Dittatori che desiderano controllare meglio il loro popolo, i signori della guerra che intendono perpetrare una pulizia etnica, eccetera. Le armi autonome sono ideali per attività come omicidi, destabilizzare le nazioni, sottomettere le popolazioni e uccidere selettivamente un particolare gruppo etnico. Riteniamo pertanto che una corsa militare agli armamenti di IA non sarebbe benefica per l’umanità.
Ci sono molti modi in cui l’IA può rendere i campi di battaglia più sicuri per gli umani, soprattutto per i civili, senza creare nuovi strumenti per uccidere le persone.
Proprio come la maggior parte dei chimici e dei biologi non hanno alcun interesse nel costruire armi chimiche e biologiche, gran parte dei ricercatori dell’IA non hanno alcun interesse nel costruire armi di IA. E non vogliono che altri offuschino il loro campo facendo in questo modo, creando potenzialmente una grande reazione pubblica contro l’IA che riduce i suoi futuri benefici sociali. Infatti, chimici e biologi hanno ampiamente sostenuto gli accordi internazionali che hanno vietato con successo le armi chimiche e biologiche. Così come la maggior parte dei fisici hanno supportato i trattati che vietano le armi nucleari spaziali e le armi laser accecanti.
In sintesi, riteniamo che l’IA abbia un grande potenziale per giovare l’umanità in molti modi, e che l’obiettivo del settore dovrebbe essere quello di farlo. L’inizio di una corsa militare agli armamenti di IA è una cattiva idea. Deve essere impedito da un divieto sulle armi offensive autonome che sfuggono al significativo controllo umano.”
Rispetto alla prima lettera scritta qualche mese fa, i ricercatori sono entrati più nel dettaglio in merito alle armi autonome. Armi autonome che alcuni preferiscono definire robot-killer.
Anche questa volta i ricercatori hanno evidenziato un punto importante. Lo sviluppo di IA deve avere il solo fine di procurare benefici all’umanità.
Lo scenario negativo in cui le IA potranno essere le armi per combattere guerre o per sottomettere popoli non è poi così fantascientifico. Proprio poco tempo fa, alcuni leader americani del Dipartimento della Difesa, dell’Army Research Lab e dell’Institute for Defense Analysis hanno partecipato a un workshop in cui si è discusso su quali armi verranno adottate in guerra entro il 2050. Ed è stato delineato un rapporto in cui di descrivevano i droni e i supersoldati come il futuro della guerra.
Ecco perché non possiamo definire queste discussioni come fantascienza. Ma allo stesso tempo non dovremmo creare inutili allarmismi. Per raggiungere quel livello tecnologico ci vorranno ancora molti anni. Abbiamo tutto il tempo di valutare i pro e i contro dello sviluppo di intelligenze artificiali e di regolarci di conseguenza.
Immagine: Flickr