L’etica dell’uso dell’intelligenza artificiale (IA) sui campi di battaglia è meno chiara di quanto pensiamo. Lo sostiene Jerry Kaplan, imprenditore, inventore, scienziato, autore e professore di filosofia ed etica applicate all’IA presso la Standofrd University.

Secondo Kerry Kaplan, ci sono validi motivi per adottare l’intelligenza artificiale in guerra: questa tecnologia scongiura l’impiego di soldati sui campi di battaglia e distingue la vita militare da quella civile. Vediamo meglio cosa intende grazie al suo intervento per Big Think. Di seguito il video e la traduzione.

L’intelligenza artificiale sul campo di battaglia ci rende più umani?

 

“Sono tutti preoccupati per i robot killer. Dovremmo vietarli. Non dovremmo fare alcuna ricerca. Può essere immorale farla. C’è uno splendido articolo scientifico, infatti, di un professore che si è specializzato nella marina militare a Monterrey, credo, B.J. Strawser; il titolo, mi sembra, è: ‘The moral requirement to deploy autonomous drones‘. E il suo punto fondamentale è abbastanza semplice. Abbiamo degli obblighi verso le nostre forze militari per proteggerli e cose che possiamo fare per proteggerle. Un fallimento nel fare ciò è di per sé una decisione etica che può essere la cosa peggiore da fare se si possiedono tecnologie.

Quindi, permettimi di fornirti un’interessante quadro dell’intera cosa per mostrarti che ciò non deve riguardare per forza robot killer come Terminator che sparano alle persone e cose del genere. Pensa a una mina. La mina ha un sensore, un piccolo interruttore. Ci passi sopra ed esplode. C’è un sensore, c’è un’azione che è stata compiuta come risultato di un cambiamento al suo ambiente.

Oggi è molto semplice applicare tecnologie di intelligenza artificiale pronte all’uso e metterci sopra una piccola videocamera. Non è costosa, sul tuo cellulare ne hai una dello stesso tipo. C’è un po’ di potenza di elaborazione che permette di guardare cosa sta davvero succedendo intorno a quella mina. E quindi potresti pensare ‘Ok, posso vedere che quella persona che è vicino a me ha un’arma. Posso vedere che indossa un’uniforme militare, quindi la farò esplodere’. Ma vediamo che è solo un contadino in un campo con un rastrello o una zappa, possiamo evitare di farlo saltare in aria, date le circostanze. Oh, è un bambino. Non voglio farla esplodere. Sto per essere calpestato da un animale. Ok, non la farò esplodere. È una tecnologia militare autonoma del tipo descritto in una recente lettera firmata da tanti grandi scienziati. Rientra in quella classe.

E nel loro sviluppo, dispositivi come questo verranno vietati. Faccio questo esempio di dispositivo su cui c’è un buon ragionamento nel caso non possiamo applicare questa tecnologia: è più umano, più mirato ed è più etico fare così. Non sempre questo è il caso. Non voglio dire che così è giusto e che bisogna andare avanti volenti o nolenti e sviluppare robot assassini. Voglio dire che questa è un’area molto più sottile che richiede una quantità notevole di pensiero e di ricerca. E dovremmo permettere le persone che ci stanno lavorando di pensare a questi problemi e assicurarci che capiscano i tipi di sensibilità e di preoccupazioni che abbiamo come società in merito all’uso e alla diffusione di questi tipi di tecnologie.”


Difficile rispondere alla domanda di Jerry Kaplan, vero? Difficile parlare di guerra, delle armi impiegate e di quelle che verranno impiegate in futuro, delle vittime innocenti e della morte in generale. Ma se c’è un modo per evitare la morte di civili attraverso armi più tecnologiche, forse è meglio seguirlo.

La pubblicazione di B.J. Strawser a cui fa riferimento Jerry Kaplan è “Moral Predators: The Duty to Employ Uninhabited Aerial Vehicles“. In questo articolo di approfondimento l’autore spiega perché bisogna adottare i droni in guerra: meno soldati al fronte, migliore acquisizione di informazioni sul territorio nemico, meno errori e meno effetti collaterali. Ma anche in questo caso ci sarebbero delle obiezioni: suggerisco la lettura di questo articolo sul rapporto tra droni ed etica.

Quando parliamo di progresso e di intelligenza artificiale, però, dobbiamo fare un passo avanti. Nel senso che i droni descritti da B.J. Strawser (2010) sono pilotati da remoto; in futuro potrebbero diventare completamente autonomi. L’esempio della mina intelligente fatto da Jerry Kaplan ci aiuta a capire cosa si intende con armi autonome o robot killer. Tecnologie che in totale autonomia decidono se colpire o meno. Scenario futuristico improbabile? Non ne sono sicuro, considerando che con i veicoli automatici stiamo facendo buoni progressi.

E non è un caso se diversi scienziati hanno firmato due lettere aperte sui rischi dell’intelligenza artificiale, come ha ricordato lo stesso Jerry Kaplan. In alcuni congressi si è persino parlato di droni e supersoldati per il futuro della guerra. Altro che fantascienza, qui si fa sul serio. Più recente, invece, l’originale studio di Fedetrico Pistono e Roman Yampolskiy su come costruire un’intelligenza artificiale cattiva: ci sono diversi modi per sfruttare un’IA per scopi immorali e illegali, e le conseguenze sarebbero disastrose.

Il ragionamento di Jerry Kaplan ci porta dunque a chiederci se le armi autonome, dotate di una sofisticata IA, non siano poi così deleterie. In parte, potrebbe avere delle motivazioni a suo favore. Davvero si tratta di un argomento molto delicato, che tocca in profondità la sensibilità e la cultura di una società.

Secondo te, cosa sarebbe meglio? Armi autonome che evitano morti innocenti, o il loro divieto a prescindere? In quest’ultimo caso, qualcuno potrebbe sollevare altre obiezioni. Il settore militare è tra i più prolifici per quanto riguarda lo sviluppo di nuove tecnologie. Vietare la costruzione di armi intelligenti significherebbe fermare gran parte del progresso. Non ne sono del tutto convinto, ma il settore militare ha un’influenza enorme.

Il problema, come ben saprai, viene ancora prima. Il vero problema è la guerra in sé e per sé.

Fonte immagine: Flickr

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.