Killer robots, le nuove macchine belliche senza l’umano

La questione delle armi letali autonome e le possibili azioni italiane ed europee per un accordo internazionale. L'impegno della Campagna internazionale Stop Killer Robots.

Mentre in questi anni l’attenzione dell’opinione pubblica internazionale era concentrata sulla sfida tra Usa e Cina, sui cambiamenti climatici e infine sul Covid 19, i progressi tecnologici nel settore degli armamenti hanno fatto un ulteriore, preoccupante passo in avanti.

L’Intelligenza Artificiale sta venendo sempre più applicata ai moderni sistemi d’arma e gli algoritmi stanno prendendo il posto degli uomini, dei militari stessi nel campo di battaglia. Il loro nome è LAWS, Lethal Autonomous Weapon Systems, cioè sistemi di armi letali autonome, in grado di attivarsi, selezionare il bersaglio e colpirlo senza alcun intervento umano.

Sono sottoposti ad applicazioni sempre più avanzate tese a realizzare macchine belliche capaci non solo di operare in una prospettiva di crescente autonomia, ma anche in uno spazio temporale assai più breve di quello umano.

Secondo i loro sostenitori, hanno molti vantaggi: maggiore precisione, elevata rapidità nella reazione ad un attacco subito, sono esenti dallo stress emotivo, capaci di ridurre i cosiddetti “danni collaterali” nel rispetto del diritto umanitario internazionale (il diritto di guerra), programmabili per l’uso solo in caso di evidente e certo atto aggressivo. Infine, riducono il rischio di mortalità nelle file delle forze armate che li utilizzano, esponendo solo le macchine ad una possibile distruzione.

Da diversi anni numerose potenze li stanno sperimentando: USA, Russia, Cina, Francia, Inghilterra, Israele ed altri già da tempo investono nel settore con svariati progetti, coinvolgendo anche diversi settori tecnologici e i relativi dipartimenti delle università. Per comprenderne la valenza finanziaria, basta sapere che le previsioni per l’impatto economico dell’IA (civile e militare) si aggirano intorno ai 13 trilioni (miliardi di miliardi) di dollari entro il 2030.

Svariati sistemi d’arma (come munizioni loitering, sistemi d’arma ravvicinata o a corto raggio, aerei da combattimento senza equipaggio, munizioni guidate di precisione, veicoli terrestri senza equipaggio e veicoli marini senza equipaggio) sono sottoposti ad applicazioni tecnologiche sempre più avanzate con scenari fantascientifici a breve termine. Le munizioni loitering (letteralmente bighellonanti) sono droni d’attacco che possono girare in cielo sino a che non individuano l’obiettivo per poi attaccarlo, senza più bisogno della supervisione militare.

Ad oggi le armi autonome possono operare su tre livelli: il primo consiste nel controllo remoto (human in the loop) con i quali un comando azionato dall’umano può consentire ad un robot di selezionare gli obiettivi ed attivare, poi, la sua forza.

Il secondo vede sistemi “semi-autonomi” (human on the loop), cioè armi capaci di individuare e colpire siti predefiniti sotto la supervisione di un operatore umano che può anche ignorare o scavalcare le azioni programmate del robot; infine, ed è il più preoccupante, è quello totalmente “autonomo” (human out the loop) nell’ambito del quale l’interazione tra uomo e macchina è, invece, completamente assente. Qui il sistema d’arma non è più arrestabile dall’uomo e decide da solo, in base ai suoi algoritmi programmati ed elaborati da specialisti, cosa attaccare, come e quando.

Lo scenario appare, dunque, denso di incognite, rese ancora maggiori dal fatto che gli esperti hanno sottoposto i LAWS ad una serie di prove in situazioni  difficili, ipotizzando azioni avversarie di disturbo o malfunzionamenti. Cosa ne è risultato? La metodologia di adversarial testing (cioè l’apprendimento automatico – machine learning -in ambiente ostile) ha messo in rilievo come la rete neurale possa essere indotta in errore.

Ne è emersa una vulnerabilità dei sistemi basati sull’Intelligenza Artificiale e sul machine learning, in seguito a exploratory attacks (attacchi esploratori, per saggiarne le debolezze), a causative attacks (cioè attacchi avversari con lo scopo d’ingannarlo per ottenere un vantaggio), nonché a catastrophic forgetting (ad una dimenticanza del sistema di quanto appreso precedentemente, anche durante il processo di apprendimento automatico).

Pertanto, da tutto ciò derivano elevati rischi connessi sia ad un’azione offensiva avversaria, sia a malfunzionamenti interni e difficilmente prevedibili dell’Intelligenza Artificiale dovuti ai propri processi di autoapprendimento e al complesso funzionamento degli algoritmi. Basta ricordare il supercomputer AL del film “2001 Odissea nello spazio” di Stanley Kubrick del 1968, che ne ipotizzava un pericoloso malfunzionamento che metteva a repentaglio la missione spaziale.

Tutto questo solleva importanti questioni in riferimento sia al rispetto del diritto umanitario internazionale, sia al mantenimento della catena delle responsabilità nelle azioni belliche, sia alla questione del rispetto della dignità degli esseri umani coinvolti nelle azioni belliche. Come può una macchina distinguere un militare da un civile, un combattente attivo da uno che si arrende o che è ferito senza poter segnalare la propria resa, una persona con intenzioni ostili da un’altra che si avvicina erroneamente al sistema d’arma? Può il LAWS applicare effettivamente quello che giuridicamente viene definito il principio di distinzione?

E nel caso ipotetico di un atto ostile minore (ad esempio, un lancio di pietre o di altri oggetti da parte di contestatori) il LAWS può applicare il cosiddetto principio di proporzionalità, che esige di bilanciare i vantaggi militari con i costi/danni eventuali per la popolazione civile? È in grado di valutare tutto questo un sistema basato su algoritmi di vario genere?

Infine, nel caso di un errore interno di un LAWS, la responsabilità è del costruttore, del manutentore, del programmatore, della collocazione in un’area errata, del collaudatore, del generale che lo ha voluto, dei politici che ne hanno permesso l’acquisto con un’apposita legge? Insomma la  catena delle responsabilità diventa ancora più evanescente.

Di fronte a tutto questo, mentre i governi non riescono ancora a trovare un accordo a Ginevra nell’ambito della Convenzione sulle armi non convenzionali, la società civile con la Campagna Stop Killer Robots (a cui aderiscono 160 ONG, le Nazioni Unite e 26 Premi Nobel) dal 2013 si è mobilitata per richiedere un controllo umano significativo di queste armi.

(Approfondimenti su Archivio Disarmo)

Edicola Digitale Città Nuova - Reader Scarica l'app
Simple Share Buttons