Tecnologia

Robot in guerra: troppe vittime civili con le armi “intelligenti” e i droni

La denuncia di Human Rights Watch in uno studio realizzato con l’Università di Harvard secondo cui l’introduzione di mezzi militari dotati di intelligenza artificiale mette a rischio l’incolumità dei civili e viola la Convenzione di Ginevra

Dall’Afghanistan ai territori occupati in Palestina, l’utilizzo dei droni (velivoli senza pilota, ndr) per eseguire attacchi “mirati” è una pratica costante, così come lo è il conto delle vittime civili coinvolte negli attacchi portati dagli aerei comandati a distanza. Nel futuro lo scenario potrebbe però peggiorare, con l’utilizzo di armi completamente autonome in grado di portare a termine gli attacchi senza l’intervento umano o addirittura capaci di decidere quando e come agire sul campo di battaglia.

A denunciare il rischio della “disumanizzazione della guerra” è un rapporto pubblicato da Human Rights Watch, intitolato ‘Losing Humanity’. Il rapporto, realizzato in collaborazione con un gruppo di studio della School of Law dell’Università di Harvard, affronta la questione dei cosiddetti “robot da guerra” chiedendo che ne sia immediatamente proibito lo sviluppo. Uno scenario fantascientifico? Per niente. La realizzazione di armi da guerra robotiche completamente autonome, infatti, è una possibilità che si potrebbe concretizzare nel giro di 15 anni. Uno scenario che i vertici militari vedono come “auspicabile”, ma che preoccupa gli attivisti per i diritti civili. Per quanto evoluta, denunciano nello studio, una macchina non potrà mai avere una capacità di giudizio paragonabile a quella di un essere umano in carne e ossa. La macchina difetta di empatia, intuito e, soprattutto, di compassione. Insomma: l’introduzione di armi “troppo intelligenti” rappresenterebbe una minaccia alla sicurezza dei civili coinvolti negli scenari di guerra, oltre che una violazione delle prescrizioni contenute nella Convenzione di Ginevra.

Un futuro molto vicino – Scorrendo il rapporto, disponibile integralmente in lingua inglese sul sito di Human Rights Watch, è facile realizzare come le preoccupazioni legate ai “robot da guerra” siano tutt’altro che campate per aria. A confermare l’attualità della questione non sono solo gli estratti dai documenti ufficiali dell’esercito Usa, nei quali si parla dei progetti in corso d’opera per la realizzazione di strumenti di attacco e difesa “sempre più autonomi”, ma gli esempi concreti documentati riguardanti armamenti già in uso in mezzo mondo. I sistemi di difesa automatici, infatti, sono utilizzati ampiamente dagli eserciti Usa e dai suoi alleati fin dagli anni ‘80. Uno dei primi a essere impiegati è stato il Phalanx, un sistema installato sulle navi da guerra e in grado di intercettare missili o velivoli nemici rispondendo all’aggressione con un volume di fuoco di 3000-45000 colpi al minuto. La versione “terrestre” del sistema è stata invece utilizzata per la prima volta nel 2005 in Iraq.

Per restare all’attualità, il rapporto cita i sistemi automatici utilizzati per la difesa del confine tra Israele e la striscia di Gaza. Le Sentry Tech in dotazione alle forze di difesa israeliane (Idf), sono torrette mobili in grado di rilevare movimenti nell’area sorvegliata e inviare i segnali a una postazione remota. Le armi con cui sono equipaggiate permettono di colpire un bersaglio a una distanza di un chilometro e mezzo, ma tra i progetti dell’esercito israeliano c’è anche quello di utilizzare dei missili anti carro che avrebbero una gittata di diversi chilometri. Tecnicamente, l’ordine di sparare viene dato da un militare addetto al controllo del dispositivo. Rilevazione e puntamento, però, sono completamente automatici. Un sistema simile è stato adottato dalla Corea del Sud, per il controllo della zona demilitarizzata al confine con i suoi vicini del nord. In questo caso l’equipaggiamento delle torrette robot SGR-1, del costo di 200mila dollari l’una, prevede mitragliatrici da 5.5 mm o, in alternativa, un lancia granate da 40 mm. Tutti armamenti che, in ogni caso, potrebbero colpire più o meno direttamente i civili presenti nell’area.

Il fattore umano – Nei sistemi di difesa automatici, prima che il sistema apra il fuoco è necessario che un operatore certifichi il bersaglio. Un’operazione che richiede di prendere una decisione in pochi secondi e che, secondo il giornalista ed esperto di questioni militari Peter Singer, è soggetta a una sorta di “pregiudizio automatico”: in pratica, la capacità di giudizio viene influenzata dalla segnalazione della macchina e l’operatore che deve agire in tempi stretti tende ad assecondare il giudizio del computer piuttosto che effettuare una valutazione indipendente. In futuro, però, le cose potrebbero cambiare, e in peggio. Il punto di non ritorno indicato da Human Rights Watch è quello che si raggiungerà con l’utilizzo di mezzi “completamente autonomi”, le cui azioni saranno determinate da sistemi di intelligenza artificiale. Uno scenario in cui la presenza di civili, nemici feriti o pronti ad arrendersi difficilmente troveranno posto nelle routine di sistema delle armi di nuova generazione. Guardium è un sistema terrestre senza pilota utilizzato dall’esercito israeliano per le operazioni di pattugliamento lungo i confini di Gaza. Si tratta di un mezzo “semi-autonomo” che, secondo quanto riportato nella brochure del produttore, è in grado di reagire a “eventi imprevisti”, utilizzando strumenti offensivi. Il vero anello di congiunzione tra i sistemi automatici di difesa e i “robot da guerra” sarebbe però l’X-47B, un drone in grado di decollare, eseguire una missione e riatterrare su una portaerei senza che sia necessario alcun intervento umano. Il prototipo su cui le forze Usa stanno lavorando non è equipaggiato con armamenti, ma ha già due alloggiamenti utilizzabili per le armi con una capacità di 4.500 libbre. Qualcosa di simile è stato sviluppato anche nel Regno Unito: si chiama Taranis ed è descritto come “un drone stealth autonomo, in grado di colpire bersagli a lungo raggio anche in un altro continente”. La creazione del “robot da guerra” paventata da HRW non è poi così lontana.