L’utilizzo dell’IA nelle procedure di targeting
Come le IDF hanno impiegato l’IA nella Striscia di Gaza
L’intelligenza artificiale (IA) è destinata a diventare centrale nelle operazioni militari delle forze armate di tutto il mondo.
Le tecnologie di IA hanno ad oggi già dimostrato la loro utilità in una vasta gamma di applicazioni della difesa, tra le quali l’intelligence, la sorveglianza, il supporto decisionale e l’analisi dei dati. Nei prossimi decenni, i sistemi basati sull’IA rivoluzioneranno la logistica, cambieranno l’approccio alla pianificazione operativa e, con altissima probabilità, daranno un forte impulso a quelli che vengono chiamati LAWS (Lethal Autonomous Weapon Systems, anche conosciuti come “killer robots”).

Tra gli ambiti di utilizzo dell’IA nella sfera militare, quello che pone i maggiori interrogativi è sicuramente il processo di targeting[1].
Per comprendere meglio le ragioni di questa ultima affermazione, è utile analizzare quanto messo in atto dalle IDF durante l’ultimo conflitto con Hamas all’interno della striscia di Gaza.
L’integrazione dell’IA all’interno delle operazioni militari israeliane è cominciata nel 2020 con l’approvazione del programma pluriennale “Momentum”[2] (Tnufa in ebraico) sviluppato sotto la supervisione dell’allora Capo di Stato Maggiore dell’Esercito Aviv Kochavi. Tale programma prendeva come riferimento il libro “The Human-Machine team: How to create sinergy between human and AI that will revolutionize our world”[3], scritto dal Generale Yossi Sariel, ex comandante dell’Unità 8200[4].
Il concetto di base espresso da Sariel era di sviluppare sistemi di IA in grado di processare rapidamente una enorme quantità di dati, con l’intento di ridurre drasticamente le tempistiche di identificazione e validazione dei target e di generarne in quantità considerevolmente più elevate.
La fase esecutiva del programma “Momentum” ha generato una serie di sistemi operativi di targeting, tutti basati sull’utilizzo di IA. Tre di questi, chiamati rispettivamente “Habsora”, “Lavender” e “Where’s Daddy”, impiegati in maniera complementare e sinergica, sono stati utilizzati dalle IDF durante l’ultima operazione nella Striscia di Gaza (“Spade di ferro”[5]).
“Habsora” è stato progettato per concentrarsi sugli edifici e sulle strutture dalle quali, sulla base dell’intelligence[6] in possesso, operavano i militanti di Hamas. “Lavender” è in grado di generare migliaia di target umani, basandosi su affiliazioni confermate o sospette ad unità armate di Hamas. Questo sistema analizza modalità di comportamento sospette come il cambio frequente di numeri telefonici o contatti, anche sporadici, con elementi la cui appartenenza ad Hamas è stata confermata.
Il programma “Where’s Daddy” processa i dati forniti dagli altri due sistemi e segue i possibili target generati fino a identificare la posizione della loro residenza. Quest’ultima applicazione avverte le sale decisionali dell’IDF ogni volta che il target si trova in casa (anche nel caso di presenza di civili).
Per fare un confronto, soltanto durante la prima settimana di conflitto, questi sistemi hanno generato una lista con più di 37.000 possibili target, mentre prima del loro impiego, con l’utilizzo di analisti umani, la media era di circa 50 target in un intero anno.
L’impiego di queste tecnologie avanzate ha permesso alle IDF di intensificare le sue operazioni a un ritmo senza precedenti, aumentando drasticamente il numero di bersagli prodotti.
Per le attività di targeting, dove la velocità di esecuzione diventa un imperativo operativo, le implicazioni derivanti da queste innovazioni diventano molteplici e di grande rilievo.
Esiste tuttavia un rovescio della medaglia che può generare conseguenze di estrema complessità.
Da alcune informazioni apparse su fonti OSINT, gli ufficiali dell’intelligence israeliana avrebbero applicato soglie predefinite di “danni collaterali” per approvare attacchi contro obiettivi in aree residenziali. Una direttiva di grado 5, ad esempio, avrebbe autorizzato un attacco che accettasse la morte di cinque civili o meno. Dal 7 ottobre, sembrerebbe che queste soglie siano state innalzate: gli ufficiali israeliani sarebbero stati autorizzati ad accettare fino a 20 morti civili per combattente di Hamas, e più di 100 per un comandante di alto rango.

Ma gli interrogativi, soprattutto di carattere etico, che emergono sono articolati e complessi.
In primo luogo, un eccessivo affidamento sui sistemi di IA da parte dei decisori ha portato a una supervisione umana inadeguata, nonostante la chiara consapevolezza dei possibili errori algoritmici dei sistemi. Le verifiche sviluppate dalle IDF su questi sistemi che impiegano l’IA hanno attestato un’accuratezza del 90%, ciò significa che, sulla scala dell’operazione dentro Gaza, circa 3.700 dei 37.000 obiettivi designati erano in realtà persone non affiliate all’ala militare di Hamas e quindi inserite per errore nella lista di target.
Spesso questi errori sono stati generati per via dell’inserimento di parametri algoritmici errati.
Ad esempio, “l’identificazione dei membri di Hamas si basava su frequenti cambi di numero di telefono. Ma questo metodo si è rivelato impreciso, poiché questo cambiamento era diffuso anche tra attivisti per i diritti umani, giornalisti, ma anche tra le persone sfollate a causa dei bombardamenti”.[7]
Altro interrogativo posto dall’impiego di strumenti di IA nei processi di targeting è quello relativo alle tempistiche decisionali ridotte. Quando la supervisione umana nell’approvazione di uno strike ha a disposizione solo pochi secondi, il rischio reale è che le decisioni diventino permissive e non sufficientemente attente al rischio di errori e vittime civili (c.d. danni collaterali). Con poco tempo a disposizione per prendere delle decisioni c’è una tendenza per gli esseri umani a fidarsi troppo della tecnologia, un principio noto come “bias dell’automazione”.
Oltretutto l’impiego dell’IA può generare quella che viene definita “deumanizzazione digitale”. Gli individui identificati come target non sono più considerati come persone con identità, ma vengono invece classificati come una serie di dati (numero di telefono, abitudini, rete di collegamenti, forma del corpo, temperatura corporea, colore della pelle o velocità di movimento).
In ultima analisi, e non per ordine di importanza, l’impiego dell’IA nei processi di targeting non è ancora stato contemplato in maniera chiara ed inequivocabile all’interno del diritto internazionale umanitario. Alcuni accademici dell’Istituto Lieber di West Point ritengono che i sistemi di targeting che impiegano l’IA dovrebbero essere considerati come dei mezzi di guerra poiché fanno parte di una “piattaforma” che facilita le operazioni militari e pertanto dovrebbe essere intrapresa una discussione a livello internazionale sul loro inserimento nella Convenzione su certe Armi Convenzionali[8].

L’impiego dell’IA nel targeting, che offre innegabili vantaggi nell’elaborazione dei dati e nell’accelerazione delle decisioni, pone tuttavia un dilemma morale: va impiegata come strumento e non come sostituto del giudizio umano. Se gli esseri umani che approvano uno strike non comprendono appieno come è stata determinata la “raccomandazione” generata dall’IA, la loro decisione dovrebbe poter essere limitata da strumenti legali o procedurali.
L’esempio dei sistemi usati da Israele nel recente conflitto evidenzia come il processo di targeting con l’utilizzo di IA possa ridurre il controllo umano a un semplice ruolo di convalida. La pressione ad agire rapidamente, le condizioni in cui viene utilizzata l’IA e l’impossibilità di contestarne il funzionamento operando attraverso algoritmi opachi impediscono di fatto qualsiasi controllo umano significativo.
I sistemi di IA israeliani non hanno colpito in maniera autonoma, sono le scelte umane che hanno determinato il modo in cui sono stati utilizzati, ed è su queste scelte che dovrebbero concentrarsi i dibattiti politici, etici e legali.
Senza regole e norme chiare e applicabili sull’uso di qualsiasi sistema militare che impieghi l’intelligenza artificiale, i rischi di un’escalation di violenza sono tangibili e molto elevati.
Note e riferimenti bibliografici:
[1] Il targeting è il processo di selezione di persone, oggetti o installazioni da attaccare, conquistare o distruggere in guerra. Il targeting analizza e dà priorità agli obiettivi e abbina azioni letali e non letali appropriate a tali obiettivi per creare effetti specifici desiderati che raggiungano gli obiettivi del Comandante.
[2] https://www.fdd.org/analysis/2023/10/20/israels-tech-advantage-created-complacency/
[3] https://alkhanadeq.com/static/media/uploads/files/the-human-machine-team-how-to-create-synergy-between-human-amp-artificial-intelligence-that-will.pdf
[4] L’Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINT, decrittazione di informazioni e codici cifrati e guerra cibernetica.
[5] https://it.wikipedia.org/wiki/Guerra_Israele-Hamas
[6] Questi dati provengono dalla miriade di metodi di sorveglianza che Israele utilizza da decenni per controllare la Striscia di Gaza: droni, satelliti, telecamere di videosorveglianza, sistemi di intercettazione delle comunicazioni e rilevamento di individui, oggetti ed edifici attraverso dati sensoriali.
[7] “les militants de défense des droits de l’homme, des journalistes, mais aussi par des personnes déplacées à cause des bombardements”: FÉREY Amélie, DE ROUCY ROCHEGONDE Laure, “De l’Ukraine à Gaza: l’intelligence artificielle en guerre”.
[8] La Convenzione delle Nazioni Unite su certe armi convenzionali (inglese: Convention on Certain Conventional Weapons, CCW o CCWC, definita a volte in senso contrario “Convenzione sulle armi non convenzionali”) è stata formulata a Ginevra il 10 ottobre 1980 ed è entrata in vigore nel dicembre 1983. La convenzione mira a vietare o limitare l’uso di alcune armi convenzionali che sono considerate eccessivamente dannose o i cui effetti sono indiscriminati.





