Lavender, l’intelligenza artificiale guida l’esercito israeliano a Gaza

Gaza
Immagine generata con supporto Canva © Canva Pro

Nel 2021, un libro intitolato “Il team uomo-macchina: come creare una sinergia tra l’intelligenza umana e l’intelligenza artificiale che rivoluzionerà il nostro mondo” è stato pubblicato a firma dello pseudonimo “Brigadier General YS”. L’autore, attuale comandante dell’unità d’élite dell’intelligence israeliana 8200 – racconta della progettazione di una macchina speciale. Una macchina in grado di elaborare rapidamente enormi quantità di dati, al fine di generare migliaia di potenziali “bersagli” per attacchi militari, nel vivo di una guerra. 

Tale tecnologia, scrive, risolverebbe quello che ha descritto come un “collo di bottiglia umano”, sia per l’individuazione dei nuovi obiettivi, sia per quanto riguarda il processo decisionale”.

Oggi si scopre che una macchina del genere esiste davvero. Una nuova inchiesta di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma, chiamato Lavender, basato proprio sull’intelligenza artificiale. 

Secondo sei ufficiali dell’intelligence israeliana, impegnati negli ultimi tempi nella Striscia di Gaza e coinvolti in prima persona nell’uso dell’AI per generare obiettivi da abbattere, Lavender avrebbe svolto un ruolo centrale nel bombardamento dei territori palestinesi, soprattutto durante le prime fasi dell’escalation. Lavender, secondo le testimonianze, operava “come una mente umana”.

Il software analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa. Quindi valuta e classifica la probabilità che ogni particolare persona sia attiva nell’ala militare di Hamas o PIJ. Secondo le fonti, la macchina attribuisce a quasi ogni singola persona a Gaza un punteggio da 1 a 100, esprimendo la probabilità che sia un militante. 

Lavender imparerebbe a identificare le caratteristiche di noti agenti di Hamas e PIJ, le cui informazioni sono state fornite alla macchina come dati di addestramento. Un individuo che presenta diverse caratteristiche incriminanti raggiungerà un punteggio elevato e quindi diventerà automaticamente un potenziale bersaglio per l’assassinio. 

In teoria Lavender è stato progettato per identificare tutti i sospetti agenti nelle ali militari di Hamas e della Jihad islamica palestinese (PIJ), compresi quelli di basso rango, come potenziali obiettivi di bombardamento. Ma le fonti hanno riferito a +972 e Local Call che l’esercito per settimane si sarebbe affidato quasi completamente a Lavender, che ha identificato fino a 37000 palestinesi, segnalandoli come sospetti militanti e riconoscendoli quindi come obiettivi per gli attacchi aerei. 

Per i comandanti israeliani, i militari dovevano adottare i protocolli di Lavender, senza alcun obbligo di verificare attentamente il motivo per cui la macchina faceva proprio quelle scelte e senza esaminare i dati raccolti dall’intelligence. 

Tutto ciò avveniva nonostante si sapesse che il sistema commetteva “errori” in almeno il 10% dei casi. Era anche noto che, occasionalmente, l’IA contrassegnava individui con solo un legame occasionale con gruppi militanti. A volte, addirittura nessun legame.

L’esercito israeliano, inoltre, ha attaccato sistematicamente le persone mentre si trovavano nelle loro case – di solito di notte, quando erano presenti tutte le loro famiglie – piuttosto che nel corso di un’attività militare. Secondo le fonti, ciò era dovuto al fatto che, dal punto di vista dell’intelligence, era più facile localizzare le persone nelle loro case private. 

Ulteriori sistemi automatizzati, incluso uno chiamato “Dov’è papà?”, rivelati per la prima volta in questa inchiesta, venivano utilizzati appositamente per rintracciare “obiettivi” ed effettuare attentati, nelle loro abitazioni, insieme alle loro famiglie. Migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti – sono stati così spazzati via dagli attacchi aerei israeliani.

“Non eravamo interessati a uccidere gli agenti di Hamas solo quando si trovavano in un edificio militare o erano impegnati in un’attività militare”, ha detto A., un ufficiale dell’intelligence, a +972 e Local Call. “Al contrario, l’IDF li ha bombardati nelle case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per individuarli proprio in queste situazioni”. L’unico controllo prima dell’attacco, da parte dell’esercito israeliano, era verificare che l’obiettivo fosse di sesso maschile. 

Quando si è trattato di prendere di mira i presunti militanti contrassegnati da Lavender, l’esercito avrebbe preferito utilizzare solo missili non guidati, comunemente noti come bombe “a caduta libera” (a differenza delle bombe di precisione definite “intelligenti”), che possono distruggere interi edifici.

“Non vuoi sprecare bombe costose per persone non importanti: sarebbe una scelta molto costosa per il Paese e c’è carenza di quelle bombe”, ha detto C., uno degli ufficiali. Un’altra fonte ha affermato di aver autorizzato personalmente il bombardamento di “centinaia” di case private di presunti giovani agenti, identificati come tali da Lavender, dichiarando che molti di questi attacchi hanno ucciso civili e intere famiglie, solo ed esclusivamente come quello che viene chiamato “danno collaterale”.

Con una mossa senza precedenti, secondo due fonti, le regole d’ingaggio dell’esercito hanno portato a eliminare fino a 15 o 20 civili per colpire ogni singolo agente di Hamas, segnalato come tale da Lavender. In passato non era stato autorizzato nessun danno collaterale durante gli omicidi di militari di basso rango. Le fonti aggiungono che, per colpire un alto funzionario di Hamas – comandante di battaglione o di brigata – l’esercito in diverse occasioni ha autorizzato l’uccisione di più di 100 civili nell’assassinio dello stesso.

Nell’esercito israeliano, il termine “bersaglio umano” in passato si riferiva a un agente militare di alto livello che, secondo le regole del Dipartimento di Diritto Internazionale dell’esercito, poteva essere ucciso nella sua casa privata, anche se vi erano civili nelle vicinanze. Fonti dell’intelligence sostengono che nelle offensive precedenti, gli obiettivi umani venivano individuati con molta attenzione. 

Per questo, solo i comandanti militari anziani venivano bombardati nelle loro case, per mantenere il principio di proporzionalità previsto dal diritto internazionale. Ma dopo il 7 ottobre, quando i militanti guidati da Hamas hanno lanciato l’ attacco mortale contro le comunità del sud di Israele, uccidendo circa 1.200 persone e rapendone 240, l’esercito avrebbe adottato un approccio radicalmente diverso. 

Nell’Operazione “Spade di Ferro”, l’esercito israeliano ha deciso di identificare tutti gli agenti dell’ala militare di Hamas come bersagli umani, indipendentemente dal loro grado o importanza militare. E questo ha cambiato tutto.

La nuova politica poneva però all’intelligence israeliana un problema tecnico. In passato, per autorizzare l’assassinio di un singolo obiettivo umano, un ufficiale doveva passare attraverso un lungo e complesso processo di “incriminazione”. Doveva essere verificato che la persona fosse effettivamente un membro anziano dell’ala militare di Hamas, individuare il luogo dove si nascondeva, scoprire i suoi recapiti e conoscere in tempo reale la sua posizione. Quando l’elenco degli obiettivi contava poche dozzine di agenti senior, il personale dell’intelligence poteva “incriminarli” e localizzarli.

Una volta che l’elenco fu ampliato, fino ad includere decine di migliaia di agenti di rango inferiore, l’esercito israeliano capì di dover fare affidamento su software automatizzati e quindi sull’ intelligenza artificiale. Lavender permetteva di rispondere a questo obiettivo. “Abbiamo inserito tutto nei sistemi automatizzati e non appena uno degli obiettivi che avevamo individuato è rientrato a casa, è diventato immediatamente un bersaglio. Abbiamo bombardato lui e la sua casa”. Ha raccontato B. 

“È stato assurdo per me che ci fosse stato chiesto di bombardare un intero edificio per uccidere un solo soldato, la cui importanza nei combattimenti era così bassa”, ha aggiunto una fonte. “Ho soprannominato quegli obiettivi ‘bersagli spazzatura”.

“Un tasso così elevato di “danni collaterali” è eccezionale non solo rispetto a quanto ritenuto accettabile in precedenza dall’esercito israeliano, ma anche rispetto alle guerre intraprese dagli Stati Uniti in Iraq, Siria e Afghanistan” racconta B. Che aggiunge “Ci è stato detto: Tutto quello che puoi, bombarda”. E così è stato.