Mona Shtaya – 16/09/2024
Nel corso dell’ultimo anno Israele ha armato l’intelligenza artificiale nel suo genocidio a Gaza, dispiegando sistemi di sorveglianza guidati dall’intelligenza artificiale e sistemi di targeting automatizzati che hanno ucciso decine di migliaia di persone. La partecipazione di Israele al primo trattato globale sull’IA solleva seri interrogativi.
È profondamente preoccupante che a Israele sia stato permesso di aderire al primo trattato globale sull’intelligenza artificiale (AI), un accordo volto a regolamentare l’uso responsabile dell’IA nel rispetto dei diritti umani, della democrazia e dello stato di diritto. Per 11 mesi consecutivi, Israele ha armato l’intelligenza artificiale nel suo genocidio a Gaza, dispiegando sistemi di sorveglianza guidati dall’intelligenza artificiale e sistemi di targeting automatizzati che hanno inflitto danni devastanti ai civili. Eppure, Israele sta ora celebrando la sua partecipazione a questo trattato insieme agli Stati Uniti, al Regno Unito e all’UE, dopo aver trascorso due anni al tavolo dei negoziati e aver contribuito a redigere il primo trattato internazionale sull’IA per una governance etica dell’IA. Questa contraddizione mette a nudo un’evidente ipocrisia e solleva seri interrogativi sul vero impegno della comunità internazionale per l’assunzione di responsabilità.
Il trattato si applica principalmente all’IA del settore pubblico, ma affronta anche i rischi del settore privato. I firmatari del trattato concordano di sostenere principi come la trasparenza, la responsabilità e la non discriminazione e si impegnano a stabilire rimedi per le violazioni dei diritti umani legate all’IA. Il trattato impone valutazioni del rischio, misure di mitigazione e obblighi graduali in base a contesti specifici, garantendo flessibilità nella sua applicazione.
Fin dall’inizio di questo genocidio in corso, Israele ha armato l’intelligenza artificiale e le tecnologie avanzate per effettuare l’uccisione massiccia e indiscriminata di civili. Lo stato dell’apartheid ha sfruttato l’intelligenza artificiale per la sorveglianza, il targeting e il processo decisionale. Israele ha intensificato i suoi sforzi per controllare e opprimere il popolo della Striscia di Gaza, continuando una lunga storia di oppressione sistematica del popolo palestinese. Questo uso improprio della tecnologia suscita profonde preoccupazioni, portando a conseguenze devastanti per vite innocenti prese nel fuoco incrociato.
A differenza dell’agenda “IA per il bene comune” delineata nei trattati globali sull’IA, il programma israeliano di IA “Lavender” è emerso come un oscuro fulcro del genocidio in corso a Gaza. A sole due settimane dall’inizio della guerra, le liste di uccisioni di Lavender sono state automaticamente approvate, prendendo di mira sospetti militanti – tra cui molti membri di basso rango di Hamas e della Jihad islamica palestinese – con una minima supervisione umana. Nelle prime settimane di guerra, Lavender ha segnalato fino a 37.000 palestinesi e le loro case come obiettivi dei bombardamenti. Questa militarizzazione dell’IA ha portato a devastanti vittime civili, poiché i criteri ampi e soggetti a errori di Lavanda hanno portato ad attacchi indiscriminati alle case, causando un orribile bilancio di vittime. A differenza di altri sistemi come “The Gospel”, che prende di mira gli edifici, Lavender si concentra sugli individui, amplificando la tragedia dei suoi passi falsi.
Mentre il trattato internazionale sostiene l’uso responsabile dell’intelligenza artificiale, sostenendo i diritti umani e lo stato di diritto, il sistema di intelligenza artificiale israeliano “Habsora”, o “Il Vangelo”, è in netto contrasto. Schierato dall’inizio della guerra di Gaza, Habsora agisce come uno strumento altamente automatizzato per la generazione di obiettivi per le operazioni militari israeliane. Capace di produrre rapidamente elenchi di obiettivi, facilita attacchi su vasta scala alle case residenziali, comprese quelle di membri di basso rango di Hamas. Dal 7 ottobre, Habsora ha causato significative vittime civili, con attacchi che spesso hanno colpito case senza una presenza confermata di militanti. Gli ampi criteri di targeting del sistema e la minima supervisione hanno portato a una distruzione di massa, così come alla cancellazione delle caratteristiche geografiche della Striscia di Gaza e all’annientamento del suo popolo.
Prima di questa guerra, e negli ultimi due anni, mentre lo stato di sorveglianza contribuiva alla stesura dell’agenda della Convenzione, Israele non era inattivo, ma piuttosto automatizzava sistematicamente il suo sistema di apartheid. Dal cosiddetto “tiratore intelligente” di Hebron alle tecnologie di riconoscimento facciale, ha armato tecnologie rivoluzionarie per colpire e uccidere i palestinesi.
Tra il 2020 e il 2021, le indagini hanno rivelato la crescente dipendenza di Israele dalla sorveglianza avanzata e dalle tecnologie predittive per controllare i palestinesi. Questa supervisione digitale, parte di una strategia più ampia, opera sia come mezzo di repressione che come impresa commerciale, con Israele che testa le sue tecniche di sorveglianza sui palestinesi prima di commercializzarle ai regimi repressivi a livello globale. Lo stato di sorveglianza impiega un’ampia sorveglianza, tra cui il riconoscimento facciale e sistemi di tracciamento automatizzati come “Blue Wolf” e “Red Wolf”, per monitorare e intromettersi nella vita quotidiana dei palestinesi. Queste tecnologie, insieme al controllo di Israele sull’infrastruttura delle tecnologie dell’informazione e della comunicazione (ICT), intensificano il senso di controllo costante, violando la privacy e soffocando la libertà di espressione, oltre a minacciare l’accessibilità palestinese a Internet e chiuderlo ogni volta che lo stato oppressivo decide di coprire i suoi crimini di guerra. Questo approccio non solo rafforza l’apartheid automatizzato, ma funge anche da esempio preoccupante di come l’intelligenza artificiale, tra le altre tecnologie, sia stata utilizzata come arma per servire la sicurezza e la militarizzazione di uno stato di apartheid, a cui ora è stata data, su un piatto d’oro, l’opportunità di plasmare e aderire al primo trattato sull’intelligenza artificiale.
La partecipazione di Israele al primo trattato globale sull’IA, destinato a promuovere l’uso etico dell’IA e a sostenere i diritti umani, è in netto contrasto con le sue pratiche effettive. Per mesi, Israele ha utilizzato sistemi di intelligenza artificiale avanzati come “Lavender” e “Habsora” per prendere di mira e uccidere i civili a Gaza, il tutto mentre celebrava il suo ruolo nella stesura di un trattato che afferma di garantire una governance responsabile dell’intelligenza artificiale. Questa contraddizione non solo mette in luce un’ipocrisia preoccupante, ma solleva anche seri interrogativi sull’impegno della comunità internazionale per un’autentica responsabilità. Mentre Israele continua a sfruttare l’intelligenza artificiale per l’oppressione, mina i principi stessi che il trattato avrebbe dovuto sostenere. Il mondo deve esaminare questa disparità e chiedere conto a Israele per prevenire l’abuso della tecnologia e proteggere i diritti umani a livello globale.
‘Operation al-Aqsa Flood’ Day 345: Israel threatens Lebanon again |
Qassam Muaddi |
Israeli settler violence continues to terrorize Palestinians in the Jordan Valley as the U.S. envoy arrives in the region to deescalate tensions along Lebanon’s southern border. |
Read more |