Le principali aziende tecnologiche statunitensi, tra cui Microsoft, OpenAI, Google e Amazon, hanno fornito a Israele strumenti avanzati di intelligenza artificiale (IA) e cloud computing, finalizzate ad accelerare l'identificazione e l'eliminazione di presunti miliziani a Gaza e in Libano dopo l'attacco di Hamas del 7 ottobre 2023. Tuttavia, l'uso di queste tecnologie è associato a un drastico aumento delle vittime civili e a preoccupazioni etiche sul loro ruolo in operazioni belliche, secondo un'indagine dell'Associated Press basata su documenti interni e interviste con fonti militari e dipendenti aziendali.
In seguito all'attacco, che causò poco meno di 1.200 morti e 250 prigionieri, l'esercito israeliano ha intensificato l'uso di sistemi IA per analizzare dati di intelligence, comunicazioni intercettate e sorveglianza di massa. Microsoft Azure, la piattaforma cloud che ospita i modelli OpenAI come ChatGPT, è diventata centrale per elaborare tali informazioni da parte delle IDF, tanto da registrarne un aumento dell'utilizzo di 200 volte rispetto al periodo precedente all'ottobre 2023. Il progetto coinvolge anche Google e Amazon attraverso il “Progetto Nimbus”, un contratto da 1,2 miliardi di dollari per servizi cloud, oltre a collaborazioni con Cisco, Dell e Palantir Technologies.
L'IA ha permesso a Israele di accelerare la selezione degli obiettivi. Per tale motilvo lo Stato ebraico l'ha defiunita un “punto di svolta” strategico. Tuttavia, i dati rivelano oltre 50.000 morti a Gaza e in Libano e il 70% degli edifici distrutti a Gaza. Errori algoritmici, traduzioni automatiche errate (es. dall'arabo all'ebraico) e dati imperfetti hanno portato a bersagli errati, secondo fonti della stessa intelligence israeliana. Nonostante i controlli umani, esperti come Heidy Khlaaf dell'AI Now Institute evidenziano rischi di “guerra immorale e illegale”.
Microsoft, principale investitore di OpenAI, ha rifiutato di commentare i contratti militari. OpenAI nega partnership dirette con l'esercito israeliano, ma ha modificato i termini d'uso per consentire applicazioni in operazioni di “sicurezza nazionale”. Google ha seguito l'esempio, rimuovendo il divieto esplicito sull'uso dell'IA finalizzato all'utilizzo in armamenti. L'esercito israeliano difende l'impiego di questi strumenti, sostenendo che rispettino il diritto internazionale e riducano le vittime civili, sebbene le evidenze di quanto accaduto negli ultimi 15 mesi contraddicano tali affermazioni.
Il caso solleva importanti interrogativi etici sull'uso dell'IA in scenari bellici, con evidenti criticità nella mancanza di trasparenza delle aziende informatiche e sui potenziali abusi di tecnologie sviluppate per scopi civili.