Guerra e falsità: l’impatto dell’IA tra Iran e media | QB Quotidiano Bellico del 11 marzo 2026
Guerra e falsità: l’impatto dell’IA tra Iran e media
L’uso dell’intelligenza artificiale in guerra è al centro di uno scontro tra il Pentagono e una grande azienda del settore, tra questioni etiche e limiti al suo uso. Mentre dilagano i video fake sulla guerra generati con AI, per propaganda e per guadagnare dai clic.
L’annuncio del Wall Street Journal di qualche giorno fa sull’uso dell’intelligenza artificiale negli attacchi statunitensi all’Iran non è nuovo e non deve sorprenderci, perché segue un lungo dibattito sull’uso dell’IA per l’elaborazione di dati provenienti da molteplici fonti (telecamere di sicurezza, satelliti, software di identificazione, sistemi a infrarossi e così via) che permettono una più raffinata definizione degli obiettivi e dei momenti per colpirli, come abbiamo ampiamente imparato dalla guerra dei droni in Ucraina e soprattutto dalla guerra contro Gaza poi.
C’è un secondo dato però che sfugge alla attenzione dei media anche se legato alla comunicazione ovvero quanto l’IA sia una tecnologia veicolata, disegnata, raccontata dagli stessi produttori e finanziatori come pericolosa e potenzialmente soverchiante. La sua fama e la sua bolla di finanziamenti è stata fin dall’inizio presentata così, e come ha fatto notare un comunicatore tra i più attenti, Giuseppe Mazza, non si era ancora visto un prodotto presentato dai suoi stessi promotori come una minaccia così grave per il mondo e allo stesso tempo così richiesta. Fa parte della narrazione.
Ma andiamo con ordine. Dopo l’attacco al Venezuela del 3 gennaio l’amministrazione USA fa trapelare che parte dell’operazione è dovuta all’uso dell’IA per acquisire ed elaborare una massa enorme di dati che hanno reso fattibile un’operazione in effetti senza molti precedenti. La società Anthropic, prima società di IA ad ottenere un contratto da 200 milioni di dollari col Pentagono e a mettere a disposizione dell’amministrazione una versione personalizzata della propria piattaforma Claude per integrarsi anche ai sistemi di informazione classificati, chiede al ministero se la sua piattaforma fosse stata usata per tali scopi. Il ministero della Guerra risponde intimando ad Anthropic di rimuovere eventuali limiti all’utilizzo del software. Per fare cosa? La risposta arriva il 26 febbraio da una dichiarazione di Dario Amodei (Ceo di Anthropic) e apre la prima crisi “etica” sull’uso dell’IA da parte del potere pubblico.
“Anthropic è consapevole che è il Dipartimento della Guerra, non le aziende private, a prendere decisioni militari. Non abbiamo mai sollevato obiezioni a specifiche operazioni militari, né abbiamo tentato di limitare l’uso della nostra tecnologia in modo mirato. Tuttavia, in un ristretto numero di casi, riteniamo che l’IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile. Due di questi casi d’uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Guerra e riteniamo che non dovrebbero esserlo ora”, scrive Amodei.
I due “casi d’uso” negati riguardano la “sorveglianza interna di massa” perché illegale e senza una normazione, dicono quelli di Anthropic. E poi le “armi completamente autonome” perché “i sistemi di intelligenza artificiale di frontiera non sono sufficientemente affidabili per alimentare armi completamente autonome”, spiega Anthropic e “non forniremo consapevolmente un prodotto che mette a rischio i combattenti e i civili americani”.
Una questione “etica” quindi. E non a caso Claude si autodefinisce “una famiglia di modelli di linguaggio di grandi dimensioni (LLM) sviluppata da Anthropic, progettata per essere un’IA sicura, affidabile e costituzionale”, nel senso che ha proprio una sorta di Costituzione consultabile online alla cui elaborazione ha contribuito la filosofa scozzese Amanda Askell per “essere davvero utile alle persone con cui o per conto di cui lavora, così come alla società, evitando al contempo azioni non sicure, non etiche o ingannevoli”.
Il ministro della Guerra Pete Hegseth reagisce male e dice che la dichiarazione di Anthropic potrebbe rappresentare “un rischio nella catena di approvvigionamento” del Pentagono. E Trump caccia l’azienda: “Il presidente degli Stati Uniti ha ordinato a tutte le agenzie federali di smettere immediatamente di utilizzare l’intelligenza artificiale della società”. Due giorni dopo Anthropic viene rimpiazzata da OpenAI (dal cui management proviene Amodei) che firma un contratto in cui secondo il Pentagono “acconsente all’utilizzo dei suoi servizi per qualsiasi scopo legale con alcune generiche limitazioni”.
Il dibattito, intanto, si infiamma: Claude di Anthropic diventa l’app di IA più scaricata negli USA mentre il suo CEO di OpenAI Sam Altman dichiara che i sistemi di intelligenza artificiale “non devono essere utilizzati intenzionalmente per la sorveglianza interna di cittadini e residenti statunitensi” e che questi non saranno usati dalle agenzie di intelligence del dipartimento, come ad esempio la National Security Agency. Il riferimento è all’ICE ovviamente. Il New York Times solleva dei dubbi sull’effettiva capacità di OpenAI di limitare gli usi dei suoi software da parte delle Agenzie federali. E la responsabile del dipartimento di robotica di OpenAI, Caitlin Kalinowski, annuncia le proprie dimissioni affermando che alcune recenti decisioni dell’azienda avrebbero richiesto “più riflessioni di quante ne sono state fatte”.
Gran finale: Anthropic fa causa al Pentagono presso un Tribunale federale della California perché il governo non può usare il proprio potere per punire una azienda per le sue posizioni pubbliche o etiche, escludendo i suoi prodotti dalle agenzie federali dopo averli definiti “un rischio per la catena di approvvigionamento”. Ne va della libertà di espressione e di impresa.
Ma per cosa viene usata l’Intelligenza artificiale davvero? Alla domanda ha provato a rispondere la Newsletter “Guerre di rete” di Carola Frediani, una delle massime esperte in Italia sul tema. “Secondo fonti di Wired Usa, Claude Gov sarebbe utilizzato principalmente per compiti di routine, come la redazione di rapporti e la sintesi di documenti, ma anche per l’analisi delle informazioni e la pianificazione militare”. Per un’altra newsletter specializzata, AI Update, sempre citata da Frediani: “Viene utilizzato per elaborare dati di intelligence, identificare pattern nelle immagini satellitari e nelle comunicazioni intercettate, eseguire simulazioni e generare briefing. Pensatelo come l’assistente di ricerca più costoso al mondo, non come un Terminator. Ma il confine tra ‘supportare le decisioni’ e ‘prendere decisioni’ diventa rapidamente sfumato quando si elaborano i dati che determinano dove cadrà il prossimo missile”.
In realtà i sistemi di sicurezza USA utilizzano tanti strumenti diversi di IA: Google, OpenAI e xAI (l’azienda di Elon Musk), ma Anthropic era quella più coinvolta perché integrava i propri dati con Palantir, la piattaforma che gestisce anche i documenti secretati per motivi di sicurezza nazionale. Proprio nell’incrocio tra Claude e Palantir sarebbe sorto il problema “etico”. Commenta Carola Frediani: “Si sta cementando un complesso militare-industriale con al centro l’intelligenza artificiale, su cui i governi (in primis, quello Usa), ossessionati dal raggiungere la supremazia tecnologica, stanno scommettendo moltissimo e per cui sono disposti a far saltare qualsiasi regola, anche nei rapporti con le società produttrici. E, d’altro canto, queste ultime, affamate di utili che ancora non arrivano, non si fanno alcuno scrupolo a siglare contratti coi militari, whatever it takes. Tutto ciò, in uno scenario in cui le conseguenze di questa rapidissima integrazione tra IA e sistemi d’arma e d’intelligence sono ancora tutte da capire (in termini di affidabilità, sicurezza, risvolti etici, legali) e prospettano scenari distopici.”
Possiamo comprendere dove siamo arrivati dal report di Marwa Fatafta e Daniele Leufer per Acces Now, una Organizzazione internazionale di promozione dei diritti umani, che raccontano di Gaza come “Laboratorio tecnologico sperimentale” in questo modo: “I sistemi di puntamento israeliani basati sull’intelligenza artificiale Lavander e The Gospel [entrambi sviluppati in Israele e di esclusivo uso dell’esercito israeliano] stanno automatizzando massacri e distruzioni di massa in tutta la Striscia di Gaza. Questa è l’apoteosi di molte tendenze che violano i diritti umani attraverso l’intelligenza artificiale come i sistemi di sorveglianza biometrica e gli strumenti di polizia predittiva. La guerra potenziata dall’intelligenza artificiale a Gaza dimostra l’urgente necessità che i governi vietino l’uso di tecnologie incompatibili con i diritti umani sia in tempo di pace che in tempo di guerra”.
E possiamo vedere una mappa dettagliata degli incastri ramificati, dinamici e pervasivi prodotti dall’IA in un’opera “quasi d’arte” (ci permetterà l’autrice) che si chiama “AI War Cloud”: “un database interattivo e un’installazione interattiva tangibile che collega e spiega l’attuale boomerang tecno-imperiale perpetuato dall’apprendimento automatico”. In sostanza l’autrice, Sarah Ciston “artista e ricercatrice che sviluppa strumenti per creare approcci intersezionali e criticamente creativi all’apprendimento automatico”, leggiamo dal suo profilo alla Academy fo Media Arts di Colonia, con questa installazione visuale e digitale con cui ha vinto l’Ars Electronica STARTS Grand Prize 2025, illustra “il processo decisionale dell’IA dal campo di battaglia al desktop”, perché le stesse tecnologie che usiamo per fare video o foto sono collegate ed elaborate alla macchina della guerra.
Per comprendere la pervasività e la scarsa conoscenza di quello che comporta l’uso dei software di IA, il Parlamento europeo avrebbe disposto la disattivazione delle funzionalità di intelligenza artificiale sui dispositivi di lavoro dei legislatori e del personale del Parlamento per motivi di sicurezza informatica e protezione dei dati (TikTok era già vietato).
D’altronde il legame complesso tra guerra e intelligenza artificiale è davanti agli occhi del mondo per la quantità di video falsi costruiti sulla guerra (e ormai su qualsiasi cosa) monetizzati dai click della rete. Come ricorda la newsletter The DeepView: “Il problema è diventato così grave su X che la piattaforma ha rilasciato una dichiarazione il 3 marzo, avvertendo che qualsiasi creatore partecipante al programma di condivisione dei ricavi avrebbe subito la sospensione immediata della monetizzazione per 90 giorni se avesse pubblicato “video generati dall’intelligenza artificiale relativi a un conflitto armato, senza aggiungere una dichiarazione che indicasse che erano stati realizzati con l’intelligenza artificiale”.
Scrive la BBC, tra i media che più si interrogano sulla verifica dei video: “Abbiamo chiesto a TikTok e Meta, la società di Facebook e Instagram, se intendono adottare misure simili, ma non hanno risposto alle nostre richieste di commento”. Intanto video di aerei abbattuti, palazzi in fiamme e gente in fuga si moltiplicano: “Un altro video falso che mostrava missili che colpivano una zona densamente popolata del centro di Tel Aviv ha ottenuto 20 milioni di visualizzazioni e si è rivelato essere generato dall’intelligenza artificiale, ma il chatbot Grok [di xAI di Elon Musk] ha falsamente affermato che fosse reale quando gli utenti hanno cercato di verificarlo”, racconta The Deep View.
FONTI
La Costituzione di Claude Anthropic: Claude’s Constitution / Anthropic https://www.anthropic.com/constitution
Guerre di rete, Carola Frediani: https://guerredirete.substack.com/p/guerre-di-rete-lai-va-in-guerra-cera
La guerra e l’uso dell’IA a Gaza nell’analisi di Acces Now: https://www.accessnow.org/publication/artificial-genocidal-intelligence-israel-gaza/
Ai War Cloud di Sarah Ciston: https://aiwar.cloud/
Il premio Ars Electronica: https://ars.electronica.art/starts-prize/de/ai-war-cloud-database/
Politico.eu: Parlamento Europeo disattiva integrazione con AI: https://www.politico.eu/article/eu-parliament-blocks-ai-features-over-cyber-privacy-fears/
DeepView: https://archive.thedeepview.com/p/ai-war-fakes-are-fooling-millions
Bbc News, i video falsi generati dall’IA sulla guerra: https://www.bbc.com/news/articles/ckg8wvz427vo
QB – Quotidiano bellico è la rubrica di EMERGENCY e R1PUD1A per decostruire la narrazione bellicista che ci circonda, attraverso il fact-checking, l’analisi e la lettura critica di notizie, interviste e report. Per ricordare, forte e chiaro, che l’Italia (e non solo) ripudia la guerra. E che le cittadine e i cittadini del mondo vogliono la pace.
QB – Quotidiano bellico è un’iniziativa della campagna R1PUD1A, che puoi scoprire sul sito ripudia.it.