Quelli che credono nei missili fatti con l’AI che sventrano Israele | Rolling Stone Italia
Benvenuti in AIran

Quelli che credono nei missili fatti con l’AI che sventrano Israele

Un giro sui social dove nei video fatti con l’intelligenza artificiale Tel Aviv è rasa al suolo e gli israeliani scappano come topi. Consolazione e vendetta a colpi di fake. C’entrano la propaganda, i soldi, un bisogno psicologico

Quelli che credono nei missili fatti con l’AI che sventrano Israele

Video degli attacchi dell’Iran a Israele creati con l’intelligenza artificiale

Foto: Instagram

Lo scudo antimissilistico dell’Iran che annienta tutti i lanci del nemico creando una barriera impenetrabile. Tel Aviv semidistrutta dai razzi iraniani e sempre più somigliante a Gaza. Cittadini israeliani che scappano come topi durante gli attacchi. Palazzi colpiti che crollano istantaneamente. Non so voi, ma negli ultimi giorni nelle mie timeline di Instagram, X e Threads i video degli influencer italiani che vivono a Dubai sono stati sostituiti da immagini della schiacciante superiorità della forza militare dell’Iran, che annienta il nemico sionista. Hanno una cosa in comune: sono creati dall’intelligenza artificiale.

Dopo l’inizio dell’operazione Epic Fury, lo stato avanzato dell’AI ha permesso di creare un’ondata di video e foto fake forse senza precedenti, volti a dare una percezione distorta del conflitto e forse anche a soddisfare un bisogno psicologico. Qualcosa di simile si era visto solo nella Guerra dei dodici giorni nel 2025. Video che anni fa richiedevano una produzione semi-professionale ora possono essere realizzati in pochi minuti. La caduta di ogni barriera tecnologica non ha reso più facile solo confezionare, ma anche monetizzare video del genere. Secondo l’Head of product di X citato dalla BBC, la stragrande maggioranza degli account che diffondono video del genere sulla piattaforma lo fanno allo scopo di guadagnare sull’engagement grazie al programma Creator Revenue Sharing. È stata quindi annunciata la revisione delle politiche di condivisione poiché «in tempo di guerra, è fondamentale che le persone abbiano accesso a informazioni autentiche provenienti dal campo». Del resto, che cosa crea reazioni emotive più di un video in cui un nemico odioso viene annientato?

Bombardamenti fake vengono commentati e condivisi decine di migliaia di volte, cumulando decine di milioni di visualizzazioni. La guerra può essere anche un affaruccio per content creator che ha come ricaduta non secondaria l’ulteriore dissoluzione del confine tra realtà e fantasia, informazione e disinformazione, e indebolisce tra le altre cose l’idea diffusasi dalle nostre parti ai tempi della Primavera araba dei social come possibile fonte d’informazione sul campo in grado di bypassare il filtro di governi autoritari. Uno dei punti di riferimento nelle ultime settimane è diventato BBC Verify, che con la sua opera di debunking ha contribuito alla consapevolezza del problema, ma tenere il passo con la produzione di foto e video è impossibile. Nemmeno le intelligenze artificiali dei social come Grok riescono a individuare in modo sempre corretto se un’immagine è prodotta o meno con l’AI. Se è tutto falso, niente è reale, e tanto vale tenersi la propria opinione sull’andamento del conflitto. È sempre stato un problema in tempo di guerra, l’AI sta contribuendo a rendere capillare la falsificazione della realtà.

 

 
 
 
 
 
Visualizza questo post su Instagram
 
 
 
 
 
 
 
 
 
 
 

 

Un post condiviso da IRAN (@_iranwar_2026)

La parola chiave è shallowfake, ovvero l’alterazione di foto e video partendo da immagini reali, laddove il deepfake le crea da zero. Lo shallowfake non costa nulla e rende tanto. I video hanno una parvenza di realtà e quindi possono ingannare sia chi non li esamina in modo attento, sia chi esprime giudizi alterati dall’adesione a una o all’altra parte. Se speri che i missili facciano strage di quelli che consideri nemici, quando troverai un video che lo conferma sarai più propenso a crederci. La partigianeria offusca il giudizio quando una colonna di fumo che si alza da un edificio (vero) diventa un incendio gigantesco che interessa interi isolati (falso). Crediamo che sia la realtà perché vogliamo che sia tale. Non c’entra solo la monetizzazione delle emozioni. È anche una questione di creazione di consenso in un periodo di crisi. La propaganda non è più solo centralizzata, ma diffusa. Con il risultato uguale e contrario che i video manipolati spingono a pensare che lo siano tutti quelli che vediamo, come è successo nel caso di Pallywood, etichetta appicciata a qualsiasi immagine sconveniente proveniente da Gaza considerata falsa da chi non voleva vedere la realtà o non voleva che gli altri la vedessero.

In questa logica piegata al falso, i video fatti con l’AI sono verità e chi non li trasmette opera una censura. Si legge spesso sui social che se non vediamo Israele in ginocchio è perché nel Paese è stata imposta la censura militare e diffondere anche un solo video delle devastazioni costa cinque anni di reclusione. Secondo questo filone narrativo, il regime sionista impedisce ai cittadini stranieri di entrare nei bunker, Tel Aviv è semi-distrutta, Netanyahu è probabilmente morto, anzi è sicuramente morto e il suo cadavere giace in una località segreta nel centro del Paese. 

Non ci sono solo deepfake e shallowfake. Vengono usati anche video tratti da altri conflitti o ad altri scenari di crisi e così può capitare che si attribuisca a un attacco iraniano il video di un incendio in un deposito di munizioni in Ucraina. La Scozia diventa Israele, un magazzino cinese in fiamme è una città colpita da un missile, i festeggiamenti dei tifosi algerini con i fuochi d’artificio illustrano una azione bellica degli iraniani, un atterraggio di emergenza a Denver diventa un attacco all’aeroporto Ben Gurion, un missile israeliano su Beirut si trasforma in un missile iraniano su Tel Aviv. Quello che viene venduto come il caos per un imminente attacco iraniano è in realtà una scena di panico avvenuta a Tel Aviv ad aprile 2025, quando una persona sospetta aveva cercato di entrare nell’area di un evento. È l’arte del videoriciclo nell’era dei social.

 

 
 
 
 
 
Visualizza questo post su Instagram
 
 
 
 
 
 
 
 
 
 
 

 

Un post condiviso da The Times of Maldives (@thetimesofmaldives)

In questa guerra in cui gli obiettivi vengono scelti anche con l’uso dell’AI e i cyber-attacchi aprono la strade alle bombe, l’Iran sta effettivamente colpendo Israele superando il suo sistema di difesa e non c’è giorno in cui le testate giornalistiche israeliane non riportino notizie di attacchi, feriti, morti, oppure dichiarazioni di ufficiali dell’IDF sulla difficoltà nell’intercettare droni o servizi televisivi sugli effetti delle testate a grappolo lanciate dagli iraniani, che durante la discesa a terra disperdono decine di submunizioni. Nel mondo dei social, però, la controffensiva iraniana è mille volte più precisa e spietata, i nemici sono scoraggiati, i civili corrono spaventati verso la morte. È un racconto compiaciuto, i commenti sono entusiasti, mossi dal desiderio di vendetta. «Radiamo al suolo Israele come hanno fatto loro a Gaza». Abbondano emoji di mani che applaudono, bandierine, cuori, fiamme, pollici su, popcorn. La morte porta gioia, è una forma di intrattenimento in cui, come al cinema, conta la sospensione dell’incredulità. Gli israeliani sono rappresentati nelle vignette create con l’AI e nelle gif come topi (ricorda qualcosa?) o scarafaggi in fuga. Scappando dimostrano che quella non è la loro terra promessa. È un racconto che spesso s’inserisce in un più ampio quadro complottista e antisemita in cui Israele è uno Stato satanico fatto di pedofili complici di Epstein i cui cittadini dovrebbero tornare in Europa, in una specie di fantasiosa remigrazione anticolonialista. Non a caso i commenti si ripetono uguali in un post dopo l’altro.

Chi fa notare che si tratta di fake viene considerato un idiota, un sostenitore della guerra di Trump e Netanyahu, oppure gli viene risposto che anche se il video non è vero, riflette comunque la realtà. O ancora, con un salto logico che non ammette repliche, che i massacri e le distruzioni a Gaza non sono fake. Un fotoreporter di Gaza ha condiviso un video di un presunto attacco iraniano a cui è associato il commento: «Tel Aviv, spogliata di ogni illusione, come non l’avete mai vista prima». Ha poi dovuto ammettere che si trattava di un falso, senza arretrare, ma anzi rilanciando: «L’ho condiviso perché la scena riflette, in modo doloroso, ciò che Gaza ha dovuto sopportare sotto i bombardamenti israeliani. Non cancello il post per trasparenza. Il video potrebbe non essere reale, ma la devastazione che evoca lo è e rispecchia ciò che hanno vissuto i palestinesi».

Molti video su Instagram, come uno che mostrerebbe la distruzione del quartier generale del Mossad, sono accompagnati dal disclaimer “Questo video è stato generato utilizzando l’intelligenza artificiale al solo scopo di intrattenimento”. Molti non ne tengono conto e commentano comunque con entusiasmo. Anche quando i fatti sono ragionevolmente accertati, succede che le persone siano inclini a credere comunque ai video falsi. Non è una anomalia di questo conflitto. In passato sono stati condotti esperimenti in cui le persone hanno creduto alla veridicità di video artefatti pur essendo state preventivamente avvisate che avrebbero visto dei deepfake. La trasparenza non basta. Se vogliamo, crediamo anche in ciò che sappiamo essere falso.

Al di là della propaganda e della monetizzazione delle emozioni altrui, comprese la rabbia e il desiderio di vendetta, c’è forse un bisogno psicologico che viene soddisfatto. Gli attacchi a opera dell’AIran raccontano il mondo come alcune persone vorrebbero che fosse, anche se non tutti sono disposti ad accettarlo, né tanto meno a dichiararlo. Per qualcuno Tel Aviv mezza rasa al suolo è un’immagine consolatoria in una fase in cui nessuno conosce l’esito del conflitto, dall’una e dall’altra parte. Le macchinazioni sono meno disagevoli dei fatti. O come scrive una persona compiaciuta dalle stragi di israeliani fatte con l’AI, è tutta terapia del trauma che non bisogna pagare. C’è uno scambio interessante sotto a uno dei tanti video in cui Israele è raffigurata sull’orlo del collasso. «Perché continuate a diffondere video fatti evidentemente con l’AI?», chiede un utente. Segue una delle risposte più sincere che ho letto in questi giorni: «Dobbiamo pur avere qualcosa in cui sperare».