Lo scorso lunedì, Daniel Moreno-Gama, 20 anni, è stato incriminato per tentato omicidio e incendio doloso dopo aver presumibilmente lanciato un cocktail Molotov contro la casa di San Francisco in cui il CEO di OpenAI Sam Altman vive con con il marito e il figlio di un anno. Le autorità riferiscono che, dopo aver scagliato l’ordigno esplosivo, l’uomo — originario del Texas — si è recato agli uffici di OpenAI e ha lanciato una sedia contro le porte in vetro dell’edificio, minacciando di dargli fuoco e di uccidere chiunque si trovasse all’interno. È stato arrestato mentre era in possesso di una tanica di cherosene. Secondo i documenti del tribunale, aveva scritto del rischio esistenziale dell’AI per «l’imminente estinzione» dell’umanità, e le autorità affermano di aver trovato su di lui un documento che elencava altre aziende di AI come obiettivi (il suo avvocato ha dichiarato che si trovava in una condizione di crisi di salute mentale).
Due giorni dopo, due sospettati sono stati arrestati dopo aver presumibilmente sparato con un’arma da fuoco nei pressi della proprietà del CEO. All’inizio di questo mese, qualcuno ha esploso 13 colpi contro la porta d’ingresso di un consigliere comunale dell’Indiana, lasciando sull’uscio un biglietto con scritto «No ai Data Center».
Il gesto ha avuto conseguenze. Innanzitutto, aperti critici di Altman hanno condannato la violenza, ed espresso solidarietà verso il CEO di OpenAI. Alex Bores, ex dipendente di Palantir diventato candidato al Congresso favorevole alla regolamentazione dell’AI, ha definito l’attacco con la Molotov «ingiustificato e inaccettabile». «Sam e io possiamo dissentire su molte cose», ha dichiarato, «ma siamo tutti esseri umani e non possiamo permetterci di perdere l’umanità che è al centro del dibattito sul futuro della sicurezza dell’AI».
Sui social media, però, alcuni non solo hanno evitato ogni forma di empatia, ma hanno addirittura celebrato gli attacchi. Nei commenti c’era chi chiedeva come sostenere la cauzione di Moreno-Gama, mentre altri scherzavano sperando che il cocktail Molotov stesse bene. «Mi preoccupo dell’umanità di Sam Altman quanto lui si preoccupa della mia», ha scritto un utente di X. «Cercare di fermare l’apocalisse AI è un’azione eroica, non criminale», ha scritto un altro. «I criminali sono i CEO dell’AI che vogliono distruggere l’umanità e sostituirci con i robot».
La reazione entusiasta a questa serie di atti violenti riflette la crescente rabbia e il risentimento dell’opinione pubblica nei confronti delle aziende AI, dei data center e dei miliardari della tecnologia. Gli esperti di AI che da tempo lanciano l’allarme all’interno della comunità tech sui rischi di sviluppare l’intelligenza artificiale senza limiti e protezioni vedono la reazione del pubblico come un’escalation della sfiducia verso l’AI che covava sotto la cenere da anni. Il Rapporto AI Index 2026 di Stanford ha rilevato che il 64 percento degli adulti statunitensi ritiene che l’AI porterà a un minor numero di posti di lavoro. Il 52 percento afferma che i prodotti e i servizi che utilizzano l’AI li mettono a disagio, e il 79 percento sostiene che questi prodotti e servizi dovrebbero dichiarare l’uso dell’AI.
La professoressa di cultura digitale Safiya Noble, autrice del libro Algorithms of Oppression, afferma: «Siamo pienamente all’interno di un “techlash” — la reazione di rigetto nei confronti del settore tecnologico e dei miliardari della tech, ossessionati e assorbiti dalle loro fantasie fantascientifiche sul futuro».
La percezione negativa che il pubblico ha nei confronti dell’intelligenza artificiale si è andata costruendo nel corso degli anni, spiega Alondra Nelson, che in precedenza ha guidato l’Office of Science and Technology Policy dell’amministrazione Biden.
«Il sentimento negativo attorno all’AI è cresciuto in modo costante, e ciò che è cambiato è che il pubblico ha sviluppato sia il vocabolario che l’esperienza diretta per dare un nome a ciò che li turba», dice Nelson. «I costi energetici, la perdita di posti di lavoro, la discriminazione, la concentrazione del potere in un pugno di aziende, il danno ai nostri giovani e un profondo senso di mancanza di controllo e di potere di fronte a tutto questo».
Con la crescita delle aziende AI sono cresciuti anche i loro piani per costruire enormi data center in tutto il Paese. Queste strutture, che consumano quantità enormi di acqua ed elettricità e hanno costretto alla ricollocazione intere comunità residenti — in particolare nel Sud, dove la costruzione si è concentrata — sono diventate sempre più impopolari. Il Maine ha recentemente approvato il primo divieto statale, e Bernie Sanders e Alexandria Ocasio-Cortez hanno annunciato che presenteranno una proposta di legge per bloccarli fino a quando non saranno in vigore maggiori regolamentazioni.
«I data center sono la manifestazione fisica dell’infrastruttura AI, e sono diventati un punto di frizione precisamente perché sono tangibili», dice Nelson. «Esistono in luoghi specifici, consumano risorse specifiche, si possono vedere e indicare con il dito».
Se i data center rappresentano modi concreti in cui l’AI sta cambiando le nostre vite, anche le paure più astratte e indefinite stanno raggiungendo il punto di ebollizione.
«C’è una preoccupazione crescente, su tutti i fronti», dice Suresh Venkatasubramanian, direttore del Center for Tech Responsibility della Brown University. «Risalendo agli orribili episodi della scorsa estate, con adolescenti risucchiati in una psicosi alimentata dall’AI e spinti al suicidio. Questo, unito a tutta la retorica sui risparmi che deriveranno dalla sostituzione delle persone con le macchine — una narrativa che, francamente, tutte le aziende tech stanno spingendo — sta generando una paura enorme in ogni settore della società».
Noble afferma che le dichiarazioni dei leader del settore su come l’AI eliminerà il lavoro umano hanno innescato una reazione significativa.
«Hanno rubato tutte le opere dell’umanità — i libri, l’arte, tutto ciò che abbiamo mai pubblicato su Reddit — le hanno riconfezionate cercando di rivenderle a noi stessi, e nel frattempo finanziano il depauperamento dell’istruzione, delle biblioteche, delle istituzioni di sanità pubblica», dice Noble. «Le persone non sono stupide, e ci sono molti fronti su cui si discute da tempo di come prodotti tecnologici difettosi destabilizzino comunità e istituzioni. E credo che continueremo a vedere un backlash crescere».
Venkatasubramanian sottolinea che la reazione agli attacchi alla casa di Altman è stata inquietantemente simile a quella che seguì all’omicidio del CEO di United HealthCare Brian Thompson a Manhattan. Nel weekend, i commentatori sui social hanno scherzato offrendosi di fornire falsi alibi per Moreno-Gama, come avevano fatto quando il principale sospettato Luigi Mangione fu arrestato nel dicembre 2024. E il Wall Street Journal riporta che Moreno-Gama aveva citato Mangione e l’omicidio del CEO di United HealthCare in una chat online mesi prima dell’attacco ad Altman. Negli uffici di OpenAI ci sarebbe, secondo alcune fonti, un avviso che ricorda ai dipendenti di nascondere i badge all’uscita, in modo analogo alle politiche di United HealthCare.
La storia delle forti reazioni dell’opinione pubblica nei confronti dei progressi tecnologici è lunga, spiega l’economista Carl Benedikt Frey, autore di The Technology Trap, incentrato sulla storia del progresso tecnologico dalla Rivoluzione Industriale all’avvento dell’AI.
«Se una tecnologia minaccia i posti di lavoro e le competenze delle persone — che è sostanzialmente ciò da cui la maggior parte delle persone ricava il proprio reddito — è del tutto probabile che si oppongano, e a ragione», dice Frey. «I Luddisti» — i tessitori britannici dell’Ottocento che distrussero i telai automatizzati — «vengono spesso dipinti come irrazionali nemici del progresso, ma non erano certo loro quelli destinati a beneficiare delle fabbriche meccanizzate, e quindi la loro opposizione aveva tutto il senso del mondo».
Frey spiega che gli economisti dicono spesso che la tecnologia può migliorare le condizioni di vita nel lungo periodo, rendendo i beni più accessibili e meno costosi, ma che le persone «vivono nel presente» e, se vedono una minaccia al proprio lavoro, è naturale che siano resistenti e scettici.
«Una differenza rispetto agli episodi precedenti di cambiamento tecnologico è che persino i creatori della tecnologia stanno attivamente mettendo in guardia su questo rischio», dice Frey. Cita Dario Amodei, CEO di Anthropic, che ha avvertito che l’AI potrebbe spiazzare metà di tutti i lavori d’ufficio entry level e «nel peggiore dei casi distruggere tutta la vita sulla Terra».
Frey aggiunge che la resistenza della società all’automazione tende a coincidere con periodi di crisi economica, come durante la Grande Depressione o le recessioni degli anni Sessanta. La guerra in Iran, i tassi di interesse elevati e un mercato del lavoro instabile potrebbero amplificare l’ansia. Frey sottolinea inoltre che le comunità si esasperano quando non vedono le proprie istanze riflesse nelle politiche.
«Se la gente sente che, andando alle urne, la propria voce non viene ascoltata, potrebbe ricorrere ad altri mezzi per farsi sentire — non che io stia avallando quel tipo di violenza», dice Frey. «Non ci si dovrebbe sorprendere se chi sente di non avere nulla da guadagnare da una tecnologia finisce per opporvisi. E se sente che il sistema politico non risponde alle proprie preoccupazioni, è più probabile che si vedano forme di attivismo — che dovrebbero preferibilmente essere non violente».
Per questo gli esperti di sicurezza AI come Venkatasubramanian affermano che è fondamentale che le aziende tech ricostruiscano la fiducia.
«Tutti, collettivamente, stanno avvertendo questa sensazione che il mondo stia cambiando attorno a noi», dice Venkatasubramanian. «Non sappiamo come andrà a finire, ma le persone a cui ci rivolgiamo — che siano i politici o i leader tech — sembrano non avere risposte o non interessarsene».
Gli esperti di etica dell’AI sostengono da anni che costruire protezioni e limiti attorno agli strumenti di AI sia come aggiungere le cinture di sicurezza alle auto o le corsie alle autostrade: la regolamentazione consente di andare veloci in modo più sicuro.
«Non si arriva alla fiducia convincendo semplicemente le persone a fidarsi delle aziende e degli altri: ci si arriva agendo», dice Venkatasubramanian. «E quelle azioni, a livello nazionale, sono state rare e sporadiche. Gli Stati hanno cercato con grande impegno di legiferare, ma vengono anche ostacolati — ironicamente — dalle stesse aziende tech che atterrano negli Stati e li bloccano dal fare qualsiasi cosa per costruire maggiore fiducia e mettere in atto protezioni sull’AI».
Oltre alla regolamentazione dell’uso di energia, dell’inquinamento e dell’impatto ambientale, è necessaria anche una vera e propria responsabilità aziendale, afferma Nelson.
«Strutture di governance reali, con i denti», dice Nelson. «La strada da percorrere non è una migliore comunicazione. È la condivisione del potere».















