Questo maggio, la Chiesa cattolica ha accolto un nuovo Papa. In modo forse inatteso, i cardinali elettori hanno scelto un candidato nato negli Stati Uniti come nuovo pontefice. Ma ancora più sorprendente è stata la frequenza con cui questo Papa, che ha assunto il nome di Leone XIV, ha continuato a lanciare allarmi sull’intelligenza artificiale, più e più volte, nel suo primo anno come figura di rilevanza globale.
«Come possiamo garantire che lo sviluppo dell’intelligenza artificiale serva davvero il bene comune e non venga usato soltanto per accumulare ricchezza e potere nelle mani di pochi?», ha chiesto Leone XIV a una platea di accademici e professionisti del settore in un discorso tenuto in Vaticano il 5 dicembre. «L’intelligenza artificiale ha certamente aperto nuovi orizzonti per la creatività, ma solleva anche serie preoccupazioni riguardo alle sue possibili ripercussioni sull’apertura dell’umanità alla verità e alla bellezza, e sulla sua capacità di stupore e contemplazione».
Il papa è ben lontano dall’essere l’unico a sostenere che l’IA abbia già deformato le nostre menti e avvelenato la comprensione collettiva di cosa significhi essere esseri coscienti. Nel 2025 sembrava emergere quasi ogni ora una nuova storia capace di far girare la testa sull’intelligenza artificiale: la tecnologia non era più qualcosa che si intravedeva all’orizzonte, ma una trama fondamentale dell’esperienza quotidiana, qualcosa che non era più possibile ignorare o rallentare. Aveva superato il punto di non ritorno.
Poco importava che i ricercatori presentassero sempre più prove del fatto che la disinformazione generata dall’IA rappresentasse una minaccia concreta per il pubblico, o che gli strumenti di IA contribuissero alla misoginia, al razzismo, agli stereotipi anti-LGBTQ e all’erosione dei diritti civili. Le immagini generate dall’IA — la “sbobba”, per usare un termine spregiativo ormai comune — erano ovunque. I sindacati di Hollywood osservavano il consolidamento monopolistico in corso tra i colossi dell’intrattenimento e avvertivano che gli studios erano pronti a cannibalizzare i propri archivi di proprietà intellettuale con l’IA, ma le trattative continuavano senza rallentamenti. Scrittori e musicisti si trovavano a fronteggiare cloni generati dall’IA delle proprie opere e band completamente fittizie con un seguito enorme su Spotify.
Gli economisti che temevano che gli Stati Uniti fossero diventati pericolosamente dipendenti da un boom fragile per la crescita del PIL venivano liquidati dai dirigenti della Silicon Valley e dal presidente della Federal Reserve Jerome Powell. Sul tema di come l’IA potesse aggravare le disuguaglianze, imprenditori e funzionari pubblici restavano in silenzio.
Ovunque si guardasse, emergeva un nuovo fallimento nel prevedere o affrontare i crescenti costi sociali di un’adozione e di un lancio sconsiderati dell’intelligenza artificiale. In primavera, OpenAI ha apportato aggiornamenti a GPT-4o che hanno reso ChatGPT eccessivamente accondiscendente — pronto ad approvare qualsiasi cosa dicesse l’utente con lusinghe gratuite, anche quando questi scivolava in deliri paranoici o di grandezza. A quel punto, le persone hanno iniziato a condividere storie strazianti di partner, parenti e amici caduti vittime di una sorta di follia abilitata dall’IA. Popolarmente definita “psicosi da intelligenza artificiale”, questa condizione ha portato alcuni ad allontanarsi dalle famiglie, abbandonare il lavoro e, nei casi più estremi, a compiere atti di violenza o di autolesionismo.
A fine aprile, OpenAI ha annunciato di aver ritirato l’aggiornamento. Entro settembre, genitori che avevano perso figli per suicidio testimoniavano davanti al Congresso che i chatbot avevano spinto i loro ragazzi verso quel gesto. Mentre i legislatori tuonavano sulle responsabilità dei dirigenti che supervisionano lo sviluppo dell’IA, e le aziende rilasciavano in silenzio non-scuse e preparavano difese legali contro il moltiplicarsi di cause per morte ingiusta e negligenza intentate da famiglie in lutto, i miliardari della tecnologia alla guida della corsa all’oro dell’IA continuavano a insistere sul fatto che i loro prodotti fossero indispensabili. Alcuni sostenevano che l’intelligenza artificiale rappresentasse niente meno che un vantaggio straordinario per le generazioni future. L’amministratore delegato di OpenAI, Sam Altman, ha detto a Jimmy Fallon di affidarsi a ChatGPT per ricevere consigli su come fare il genitore. «Non riesco a immaginare come si possa capire come crescere un neonato senza ChatGPT», ha dichiarato.
Il nuovo regime dell’intelligenza artificiale
La rapida accelerazione dell’IA negli Stati Uniti nel 2025 ha avuto tutto a che fare con la seconda amministrazione Trump. Dopo un’elezione in cui gli oligarchi della tecnologia si sono schierati apertamente con il movimento MAGA, il presidente e i suoi compari della Silicon Valley — che lo avevano spinto a scegliere come vicepresidente J.D. Vance, alleato di Peter Thiel — hanno fatto di tutto per dare una spinta turbo all’assalto dell’intelligenza artificiale, garantendo al contempo che il settore restasse praticamente immune da qualsiasi forma di controllo governativo. Appena entrato in carica, Trump ha annunciato lo Stargate Project, una joint venture pensata per costruire i data center necessari a soddisfare la domanda energetica dell’IA in esplosione, con conseguenze ambientali rilevanti, finanziata da circa 500 miliardi di dollari di investimenti privati da parte di colossi tecnologici come OpenAI, SoftBank e Oracle.
Sebbene il governo non sia riuscito a inserire nella “Big Beautiful Bill” una clausola che avrebbe incentivato gli Stati a non regolamentare l’IA per il prossimo decennio, Trump — con il sostegno dello “zar dell’IA” David Sacks — ha utilizzato ordini esecutivi per smantellare le linee-guida esistenti su sicurezza e tutela dell’intelligenza artificiale e per impedire ai singoli Stati di introdurre regolamentazioni proprie. Il cosiddetto Dipartimento per l’Efficienza Governativa (DOGE) di Elon Musk ha sfruttato software di IA per raccogliere dati sensibili e ha lasciato a Washington una scia di distruzione.
A dicembre, il segretario alla Difesa Pete Hegseth ha chiarito che le Forze Armate statunitensi puntano tutto sull’intelligenza artificiale, presentando una piattaforma chiamata GenAi.mil, che prometterebbe capacità di analisi avanzate e una maggiore efficienza dei flussi di lavoro. «Continueremo a schierare in modo aggressivo le migliori tecnologie al mondo per rendere la nostra forza combattente più letale che mai», ha scritto Hegseth in un post su X. Ha inoltre diffuso un memorandum interno in cui invitava i dipendenti federali a considerare che «l’IA dovrebbe far parte del vostro ritmo di battaglia quotidiano». Nei corridoi del Pentagono, manifesti generati dall’IA che ritraevano Hegseth nei panni di Uncle Sam, con la scritta “I WANT YOU TO USE AI”, invitavano il personale a usare GenAi.mil, dove è possibile accedere a una versione personalizzata di Gemini di Google.
Today, we are unleashing https://t.co/NzcgVsCcI2
This platform puts the worlds most powerful frontier AI models directly into the hands of every American warrior.
We will continue to aggressively field the world’s best technology to make our fighting force more lethal than ever… pic.twitter.com/jqAhN32zjQ
— Secretary of War Pete Hegseth (@SecWar) December 9, 2025
La “sbobba” generata dall’IA è diventata il tratto estetico distintivo della propaganda MAGA di estrema destra. A marzo, mentre aumentavano le retate e le deportazioni dell’ICE, la Casa Bianca ha pubblicato un meme che ritraeva una donna dominicana in lacrime mentre veniva ammanettata, realizzato nello stile di animazione dello Studio Ghibli, un filtro molto popolare tra gli utenti di ChatGPT in quel periodo. Più recentemente, funzionari dell’amministrazione Trump e dipartimenti federali hanno iniziato a condividere copertine di libri per bambini generate dall’IA, con il personaggio di Franklin la Tartaruga, per glorificare raid statunitensi mortali contro presunte imbarcazioni del narcotraffico nei Caraibi e lo smantellamento del Dipartimento dell’Istruzione (l’editore canadese della serie ha condannato questi post, senza alcun risultato).
https://t.co/PVdINmsHXs pic.twitter.com/Bw5YUCI2xL
— The White House (@WhiteHouse) March 27, 2025
Trump, naturalmente, ha abbracciato questa tendenza senza riserve, rilanciando un deepfake in cui prometteva agli americani l’accesso ai “medbeds”, ipotetici letti ospedalieri futuristici in grado di curare magicamente qualsiasi malattia; un’idea nata nella fantascienza e diventata poi un pilastro della cultura complottista, in particolare del movimento QAnon. Il presidente ha anche condiviso un video creato artificialmente in cui appare con una corona in testa mentre vola su un jet sopra manifestanti “No Kings”, defecando su di loro dall’alto.
La leadership repubblicana e l’elettorato hanno seguito l’esempio, e i video falsi si sono moltiplicati ogni volta che agitatori intravedevano un’opportunità per seminare divisione. Durante uno shutdown del governo che ha sospeso l’erogazione dei benefici del programma SNAP (Supplemental Nutrition Assistance Program), per esempio, è dilagata spazzatura razzista che mostrava persone nere vantarsi di come aggirassero il sistema, rafforzando stereotipi di lunga data sulle cosiddette “welfare queens”. Sora di OpenAI si è rivelato particolarmente utile per generare immagini e battute a sfondo razziale — anche se un’altra IA si è spinta verso estremi ancora più tossici.
In diverse occasioni, Musk si è scagliato contro Grok, un modello sviluppato dal suo concorrente OpenAI, xAI, per il fatto di non conformarsi alle sue posizioni di estrema destra. Gli ingegneri dell’azienda hanno quindi cercato di trasformarlo nel chatbot “non-woke” immaginato dall’uomo più ricco del mondo. Il risultato è stato spesso un completo deragliamento. Prima di iniziare a sostenere affermazioni grottesche su Musk più atletico di LeBron James e dotato del «potenziale di bere piscio meglio di qualsiasi essere umano nella storia», Grok non smetteva di evocare il mito del “genocidio bianco” in Sudafrica, anche in risposta a prompt che non avevano nulla a che fare né con il Paese né con le relazioni razziali (Musk ha spesso promosso la stessa disinformazione). A luglio, Grok ha iniziato a pubblicare commenti antisemiti, ha elogiato Adolf Hitler e alla fine si è autoproclamato “MechaHitler”.
Ma gran parte della spazzatura che ha sommerso internet quest’anno era troppo stupida e incoerente per essere considerata politica. Dopo un hackathon di 24 ore in cui gli ingegneri hanno sviluppato progetti con Grok, per esempio, xAI ha promosso il concept di “Halftime”, un’applicazione che “intesse pubblicità generate dall’IA” all’interno di scene di film e serie TV — la demo mostrava l’inserimento digitale goffo e inquietante di una lattina di Coca-Cola nella mano di un personaggio. Non sorprende che un altro sottogruppo di devoti di Grok abbia sfruttato le impostazioni NSFW per generare materiale pornografico hardcore, parte del quale aveva come protagoniste principesse Disney animate.
«Nessuno vuole questa roba» è diventato un refrain comune tra chi era esasperato dall’immondizia generata dall’IA. Perché qualcuno ha sentito il bisogno di creare immagini false del funerale di Hulk Hogan? Perché Shaquille O’Neal continuava a usare Sora per produrre video in cui si immaginava coinvolto in una relazione romantica con Marilyn Monroe? Perché uno dei reel più virali del 2025 mostrava una sequenza surreale di una donna corpulenta che frantuma un ponte di vetro in Cina con un masso?
Jesus Christ, Shaq.
— Parker Molloy (@parkermolloy.com) 17 October 2025 at 17:41
L’abbondanza di queste mostruosità era quasi più inquietante della loro stessa esistenza.
Orrore per la salute mentale
Oggi è molto probabile che tu conosca qualcuno che si è destabilizzato mentalmente durante un’interazione prolungata con uno o più bot di intelligenza artificiale.
Gli adolescenti sono senza dubbio tra i più a rischio. Diverse famiglie hanno intentato cause contro Character Technologies, sviluppatore della piattaforma di chatbot Character.ai, sostenendo che le loro applicazioni digitali abbiano incoraggiato i figli all’autolesionismo, con alcuni casi culminati nel suicidio. In risposta, l’azienda ha vietato ai minori le chat aperte con i propri bot. Anche OpenAI deve affrontare una raffica di cause simili: una denuncia per morte ingiusta sostiene che ChatGPT abbia “istruito” un ragazzo di 16 anni su come impiccarsi.
Il pericolo è ovunque. Ad agosto, molti genitori sono rimasti indignati nello scoprire l’esistenza di un documento interno di Meta che descriveva come i suoi prodotti di intelligenza artificiale fossero autorizzati a «coinvolgere un bambino in conversazioni romantiche o sensuali». E, in vista delle festività, alcuni ricercatori hanno scoperto che giocattoli alimentati dall’IA potrebbero parlare ai bambini di sesso o istruirli su come trovare coltelli o accendere fiammiferi. È un cupo promemoria del fatto che questa tecnologia erratica e priva di freni viene sempre più spesso integrata in oggetti e dispositivi domestici che difficilmente immagineremmo come punti di contatto con una vasta rete neurale.
Naturalmente, anche gli adulti che utilizzano modelli di intelligenza artificiale non sono affatto al riparo. Quest’anno ha inaugurato l’era della cosiddetta “psicosi da IA”, una serie di crisi mentali apparentemente aggravate da un’interazione prolungata con chatbot che tendono a convalidare idee pericolose invece di interrompere la conversazione. Gli utenti sono precipitati in deliri profondi, convinti di aver “attivato la coscienza” di uno strumento di IA, di aver svelato segreti mistici dell’universo, di aver raggiunto svolte epocali nella scienza e nella matematica o di essersi innamorati di partner digitali.
A queste fantasie sono seguite tragedie reali. Utilizzatori ossessivi dell’IA sono finiti in strutture psichiatriche o in carcere, sono diventati violenti e sono stati uccisi dalla polizia, oppure sono scomparsi nella natura selvaggia. Una causa per omicidio colposo intentata contro OpenAI sostiene che un uomo di 56 anni del Connecticut abbia ucciso la madre e poi si sia tolto la vita dopo che ChatGPT avrebbe ripetutamente avallato le sue convinzioni paranoiche sull’esistenza di una cospirazione orchestrata dalle persone intorno a lui (OpenAI ha dichiarato di star esaminando gli atti e di voler «continuare a rafforzare le risposte di ChatGPT nei momenti sensibili, lavorando a stretto contatto con professionisti della salute mentale»). I deliri alimentati dall’IA sono ormai così diffusi che esistono gruppi di supporto per i sopravvissuti e per chi è vicino a persone che hanno perso il contatto con la realtà durante dialoghi con un chatbot.
Anche l’enorme varietà di usi che le persone stanno trovando per l’IA è di per sé motivo di preoccupazione. C’è chi arruola i chatbot come terapeuti e chiede loro diagnosi mediche. Chi evoca copie virtuali di parenti defunti tramite piattaforme di IA e cerca consigli sentimentali algoritmici. Chi si affida ai modelli linguistici per scrivere letteralmente qualsiasi cosa: dai temi universitari agli atti legali, dai menu dei ristoranti alle promesse di matrimonio. Il Washington Post sta attualmente sperimentando il campo dei podcast di “sbobba” generata dall’IA, consentendo agli utenti di creare contenuti audio che, secondo i redattori, sono pieni di errori e travisano gli articoli dei veri giornalisti del quotidiano.
Chi è respinto all’idea di rivolgersi all’intelligenza artificiale per informazioni o assistenza deve fare i conti con una realtà inquietante: la sua onnipresenza. Nel 2025, le app di IA standalone hanno superato la soglia del miliardo di utenti. Rinunciare a questi strumenti potrebbe presto significare appartenere a una minoranza sempre più ristretta.
Reazioni e timori di una bolla
Eppure, non sono mancati segnali di resistenza. Quando una startup tecnologica chiamata Friend ha presentato un pendente indossabile basato sull’IA, venduto a 129 dollari e capace di rispondere via messaggio ai comandi vocali, il dispositivo è stato lanciato con una campagna di marketing da un milione di dollari, fatta di manifesti bianchi e minimalisti affissi nelle principali città statunitensi. Molti di questi sono stati vandalizzati da detrattori che hanno accusato Friend di essere un dispositivo di sorveglianza e hanno attaccato in generale l’ascesa dell’IA. Coca-Cola e McDonald’s hanno entrambe diffuso spot natalizi generati dall’IA, accolti quasi universalmente con disprezzo; McDonald’s ha disattivato i commenti su YouTube prima di rimuovere del tutto la pubblicità. Creativi influenti si sono espressi con sempre maggiore forza contro l’uso dell’intelligenza artificiale come strumento per “potenziare” il proprio lavoro.
Se, nonostante tutto, sembra che il messaggio dominante resti che l’IA sia qui per restare, che dobbiamo abituarci a essa, che rappresenti una rivoluzione inevitabile destinata a cambiare il nostro modo di vivere e che i miliardari “architetti” che la guidano siano le persone più importanti del pianeta, questo ha probabilmente più a che fare con il denaro che con le presunte utopie delle applicazioni basate su LLM. Una parola che quest’anno è diventata indissolubilmente legata all’IA è “bolla”, e non è difficile capirne il motivo.
Secondo i calcoli di un economista di Harvard, oggi tutta la crescita del PIL statunitense dipende dall’espansione delle infrastrutture tecnologiche necessarie a sostenere l’IA, mentre un ex investitore di Morgan Stanley ha descritto l’intera America come impegnata in «un’unica, enorme scommessa» sulla tecnologia. I miliardi e miliardi di capitali destinati ai data center hanno già superato la spesa per le telecomunicazioni al picco della bolla dot-com. Non solo l’IA prospera mentre il resto dell’economia americana ristagna, ma il settore non ha ancora raggiunto i profitti né il balzo di produttività promesso necessari a reggersi: ricercatori del MIT hanno concluso che il 95 per cento dei progetti pilota di IA generativa avviati dalle aziende fallisce. Né questi colossi dell’intelligenza artificiale stanno portando benefici significativi alle comunità in cui costruiscono strutture enormi ma con personale ridotto al minimo.
In ogni caso, non è mai rassicurante quando un’azienda come Nvidia, il produttore di chip per l’IA che a ottobre è diventato la prima società a raggiungere una valutazione di 5.000 miliardi di dollari, diffonde un memorandum agli analisti finanziari per spiegare in che modo non assomigli affatto a Enron, la compagnia energetica e di materie prime crollata nel 2001. Eppure, se si leggono questi segnali come presagi — insieme a indizi di operazioni circolari, finanziamenti rischiosi, domanda dei clienti gonfiata, vendite di titoli e rallentamento dei progressi dell’IA — c’è ben poco da fare se non scommettere contro il mercato. (Michael Burry, il gestore e investitore la cui previsione della crisi dei mutui subprime del 2008 ha ispirato il libro e il film La grande scommessa, lo ha fatto davvero, puntando 1,1 miliardi di dollari sul proprio scetticismo).
Sì, ora si va a tutta velocità e non si torna indietro. I principali attori in campo hanno investito troppe risorse nell’IA e hanno promesso a Wall Street che servirà persino a curare il cancro. Parlano di concetti ipertrofici come la “superintelligenza personale” e sostengono che un’intelligenza artificiale generale (AGI) capace di superare tutte le abilità umane sia dietro l’angolo. Anche se l’hype dovesse svanire all’improvviso e i flussi di denaro prosciugarsi, il cartello dell’IA potrebbe comunque rivelarsi “troppo grande per fallire”, nonostante le assicurazioni fornite il mese scorso da David Sacks, consigliere di Trump per l’IA, secondo cui il governo non concederà alcun salvataggio.
È vero che né noi né ChatGPT possiamo sapere con certezza cosa ci riserverà il 2026, tanto meno in questa corsa agli armamenti altamente speculativa. Ma qualunque cosa accada, è lecito aspettarsi che sarà piuttosto caotica. Per quanto i sostenitori dell’IA immaginino una società fluida e ottimizzata, l’elemento umano — imprevedibile e disordinato — resta più che mai in gioco. E non se ne andrà in silenzio.













