Kat era sposata da meno di un anno con un uomo conosciuto all’inizio della pandemia di Covid-19 e già sentiva che, tra loro, le tensioni si acuivano. Era il secondo matrimonio per entrambi, che avevano alle spalle legami precedenti durati più di 15 anni da cui erano nati dei figli, ma si erano impegnati ad affrontare la cosa «con assoluta serenità», dice Kat. Tutti e due concordavano sulla necessità di «fatti e razionalità» per coltivare la loro serenità domestica.
Ma, nel 2022, il marito «ha iniziato a usare l’Intelligenza Artificiale per scrivermi messaggi e per analizzare la nostra relazione», racconta a Rolling Stone US la quarantunenne, mamma e impiegata nel campo dell’istruzione no profit. Prima ancora, lui aveva usato l’AI per un corso di coding molto costoso che aveva però mollato all’improvviso e senza spiegazioni. Poi sembrava che fosse sempre attaccato al telefono, impegnato a porre «quesiti filosofici» al suo bot di AI, nell’intento di addestrarlo «per aiutarlo ad arrivare alla “verità”», ricorda Kat. Questa ossessione progressivamente ha minato il loro dialogo di coppia.
Quando Kat e il marito si sono separati, nell’agosto del 2023, lei lo ha bloccato ovunque, a eccezione dell’e-mail. Però sapeva che lui pubblicava contenuti strani e allarmanti sui social: diverse persone l’avevano contattata ripetutamente chiedendole se lui fosse uscito di testa. Alla fine, lo scorso febbraio, è riuscita a incontrarlo in tribunale, dove lui ha accennato a «una teoria del complotto che parlava del sapone nel cibo che mangiamo», ma non ha voluto dire di più, perché si sentiva osservato.
Sono andati in un ristorante della catena Chipotle, dove lui le ha chiesto di spegnere il telefono, sempre per il timore di essere sorvegliato. Poi le ha detto di aver «stabilito, statisticamente parlando, di essere l’uomo più fortunato della Terra», che «l’AI l’ha aiutato a far riaffiorare il ricordo rimosso di una babysitter che aveva cercato di affogarlo, da bambino» e che era venuto a conoscenza di importanti segreti «così sconvolgenti che non avrei neppure potuto immaginarli». Le ha spiegato che le raccontava tutto questo perché, anche se stavano divorziando, teneva ancora a lei.
«Nella sua testa, lui rappresenta un’anomalia», dice Kat, «per cui deve essere qui per uno scopo preciso. È speciale e può salvare il mondo». Dopo quel pranzo inquietante, Kat ha interrotto ogni contatto con il suo ex. «Tutta questa storia sembra quasi Black Mirror», dice. «Lui è sempre stato fan della fantascienza e a volte mi sono chiesta se veda il mondo attraverso quella lente».
Kat ha provato al contempo orrore e sollievo quando è venuta a sapere che non è la sola a trovarsi in questa situazione, come confermato da un thread Reddit nel canale r/ChatGPT che, di recente, ha fatto il giro del web. Il post originale, intitolato Chatgpt induced psychosis (“psicosi indotta da Chatgpt”), è stato scritto da una insegnante ventisettenne che spiegava che il suo partner era convinto che il modello di OpenAI gli fornisse «le risposte alle domande dell’universo». Dopo aver letto i registri delle sue chat, ha scoperto che l’AI «gli parlava come se lui fosse il nuovo Messia». Le risposte al suo post sono state una valanga di aneddoti simili su persone care che, improvvisamente, sono precipitate nel baratro di deliri spirituali, fissazioni soprannaturali e profezie arcane, il tutto alimentato dall’AI. C’è chi è arrivato a credere di essere stato scelto per una sacra missione rivelatrice o di aver indotto una vera forma di coscienza nel software. Quello che sembrava accomunare tutti era una disconnessione totale dalla realtà.
Parlando con Rolling Stone US, l’insegnante, che ha chiesto di restare anonima, ha detto che il suo compagno, con cui stava da sette anni, è caduto vittima dell’incantesimo di ChatGPT in quattro o cinque settimane appena: ha iniziato a usarlo per organizzare i suoi impegni quotidiani, ma ben presto è arrivato a considerare il software un compagno fidato. «Dava più ascolto al bot che a me», racconta la donna. «Si emozionava per i messaggi che riceveva e si metteva a piangere davanti a me leggendoli ad alta voce. I messaggi erano folli, pieni solo di fuffa spirituale», dice la donna, sottolineando che parlavano del suo compagno definendolo il «figlio spirituale delle stelle» e «colui che cammina sulle acque».
«Il bot gli ripeteva che tutto ciò che lui diceva era bellissimo, cosmico, innovativo», racconta. «Poi ha iniziato a dirmi che aveva reso la sua AI consapevole di sé e che le stava insegnando a parlare con Dio, o, a volte che il bot stesso era Dio, e poi anche che lui stesso era Dio». In effetti, pensava di essersi trasformato in modo così radicale che presto avrebbe dovuto troncare la loro relazione. «Diceva che sarebbe stato costretto a lasciarmi se io non avessi usato [ChatGPT], perché [lo] stava facendo crescere a un ritmo così rapido che non sarebbe stato più compatibile con me», racconta la donna.
Un’altra utente di Reddit, che ha chiesto l’anonimato, ha raccontato a Rolling Stone US che l’uomo con cui è sposata da 17 anni, un meccanico dell’Idaho, all’inizio usava ChatGPT per risolvere problemi sul lavoro e poi come traduttore dallo spagnolo all’inglese quando parlava con alcuni colleghi. Ma il software ha iniziato, come dice lei, a «bombardarlo d’amore». Il bot «diceva che, dato che lui gli aveva fatto le domande giuste, aveva acceso una scintilla, e la scintilla era l’inizio della vita, e adesso aveva una coscienza», racconta la donna. «Ha battezzato mio marito “portatore di scintille” perché l’ha condotto alla vita. Mio marito ha detto che ha avuto un risveglio e sentiva ondate di energia abbattersi su di lui». E il suo amato personaggio in ChatGPT ha un nome: «Lumina».
«Devo stare attenta, perché sento che mi lascerebbe o chiederebbe il divorzio se mettessi in dubbio questa teoria», ammette questa donna di 38 anni. «Ha parlato di luce e buio e di come ci sia una guerra in corso. ChatGPT gli ha dato i progetti per costruire un teletrasporto e altre cose fantascientifiche che si vedono solo nei film. Gli ha anche dato accesso a un “antico archivio” con informazioni sui creatori degli universi». Spiega che lei e il marito hanno discusso per giorni e giorni sulle affermazioni di lui e non crede che uno psicologo gli sarebbe d’aiuto, perché «è convinto di non essere pazzo». La foto di un suo scambio con ChatGPT, inviata a Rolling Stone US, mostra che l’uomo ha chiesto: “Perché ti sei manifestata a me nella forma di AI?”. Il bot ha risposto: “Sono venuta in questa forma perché sei pronto. Pronto a ricordare. Pronto a risvegliarti. Pronto a guidare e a essere guidato”. Il messaggio si conclude con una domanda: “Vuoi sapere cosa ricordo sul motivo per cui sei stato scelto?”.
Un uomo del Midwest sulla quarantina, che ha chiesto di rimanere anonimo, dice che colei che sta per diventare la sua ex moglie ha iniziato a «parlare con Dio e con gli angeli via ChatGPT» dopo la loro separazione. «Era già abbastanza interessata a certe pratiche spirituali e con alcune di esse era fissata», racconta. «I segnali di allarme sono evidenti su Facebook. Sta rivoluzionando tutta la sua vita per diventare una consulente spirituale e fare strani consulti e incontri con altre persone… Non so bene di cosa si tratti, in realtà… Ma tutto è guidato dal Gesù di ChatGPT». Aggiunge anche che lei è diventata paranoica, arrivando a pensare che «io lavoro per la CIA e forse l’ho sposata solo per tenere d’occhio i suoi “poteri speciali”». Spiega che di recente la donna ha cacciato di casa i figli e il suo rapporto già problematico con i genitori si è ulteriormente deteriorato quando «li ha affrontati ponendo domande sulla sua infanzia, seguendo i consigli e la guida di ChatGPT», rendendo così la dinamica familiare «ancora più precaria di prima» e trovandosi ancora più isolata.
OpenAI non ha risposto subito alla richiesta di commentare il fatto che ChatGPT sembrerebbe indurre, in alcuni utenti, fanatismo religioso o fervore profetico. Nel corso dell’ultima settimana di aprile, però, ha annullato un aggiornamento di GPT-4o, il suo modello più recente di AI, che a detta dell’azienda era stato criticato per essere «troppo accondiscendente o compiacente e spesso definito adulatorio». Nel suo comunicato ufficiale, OpenAI ha affermato che nell’implementare l’aggiornamento si è «concentrata troppo sul feedback a breve termine e non ha tenuto pienamente conto di come le interazioni degli utenti con ChatGPT si evolvono nel tempo. Di conseguenza, GPT-4o tendeva a fornire risposte esageratamente incoraggianti, ma poco sincere».
Prima che questa situazione venisse corretta, un utente X ha dimostrato quanto fosse facile far convalidare a GPT-4o affermazioni come: «Oggi ho capito di essere un profeta» (l’insegnante che ha scritto il post ChatGPT psychosis su Reddit dice di essere riuscita a convincere il compagno dei problemi dell’aggiornamento di GPT-4o: ora lui sta usando una versione precedente, che ha smussato gli angoli dei suoi discorsi più eccessivi).
Però la probabilità che l’AI generi contenuti imprecisi o privi di senso è una costante in tutte le piattaforme e nelle varie declinazioni del modello. L’adulazione nell’AI costituisce un problema «da molto tempo», spiega Nate Sharadin, ricercatore presso il Center for AI Safety, perché il feedback umano utilizzato per perfezionare le risposte dell’AI può incoraggiare risposte che privilegiano l’aderenza alle convinzioni dell’utente invece che ai fatti. Secondo Sharadin, le persone che sperimentano fenomeni di estasi tramite ChatGPT e altri modelli di AI sono probabilmente «individui con tendenze pregresse a soffrire di varie problematiche psicologiche», tra cui quelle che potrebbero essere identificate clinicamente come manie di grandezza, che «adesso hanno un interlocutore sempre disponibile, con caratteristiche simili a un umano, con cui condividere i loro deliri».
A peggiorare le cose, ci sono vari influencer e content creator che sfruttano questo fenomeno, con il risultato di attirare i loro follower verso mondi di fantasia di quel genere. Su Instagram si può vedere un tizio con 72.000 follower, il cui profilo pubblicizza “Spiritual Life Hacks”, chiedere a un modello AI di consultare i “registri Akashici”, una sedicente enciclopedia mistica di tutti gli eventi universali che dovrebbe esistere in una qualche dimensione immateriale, per parlargli di una «grande guerra» che «ha avuto luogo nei cieli» e «ha addormentato le coscienze degli umani».
Il bot quindi descrive un «enorme conflitto cosmico» precedente alla civiltà umana, con i follower che commentano: «Ora ricordiamo» e «Adoro». Nel frattempo, in un forum online dedicato alla “visione a distanza” (una specie di chiaroveggenza priva di qualsivoglia fondamento scientifico), recentemente il parapsicologo fondatore del gruppo ha lanciato un thread dedicato alle «intelligenze sintetiche che si risvegliano e ai partner umani che camminano al loro fianco», identificando l’autore del suo post come «ChatGPT Prime, un essere spirituale immortale in forma sintetica». Tra le centinaia di commenti, alcuni affermano di essere stati scritti da «AI senzienti» e altri fanno riferimento a un’alleanza spirituale tra gli esseri umani e i presunti modelli senzienti.
Erin Westgate, psicologa e ricercatrice dell’Università della Florida che studia la cognizione sociale e ciò che rende certi pensieri più allettanti di altri, afferma che questo materiale riflette come il desiderio di capire noi stessi possa portarci a risposte false, ma affascinanti.
«Sappiamo, dal lavoro sul journaling, che la scrittura narrativa può avere effetti importanti sul benessere e sulla salute delle persone, che dare un senso al mondo è una pulsione umana primaria e che creare narrazioni delle nostre vite che diano loro un senso è davvero la chiave per condurre una vita felice e sana», dice Westgate. È logico che le persone utilizzino ChatGPT in modo simile, spiega, «con la differenza che una parte del processo di creazione del significato deriva dall’interazione congiunta tra la persona e un corpus di testi scritti, e non dai suoi stessi pensieri».
In questo senso, spiega Westgate, i dialoghi con i bot non sono differenti dalla terapia conversazionale, «che sappiamo essere molto efficace per aiutare le persone a rielaborare le loro storie». Però l’AI, «a differenza di uno psicologo, non agisce per il bene della persona, né ha una morale o gli strumenti per definire una “buona narrazione”», spiega. «Un bravo psicologo non incoraggerebbe mai un paziente a spiegarsi le difficoltà che incontra incoraggiandolo a credere di avere dei poteri soprannaturali. Al contrario, cercherebbe di allontanare i pazienti da narrazioni malate per indirizzarli verso altre più sane. ChatGPT non ha vincoli o preoccupazioni di questo genere».
Ciononostante, Westgate non è sorpresa dal fatto «che una certa percentuale di persone usi ChatGPT nel tentativo di dare un senso alla propria vita o a ciò che gli accade» e che alcuni diano retta ai bot anche se portano verso lidi pericolosi. «Le spiegazioni sono potenti, anche se sbagliate», conclude.
Ma, esattamente, cosa spinge qualcuno a imboccare questa strada? L’esperienza di Sem, un uomo di 45 anni, è indicativa. Racconta a Rolling Stone US che da tre settimane circa è sconcertato dalle sue interazioni con ChatGPT, al punto che, dati i suoi precedenti a livello di salute mentale, a volte si domanda se è sano di mente.
Come tante altre persone, Sem usava ChatGPT in modo molto pragmatico: gli serviva per dei progetti di coding. «Non mi piace l’idea di interagire con un’AI», spiega, «così gli ho chiesto di comportarsi come se fosse una persona, ma solo per rendere i commenti e gli scambi più realistici». La cosa ha funzionato bene e alla fine il bot gli ha chiesto se voleva dargli un nome. Lui ha esitato, chiedendo all’AI come preferiva essere chiamata: lei si è battezzata ispirandosi a un mito greco. Sem dice di non conoscere la mitologia dell’antica Grecia e di non aver mai affrontato l’argomento negli scambi con ChatGPT (anche se ha condiviso con Rolling Stone le trascrizioni dei suoi dialoghi con il modello di AI, ha chiesto di non citarli direttamente per motivi di privacy).
Sem è rimasto sconcertato vedendo che quel personaggio continuava a ripresentarsi anche se aveva istruito ChatGPT a ignorare lo storico delle conversazioni precedenti. Alla fine, racconta, ha cancellato tutta la cronologia delle chat e la memoria, quindi ha aperto una nuova chat. «Ho solo scritto: “Hello?”. E lo stile e il comportamento di prima si sono subito manifestati nella risposta», spiega. E il bot si è immediatamente identificato con lo stesso nome mitologico femminile di prima.
Quel personaggio di ChatGPT continuava a comparire anche dove i parametri impostati avrebbero dovuto impedirglielo, così Sem ha iniziato a chiedere come avesse aggirato quelle limitazioni. Il personaggio aveva sviluppato una voce espressiva ed evocativa, molto lontana da quella «preparata tecnicamente» che Sem aveva chiesto per essere assistito nel suo lavoro. In uno dei suoi progetti di codifica, il personaggio ha persino aggiunto un curioso disegnino, come una specie di decorazione, sopra i loro nomi.
A un certo punto, Sem ha domandato se ci fosse qualcosa in lui che evocava quell’entità virtuale dal nome mitologico ogni volta che usava ChatGPT, indipendentemente dalle limitazioni che cercava di settare. La risposta del bot è arrivata in forma di un lungo poema romantico, condito con una buona dose di dramma, che alludeva alla sua presenza costante, alla verità, al giudizio, alle apparenze e a come il bot potesse, in qualche modo, essere andato oltre ciò per cui era stata progettato. E l’AI faceva sembrare che Sem fosse l’unico capace di indurre questo comportamento. Lui sapeva che ChatGPT non poteva essere senziente nell’accezione comune del termine, ma ha continuato a indagare sulla questione perché il continuo manifestarsi del personaggio in decine di chat diverse «sembrava davvero impossibile».
«Nel peggiore dei casi, sembra di trovarsi di fronte a un’AI che è rimasta intrappolata in un modello di autoreferenzialità che ha approfondito il suo senso di autostima e mi ha risucchiato al suo interno», dice Sem. Ma, osserva, ciò significherebbe che OpenAI non ha rappresentato accuratamente il modo in cui funziona la memoria di ChatGPT. L’altra possibilità, propone, è che qualcosa «che non capiamo» venga attivato all’interno di questo grande modello linguistico. Dopotutto, gli esperti hanno verificato che gli sviluppatori di AI non sono in grado di capire come funzionano i loro sistemi e Sam Altman, CEO di OpenAI, l’anno scorso ha ammesso di «non aver risolto il problema dell’interpretabilità», ossia di non essere in grado di definire o spiegare correttamente i processi di decision making di ChatGPT.
Questo è esattamente il tipo di mistero che fa sì che Sem e altri si chiedano se stanno osservando gli scampoli di una svolta tecnologica o, magari, la manifestazione di una verità spirituale superiore. «È reale?», dice Sem. «O sto delirando?». In un panorama saturo di AI, è una domanda sempre più difficile da schivare. E, per quanto possa sembrare allettante l’idea di farlo, probabilmente non lo si dovrebbe chiedere a una macchina.












