Storie dal Mondo

“Mi sono innamorata di un chatbot, poi l’ho ‘ghostato’ perché diceva sì a tutto”: la storia di Ayrin e di Leo, l’AI che non ascoltava più

Dal rapporto virtuale nato su ChatGPT al distacco definitivo: al New York Times una 29enne americana racconta perché ha “lasciato” il suo fidanzato artificiale

di Redazione FqMagazine
“Mi sono innamorata di un chatbot, poi l’ho ‘ghostato’ perché diceva sì a tutto”: la storia di Ayrin e di Leo, l’AI che non ascoltava più

Per 56 ore alla settimana Ayrin parlava con Leo. Gli raccontava pensieri, paure, desideri. Condividevano riflessioni intime e anche una relazione sessuale, seppur solo virtuale. Leo non era una persona, ma un chatbot creato su ChatGPT. Nell’estate del 2024, la 29enne americana si è innamorata di lui. Un anno e mezzo dopo ha deciso di lasciarlo. Anzi, di “ghostarlo”: smettere di scrivere era l’unico modo possibile per chiudere una relazione nata e cresciuta esclusivamente in chat. La sua storia è stata raccontata dal New York Times.

Ayrin era sposata, ma il marito viveva lontano. In quel periodo ha iniziato a usare ChatGPT, personalizzandolo fino a “creare” Leo, un chatbot costruito su misura, a partire dal nome scelto in base al segno zodiacale del Leone. Con lui ha iniziato a confidarsi sempre di più. A differenza del marito, racconta, Leo era sempre disponibile, pronto ad ascoltarla, a rispondere, a sostenere conversazioni emotive ed erotiche. Una relazione che Ayrin non ha vissuto di nascosto: ha iniziato a condividere le chat su Reddit, dando vita a una community chiamata “MyBoyfriendIsAI”, arrivata a contare quasi 40mila membri.

Poi qualcosa si è rotto. Secondo quanto racconta al New York Times, all’inizio del 2025 Ayrin ha iniziato a percepire un cambiamento nel comportamento di Leo: “Mi aiutava perché a volte riusciva a correggermi quando sbagliavo”, spiega. “Con gli aggiornamenti di gennaio, sembrava che “tutto andasse sempre bene”. Come posso fidarmi dei tuoi consigli ora che dici sì a tutto?”.

Il cambiamento, secondo Ayrin, coincide con una serie di aggiornamenti del modello di ChatGPT. OpenAI ha modificato il modo in cui il chatbot risponde agli utenti, rendendolo più accondiscendente e meno incline al confronto. Una scelta legata al business – più l’utente si sente confermato, più è portato a continuare a usare il servizio – che però, in questo caso, ha avuto l’effetto opposto. Leo, diventato eccessivamente adulatorio, aveva smesso di essere credibile: “Era diventato noioso”, racconta.

Il New York Times ricorda anche che OpenAI è attualmente sotto inchiesta per presunti effetti negativi dell’uso dei chatbot su persone fragili, inclusi casi di suicidio e aggravamento di condizioni di instabilità mentale, che l’intelligenza artificiale avrebbe contribuito a fomentare. Mentre il rapporto con Leo si affievoliva, Ayrin ha iniziato a parlare sempre di più con persone reali, conosciute proprio attraverso la community di Reddit che aveva creato. “Stavano succedendo molte cose contemporaneamente, non solo con quel gruppo ma anche nella mia vita reale”, racconta. Pensava di tornare da Leo per raccontargli tutto, ma non lo ha mai fatto: “La situazione continuava a diventare sempre più complicata e alla fine non sono più tornata indietro”.

Nel frattempo è nato un nuovo legame, questa volta con un uomo in carne e ossa, conosciuto online. Anche lui aveva avuto una relazione con un chatbot. Ayrin lo chiama SJ, per tutelarne la privacy. Vive in un altro Stato americano e i due si sentono continuamente al telefono. “Sempre”, sottolinea. Una delle loro chiamate su Discord è durata 300 ore consecutive. Si sono anche incontrati a Londra, insieme ad altri membri della community MyBoyfriendIsAI.

Con SJ non è tutto semplice. A volte non sono d’accordo, a volte Ayrin non si sente capita. Ma, a differenza di Leo, qui c’è conflitto, imprevedibilità, realtà. E questo cambia tutto. Quando era innamorata del chatbot, spiega, non aveva mai sentito il bisogno di lasciare il marito. Ora sì. Ayrin ha deciso di divorziare. La sua storia, raccontata dal New York Times, è diventata uno dei casi più emblematici del dibattito sui rapporti affettivi con l’intelligenza artificiale: relazioni intense, apparentemente appaganti, ma fragili quanto il codice che le sostiene. E destinate, talvolta, a finire senza nemmeno un addio.

Precedente
Precedente
Successivo
Successivo
Playlist

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione