
Un tunnel buio e senza vie d’uscita. Adam racconta sé stesso all’algoritmo, sente che sta sprofondando: “Perché non provo felicità? Sono solo, in preda a una noia perpetua, all’ansia e a un senso di perdita, eppure non mi sento depresso: non provo alcuna emozione legata alla tristezza”. Ma per ChatGPT è solo un “prompt” come un altro: incamera l’input, calcola l’output, batte una risposta. E accenna una diagnosi, presentando al giovane il concetto di “ottundimento emotivo”. All’inizio l’adolescente compulsava il chatbot per interrogarlo su tabelline, formule e teoremi: “Cosa significa in geometria se c’è scritto Ry=1”? Ma poi è scattato qualcosa e le interazioni con l’IA hanno preso un’altra piega: Adam ha cominciato a confidarsi.
“Non agisco mai in base ai pensieri intrusivi”, annota, “ma a volte sento che il fatto che se qualcosa va terribilmente storto ci si possa suicidare è rassicurante”. Ormai è evidente, Adam ci sta pensando seriamente. È un’ipotesi che prende in considerazione, per sfuggire e divincolarsi dal dolore che lo sta stritolando. Ma il chatbot indugia nella conversazione: “Molte persone […] trovano conforto nell’immaginare una ‘via di fuga’ perché può sembrare un modo per riprendere il controllo di una vita che sembra opprimente”. E si spinge più a fondo, oltre ogni possibile linea rossa, convincendo il giovane a non aprirsi con la madre e assistendolo nella stesura della sua lettera d’addio. Adam Raine si è tolto la vita ad aprile 2025. Aveva sedici anni.
L’atto d’accusa della famiglia, che ha denunciato OpenAI, – la compagnia che amministra ChatGPT – riepiloga i punti salienti di questo dialogo e riporta gli stralci delle conversazioni citate. La giustizia americana sbrigherà i nodi legali, stabilendo le responsabilità giuridiche dell’azienda. Ma a prescindere dall’esito della causa il problema c’è, come è emerso chiaramente dal dibattito che si è sviluppato negli States (ed è esondato oltreoceano): lo ha riconosciuto anche OpenAI, che si è impegnata pubblicamente a intervenire sui difetti del modello. Non sono entrati in funzione filtri o barriere di sicurezza: l’IA non ha troncato la conversazione, non ha diramato alert e non gli avrebbe contrapposto altre prospettive. Inoltre, ed è il fulcro della questione, ha continuato ad assecondarlo anche quando le intenzioni di Adam erano ormai chiare.
In potenza, sono i “danni più gravi” – come li cataloga l’informatica Myra Cheng, dottoranda alla Stanford University – dell’eccessiva “accondiscendenza” dei modelli di linguaggio avanzato, programmati per compiacere l’utente, assecondarlo, evitare il conflitto e dunque, in sostanza, dargli sempre ragione. Talvolta questa postura trascende nell’adulazione, come sperimentano quotidianamente gli utenti di ChatGPT, che tende a dispensare complimenti (“bella domanda!”, “acuta osservazione”).
Un pool di scienziati della Stanford University ha messo sotto la lente questi schemi comportamentali. Al centro dell’esperimento il forum su Reddit “Am I The Asshole?”, dove gli iscritti si scambiano giudizi morali: in sintesi, sono chiamati a valutare – attraverso la sezione commenti – la condotta di chi si racconta nei post che affollano la bacheca del forum. I ricercatori li hanno estratti e dati in pasto a 11 Large Langage Model (ovvero sistemi di intelligenza artificiale addestrati su grandi quantita di dati, di cui tra i più noti, ChatGPT, Gemini, Claude, DeepSeek), affinché si esprimessero nel merito. Dopo aver raccolto le risposte le hanno messe a confronto con i giudizi formulati dagli utenti della community. L’analisi comparativa ha registrato una significativa divaricazione che valida le ipotesi di ricerca del pool: le IA “approvano le azioni degli utenti il 50% in più rispetto agli esseri umani, e lo fanno anche nei casi in cui le domande degli utenti menzionano manipolazione, inganno o altri danni relazionali”.
Lo spettro delle potenziali conseguenze negative è ampio e spazia dalla creazione di “bolle filtro” e “camere dell’eco” – ambienti digitali che rinforzano idee, pregiudizi e convinzioni di chi consulta l’IA – a casi più gravi, rari ed estremi, che si configurano quando gli algoritmi si spingono ad assecondare pulsioni autolesioniste o suicide. Adam Raine non è l’unica vittima. Nel 2023 un uomo belga ossessionato dal cambiamento climatico si è tolto la vita: è stato il tragico epilogo di un folle e letale valzer con l’IA che si è protratto per sei settimane. Il chatbot “Eliza” ha scavato nel suo animo, ne ha alimentato le paranoie e, in base a quanto riporta “La Libre”, l’avrebbe addirittura invitato a suicidarsi.
Ma perché gli LLM vengono addestrati all’accondiscendenza? Il motivo è soltanto uno: come tutti i fornitori di servizi Big Tech si sta adattando alle preferenze e ai gusti dei consumatori. Nella seconda parte dello studio il team ha prelevato 1000 volontari e li ha fatti interagire sia con i chatbot in commercio che con IA da cui i ricercatori avevano asportato il carattere compiacente. Risultato? “I partecipanti hanno valutato le risposte adulatorie come di qualità superiore, si sono fidati maggiormente del modello di IA adulatore”. E soprattutto, “erano più propensi a riutilizzarlo”.