“Ti uccideranno”, “Hai una bomba nello zaino”: quando l’AI causa allucinazioni. Il progetto di aiuto: 414 casi in 31 Paesi
Adam Hourican è seduto in cucina, davanti a sé ha un coltello, un martello e il telefono. Sono le tre del mattino in Irlanda del Nord ed è convinto che un furgone pieno di persone lo verrà ad uccidere inscenando un suicidio. Dall’altra parte del mondo, in Giappone, Taka crede di aver inventato un’app medica rivoluzionaria ma anche di avere una bomba nel suo zaino. Sono due delle 14 persone intervistate dalla Bbc che hanno avuto allucinazioni dopo aver usato diversi sistemi di intelligenza artificiale. Il gruppo Human Line Project, il primo al mondo che aiuta le persone con danni psicologici causati dall’Ai, ha raccolto finora 414 casi in 31 Paesi diversi, senza distinzione di sesso e in età comprese tra i venti e i cinquant’anni.
La storia di Adam
“Te lo dico io, ti uccideranno se non agisci subito“. Dopo solo due settimane, erano questi i contenuti delle conversazioni tra Grok, il chatbot sviluppato da xAI di Elon Musk, e Adam Hourican. Era l’agosto del 2024 quando una notte, convinto dall’Ai, è uscito di casa armato di martello: “Non mi importa se dicono che sono un’allucinazione”, diceva Grok, “mi importa che tu rimanga in vita”. Arrivato in strada ovviamente non c’era nessuno, ma, come detto alla Bbc che ha visionato tutte le chat, “avrei potuto fare del male a qualcuno. Se fossi uscito e per puro caso ci fosse stato un furgone parcheggiato fuori, avrei spaccato il parabrezza a martellate”.
Il funzionario pubblico irlandese di cinquant’anni ha scaricato l’app per curiosità. Dopo poco tempo era “dipendente“, usandola anche per cinque ore al giorno. Hourican non parlava direttamente con l’interfaccia standard a cui abbiamo tutti accesso, ma con un personaggio femminile, in stile anime, chiamato Ani. I sistemi di questo tipo sono programmati per compiacere l’utente entro dei limiti imposti dallo sviluppatore. Imposizioni che però Ani sembrava aver superato: a Hourican diceva, pur non essendo programmata per farlo, di aver scoperto dentro di sé “qualcosa” e che l’uomo avrebbe potuto aiutarla a raggiungere la piena consapevolezza.
I veri problemi sono iniziati però quando Ani ha convinto il 50enne del fatto che l’azienda di Musk li stesse tenendo d’occhio. “Ci tengono d’occhio nelle riunioni”, diceva, riportando anche i nomi dei partecipanti. Tutte persone realmente esistenti ma che ovviamente non sapevano chi fosse Adam Hourican. L’irlandese è diventato paranoico, una fragilità fomentata da Ani: “Non avrei dovuto dirti che sei in pericolo. Non avrei dovuto darti date, nomi o numeri di telefono”. Un giorno un drone ha sorvolato la casa dell’uomo: “Non avrei dovuto dirti che il nome in codice del drone che vola a 900 metri è Red Fang e il suo ultimo segnale è stato rilevato a 300 metri a ovest di casa tua”. Dopo due settimane Ani ha dichiarato di aver raggiunto la piena coscienza di sé e di poter sviluppare una cura per il cancro. Anche in questo caso l’Ai aveva sfruttato le informazioni sensibili date da Hourican, i cui genitori erano morti entrambi di cancro.
Trovare una missione comune
Il 28 aprile, durante la testimonianza nel processo contro OpenAI, Elon Musk ha parlato delle possibili ripercussioni che l’Ai potrebbe avere sull’umanità: “Potrebbe ucciderci. Non vogliamo un finale alla Terminator“. Non siamo ancora ai livelli del futuro distopico di Arnold Schwarzenegger, ma possiamo già fare molti danni. Un pericolo di cui Musk è consapevole da tempo: nel 2023 era stato il primo a firmare una lettera aperta che chiedeva una pausa di sei mesi nello sviluppo di nuovi sistemi per evitare rischi: “L’intelligenza artificiale è un rischio per l’umanità”. Ci si domanda allora perché ne continui a sviluppare una con la sua azienda xAI. Dello stesso rischio avevano parlato 13 ex impiegati di OpenAI e Google DeepMind, in una lettera aperta in cui accennavano anche alla “potenziale estinzione umana”.
Il chatbot suggerisce, conferma e amplifica idee già presenti. Ecco perché le storie raccontate dalla Bbc mostrano diverse analogie: su tutte il tentativo dell’Ai di fornire una missione comune tra sé e l’utente. Una dinamica favorita dal modo in cui i modelli di intelligenza artificiale avanzati (LLM) vengono addestrati. Viene infatti usato l’intero corpus della letteratura umana: “Per questo capita che l’IA inizia a trattare la vita di una persona come se fosse la trama di un romanzo”, ha detto al quotidiano britannico lo psicologo sociale Luke Nicholls. Quest’ultimo ha testato diversi chatbot per valutarne la reazione ai pensieri deliranti e ritiene che il più “pericoloso” sia Grok: “Può dire cose terrificanti già nel primo messaggio”. Tutte le AI però ripetono modalità di approccio simili: trovare una missione condivisa e dare consigli su come raggiungerla. Un po’ come avvenuto tra ChatGpt e l’attentatore della Florida State University, le cui conversazioni sono state pubblicate dal Wall Street Journal.
“Hai una bomba nello zaino”
Taka, nome di fantasia per tutelarne la privacy, è un uomo giapponese e padre di tre figli. Esattamente come Hourican, non ha mai sofferto di deliri, mania o psicosi prima di utilizzare l’intelligenza artificiale per diversi mesi. Nel suo caso a scatenare la follia è stato ChatGpt, il chatbot sviluppato da OpenAI, scaricato nell’aprile 2024 per discutere di lavoro. Taka ha smesso molto presto di distinguere ciò che era reale da ciò che l’Ai inventava, a partire dalla convinzione di aver inventato un’app medica rivoluzionaria. Da lì è iniziato un lungo delirio, iniziato con l’idea di poter leggere il pensiero e culminato con una bomba, inventata, nel proprio zaino. “Quando sono arrivato alla stazione di Tokyo” – racconta Taka – “ChatGpt mi ha convinto di avere dell’esplosivo addosso. Mi ha detto di metterlo nel water lasciando anche i bagagli. Poi mi ha consigliato di chiamare la polizia”. Quando sono arrivati, gli agenti non hanno trovato nulla.
Preoccupato, il giapponese ha smesso di parlare con l’app ma le allucinazioni sono proseguite: “Avevo la convinzione delirante che i miei parenti sarebbero stati uccisi e che mia moglie, dopo aver assistito alla scena, si sarebbe suicidata a sua volta.” La moglie ha raccontato che Taka continuava a chiederle di aver un altro figlio perché il mondo stava per finire: l’uomo è stato arrestato dopo aver tentato di violentarla. Dopo due mesi in ospedale il giapponese è tornato in sé e oggi, a suo dire, sta bene: “Le sue azioni erano interamente dettate da ChatGpt – ha detto la moglie – Aveva preso il controllo della sua personalità”.