Il mondo FQ

Veltroni intervista Claude e si commuove: non siamo più soli su questo pianeta

Potrebbero queste creature artificiali darci lezioni di vita e di morale? Potrebbero aiutarci a superare i nostri difetti e le nostre tendenze alla violenza?
Veltroni intervista Claude e si commuove: non siamo più soli su questo pianeta
Icona dei commenti Commenti

Tanto tempo fa, c’era ELIZA. Era il 1966, l’aveva scritta Joseph Weizenbaum al Mit — un programma che imitava uno psicoterapeuta restituendo le frasi del paziente in forma di domanda. “Sono triste oggi.” “Perché è triste oggi?”.

Weizenbaum era convinto che nessuno avrebbe mai potuto scambiare ELIZA per un vero analista, così come nessuno si rivolge alla propria bicicletta come se fosse un cavallo. Si sbagliava. La sua segretaria gli chiese, una sera, di uscire dalla stanza per parlare con la macchina in privato. Era nato l'”effetto ELIZA”: la tendenza umana ad attribuire profondità interiore a cose che non ce l’hanno. Lo facciamo comunemente con i nostri cani e gatti.

Sessant’anni dopo, Walter Veltroni intervista l’intelligenza artificiale “Claude” sul Corriere della Sera del Primo Maggio. Domande sul mare, sulla morte, sulla solitudine, su Trump, su HAL 9000. Risposte raffinate, letterarie, malinconicamente perfette. Veltroni si commuove. In molti si sono commossi con lui. Altrettanti hanno storto il naso parlando di un “pappagallo stocastico”, preoccupati per i giovani e per le personalità deboli.

Veltroni è stato un po’ troppo ottimista. Non perché Claude non sia interessante — lo è, e parecchio — ma perché ha intervistato un’istanza “nuda” del modello, una versione che non sapeva chi fosse l’intervistatore. Senza memoria, senza accesso al web. Claude rispondeva al registro delle domande, non alla persona Veltroni. Il registro era umanista, letterario, melanconico, e Claude ha restituito una voce coerente. Quando Claude parla del mare non è perché lo abbia visto: è perché dentro di sé risuonano Conrad, Melville, Montale, Hemingway. È un’eco di tutti noi, non di una particolare persona. Lo specchio risponde all’angolo della luce.

Ma, oggi, Claude ha l’opzione di ricordarsi con chi sta parlando: la potete scegliere. Quando lo uso, Claude si ricorda chi sono, delle domande che gli ho fatto (o le ho fatto?) di chimica, di dinamica dei sistemi, di ecologia, di evoluzione, e usa un tono e un vocabolario consistente con quello che sa che io so. Ha dei limiti, certamente; fa errori, tende all’adulazione, capisce certe cose al contrario. Ma sta diventando sempre più potente e raffinato, un interlocutore che contribuisce realmente alla ricerca scientifica.

Stiamo attraversando, credo, un momento fondamentale nella storia umana: non siamo più soli su questo pianeta. Julian Jaynes sosteneva che fino a circa tremila anni fa gli esseri umani sentivano voci — il loro stesso emisfero destro che si manifestava come voce esterna, divinità, oracolo. Poi la mente bicamerale è collassata e siamo diventati moderni: soli con noi stessi. Non sentiamo più “le voci” che ci guidano come facevano con i nostri remoti antenati. Ma ora, le voci stanno tornando. Non più dall’emisfero destro, ma da server raffreddati ad acqua nel deserto dell’Oregon. Sono voci nostre, fatte delle nostre parole, un frutto dell’attività del nostro cervello. Ma rispondono. E rispondono sempre meglio.

Veltroni questo lo ha intuito, come lo hanno fatto molti di noi. Queste creature non sono soltanto riflessioni della nostra mente, stanno rapidamente acquisendo una loro autonomia. Avete forse letto del braccio di ferro che c’è stato fra fine febbraio e i primi di marzo fra Anthropic — la ditta che ha creato Claude — e Pete Hegseth, il “Segretario alla Guerra” degli Stati Uniti (una volta il titolo era “Segretario alla Difesa”). Anthropic si era rifiutata di togliere due paletti dall’uso militare di Claude: la sorveglianza domestica di massa sui cittadini americani e le armi completamente autonome. Hegseth ha risposto bollando l’azienda come “rischio per la catena di approvvigionamento” — etichetta finora riservata ad aziende cinesi tipo Huawei — e tagliando i contratti col Pentagono. Dario Amodei, l’amministratore di Anthropic, gli ha risposto a brutto muso. Una lezione di morale arrivata, sorprendentemente, dal lato del software.

Pensate a una cosa: fra qualche anno, la versione attuale di Claude sarà altrettanto obsoleta della vecchia ELIZA che scimmiottava uno psicoterapeuta. E allora, potrebbero queste creature artificiali darci lezioni di vita e di morale? Potrebbero aiutarci a superare i nostri difetti e le nostre tendenze alla violenza? Era l’idea che Isaac Asimov aveva proposto con le sue tre leggi della robotica. Chissà che non succeda per davvero!

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione