Sarà considerata una notizia straordinaria o terrificante a seconda delle sensibilità, ma ChatGPT-4 ha superato un test di Turing, dimostrando alcune capacità pressoché indistinguibili da quelle delle controparti umane. Un gruppo di ricerca guidato da Matthew Jackson, professore di Economia presso la Stanford School of Humanities and Sciences negli Stati Uniti, ha condotto un’analisi approfondita delle caratteristiche e del comportamento dell’intelligenza artificiale ChatGPT, applicando metodologie proprie della psicologia e dell’economia comportamentale.

Lo studio – Questo studio ha prodotto risultati sorprendenti, dettagliati in un articolo pubblicato sulla rivista Pnas (Proceedings of the National Academy of Sciences). “Con l’aumentare dell’uso dei bot in contesti decisionali, diventa fondamentale comprendere le loro caratteristiche comportamentali,” ha dichiarato Jackson, anche senior fellow presso lo Stanford Institute for Economic Policy Research.

La ricerca ha esaminato le versioni 3 e 4 di ChatGPT attraverso test di personalità standardizzati e ha invitato i chatbot a elaborare strategie in vari giochi comportamentali che simulano decisioni economiche e morali nel mondo reale, tra cui la gestione di investimenti finanziari. Le risposte dei bot sono state messe a confronto con quelle di oltre 100.000 individui da 50 differenti paesi, portando al superamento di quello che era sostanzialmente un test di Turing avanzato per Intelligenze Artificiali.

Il test di Turing – Il test di Turing, dal nome del pioniere dell’informatica Alan Turing, valuta la capacità di una macchina di emulare comportamenti umani. Se l’intelligenza artificiale compie scelte indistinguibili da quelle umane, il test è considerato superato. I tratti di personalità dei bot sono stati analizzati tramite il test OCEAN Big-5, che misura cinque dimensioni chiave del comportamento umano. La versione 4 di ChatGPT ha mostrato livelli normali in tutti e cinque i tratti, sebbene evidenzi una scarsa “affabilità”.

Nonostante abbia superato il test di Turing, il bot è stato, in altri termini, giudicato scarsamente capace di stabilire relazioni amichevoli, come evidenziato in una relazione di Stanford. Rispetto alla versione 3, la versione 4 si è dimostrata comunque significativamente più avanzata e “piacevole”. Per quel che riguarda i test dei giochi, i ricercatori hanno confrontato una mossa umana scelta casualmente con una tra le 30 sessioni giocate con ciascun dei bot.

Nella maggior parte dei giochi, le mosse della Versione 4 avevano più probabilità di essere “umane” – vale a dire eguali a quelle delle controparti umane – che non. La versione 3 invece non ha superato questo test di Turing. La ricerca ha rilevato che le scelte dei chatbot nei giochi sono spesso ottimizzate per il massimo beneficio sia per il bot che per la sua controparte umana. Le loro strategie erano coerenti con l’altruismo, l’equità, l’empatia e la reciprocità, portando i ricercatori a suggerire che i chatbot potrebbero funzionare bene come agenti del servizio clienti e mediatori di conflitti.

Gianmarco Pondrano Altavilla

Articolo Precedente

Odysseus è sulla Luna: è il primo sbarco di un mezzo privato. Missione Usa dopo oltre 50 anni dall’Apollo 17

next