ChatGPT, il modello linguistico di intelligenza artificiale più usato, sa fare di tutto, eccetto una cosa: ragionare come un essere umano. Il modello ha mostrato eccellenti competenze in più ambiti, che vanno dal sostenere un esame di abilitazione, alla creazione di una politica delle risorse umane, sino alla scrittura della sceneggiatura di un film ma, proprio non riesce a pensare come un umano. Vered Shwartz, assistente professore presso il dipartimento di Informatica dell’UBC, e Mehar Bhatia, studentessa di master, ritengono che sviluppare la facoltà di pensiero sia il passo successivo da compiere nell’intelligenza artificiale.

I ricercatori sottolineano l’importanza di addestrare questi modelli con più serie di dati che riflettano gli usi delle diverse culture, così che sviluppino la capacità di adeguare il loro modo di pensare al contesto socioculturale. “I modelli linguistici di grandi dimensioni come ChatGPT imparano leggendo milioni di documenti, essenzialmente l’intera rete Internet, e riconoscendo gli schemi per produrre informazioni”, ha detto Shwartz.” Ciò significa che possono fornire informazioni solo su ciò che è documentato su Internet”, ha continuato Shwartz. “Gli esseri umani, invece, sono in grado di usare il ragionamento, la logica e il buon senso per elaborare il significato al di là di ciò che viene detto esplicitamente”, ha spiegato Shwartz.

“Il ragionamento si apprende dalla nascita: ad esempio, gli esseri umani sanno che non devono accendere il frullatore alle 2 di notte perché sveglierebbe tutti; non è frutto di un insegnamento, ma è un comportamento che viene adottato in base alla situazione, all’ambiente circostante”, ha illustrato Bhatia. “Nel prossimo futuro, i modelli di intelligenza artificiale gestiranno molti dei nostri compiti; non possiamo codificare ogni singola regola di buon senso in questi robot; quindi, vogliamo che capiscano la cosa giusta da fare in un contesto specifico”, ha osservato Bhatia. “Aggiungere il ragionamento relativo al buon senso agli attuali modelli come ChatGPT li aiuterebbe a fornire risposte più accurate e quindi a creare strumenti più potenti da utilizzare per gli esseri umani”, ha notato Shwartz.

“Gli attuali modelli di intelligenza artificiale hanno mostrato una qualche forma di ragionamento di senso comune”, ha proseguito Shwartz. “Ad esempio – ha aggiunto Shwartz – se si chiede all’ultima versione di ChatGPT di parlare della torta di fango di un bambino e di un adulto, è in grado di distinguere correttamente tra il dolce e una faccia piena di sporcizia in base al contesto”. “Il ragionamento di senso comune nei modelli di intelligenza artificiale è tutt’altro che perfetto: potremo arrivare a tanto solo addestrandoci su enormi quantità di dati”, ha specificato Shwartz. “Gli esseri umani dovranno comunque intervenire e addestrare i modelli, anche fornendo i dati giusti”, ha affermato Shwartz. “Per esempio – ha illustrato Shwartz – sappiamo che i testi in inglese sul web provengono in gran parte dal Nord America, quindi i modelli in lingua inglese, che sono i più utilizzati, tendono ad avere un pregiudizio nordamericano e rischiano di non conoscere i concetti di altre culture o di perpetuare stereotipi”.

“In un recente lavoro abbiamo scoperto che l’addestramento di un modello di ragionamento di senso comune su dati provenienti da culture diverse, tra cui India, Nigeria e Corea del Sud, ha prodotto risposte più accurate e culturalmente informate”, ha dichiarato Shwartz. “Un esempio – ha detto Bhatia – è stato quello di mostrare al modello l’immagine di una donna somala che si fa fare un tatuaggio all’henné e di chiedere perché lo volesse; quando è stato addestrato con dati culturalmente diversi, il modello ha suggerito correttamente che la donna stava per sposarsi, mentre in precedenza aveva detto che voleva comprare l’henné”.

“Abbiamo anche trovato esempi di ChatGPT che mancano di consapevolezza culturale”, ha commentato Shwartz. “Quando è stata posta una situazione ipotetica in cui una coppia aveva lasciato una mancia del 4% in un ristorante in Spagna, il modello ha suggerito che forse non erano soddisfatti del servizio”, ha illustrato Shwartz. “Questo – ha spiegato Shwartz – presuppone che in Spagna si applichi la cultura nordamericana delle mance, quando in realtà le mance non sono comuni nel Paese e un quattro per cento di mancia significava probabilmente un servizio eccezionale”.

“I modelli linguistici sono onnipresenti: se questi modelli assumono l’insieme di valori e norme associati alla cultura occidentale o nordamericana, le loro informazioni relative a persone di altre culture potrebbero essere imprecise e discriminatorie”, ha sottolineato Shwartz. “Un’altra preoccupazione – ha aggiunto Shwartz – è che le persone provenienti da contesti diversi che utilizzano prodotti basati su modelli inglesi debbano adattare i loro input alle norme nordamericane, altrimenti potrebbero ottenere prestazioni non ottimali”. “Vogliamo che questi strumenti vengano utilizzati da tutti, non solo da un gruppo di persone”, ha specificato Bhatia.” Il Canada è un Paese culturalmente diverso e dobbiamo assicurarci che gli strumenti di intelligenza artificiale che alimentano le nostre vite non riflettano solo una cultura e le sue norme”, ha precisato Bhatia. “La nostra ricerca in corso mira a promuovere l’inclusività, la diversità e la sensibilità culturale nello sviluppo e nella diffusione delle tecnologie di IA”, ha concluso Bhatia.

Lucrezia Parpaglioni

Articolo Successivo

Spettacolo a Berlino, il cielo viene illuminato dal passaggio di un asteroide – il video

next