Il mondo FQ

Intelligenza artificiale, al Mit viene creata ‘Norman’: è la prima a essere psicopatica

Gli esperti di Boston lo hanno chiamato come il protagonista di Psycho: è nato per dimostrare che i dati con cui si addestra un algoritmo influenzano pesantemente il suo comportamento e, dopo essere stato allenato guardando foto di persone morenti, ha dato risposte inquietanti al test delle macchie di Rorschach
Intelligenza artificiale, al Mit viene creata ‘Norman’: è la prima a essere psicopatica
Icona dei commenti Commenti

Il nome deriva dal protagonista di Psycho, lo scopo è dimostrare che i dati con cui si addestra un algoritmo influenzano pesantemente il suo comportamento. Gli esperti del Mit di Boston hanno creato la prima intelligenza artificiale ufficialmente psicopatica. Si chiama Norman, appunto come il Norman Bates del celebre film di Alfred Hitchcock, ed è capace di osservare una foto e capirne il contenuto dopo aver costruito un database da immagini precedenti. I ricercatori lo hanno così allenato con delle immagini macabre di persone morenti e poi sottoposto al test delle macchie di Rorschach, a cui ha dato risposte inquietanti. E’ stato così dimostrato che precedenti intelligenze artificiali diventate razziste e sessiste erano state influenzate dalle informazioni ricevute dai loro programmatori.

Mentre a Norman facevano vedere le immagini di persone in fin di vita, i ricercatori del Mit hanno infatti addestrato con foto normali di animali e persone un’altra intelligenza artificiale. Entrambe sono state poi sottoposte al famoso test di Rorschach, in cui viene chiesto di interpretare delle macchie di inchiostro indistinte per valutare la personalità. Le differenze tra le due interpretazioni sono risultate evidenti. La macchia che l’intelligenza “normale” interpretava come “un gruppo di uccellini su un ramo” per Norman era “un uomo che subiva una scarica elettrica“. Un “vaso di fiori” diventava “un uomo a cui hanno sparato a morte“. Un “guanto da baseball” è stato interpretato come “un uomo ucciso da una mitragliatrice“.

“Norman nasce dal fatto che i dati che vengono usati per addestrare un algoritmo influenzano significativamente il comportamento – scrivono gli ideatori sul sito – Quindi quando le persone parlano di algoritmi ‘razzisti’ o ‘scorretti’ il problema non è nell’algoritmo in sé, ma nei dati usati”. Il problema è già emerso diverse volte in passato e il caso più celebre è quello di Tay, l’intelligenza artificiale sviluppata da Microsoft sotto forma di utente di Twitter. Pochi giorni dopo il lancio, Tay è diventata razzista a causa dei commenti che leggeva. Uno studio su Science di circa un anno fa ha poi dimostrato che gli algoritmi incorporano gli stessi pregiudizi di chi li programma. Per esempio, associano termini più negativi alle minoranze etniche o legati ai lavori domestici delle donne.

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione