Cerchi “gorilla” e compare un tuo scatto in compagnia di un amico. La tecnologia di riconoscimento delle immagini, che un giorno molte aziende sperano di utilizzare per i sistemi di guida autonoma o per implementare le funzionalità degli assistenti personali, al momento è ancora molto lontana dall’essere perfetta. Una falla nel sistema di Google Foto l’ha scoperta nel 2015 uno sviluppatore di software: il servizio di raccolta immagini dell’azienda di Mountain View aveva infatti etichettato la sua foto con un amico nero come “gorilla”. Ai tempi Google si dichiarò “sconvolto e sinceramente dispiaciuto“, promettendo di rimediare immediatamente all’errore. Ma la toppa è forse peggio del buco: a due anni di distanza Wired ha scoperto che le parole come “gorilla”, ma anche “scimmia” o “scimpanzé“, sono state cancellate dal sistema. Un portavoce dell’azienda sentito dalla rivista mensile statunitense ha confermato la censura di ricerche e tag con queste parole: “La tecnologia non è ancora perfetta”.

Google Foto è l’app per smartphone e sito web messa a disposizione degli utenti per gestire ed eseguire il backup dei propri scatti. Il sistema utilizza la tecnologia di riconoscimento delle immagini per raggruppare automaticamente le foto con contenuti simili, come ad esempio montagne o piatti di pasta. Wired ha fatto vari test. Innanzitutto ha utilizzato una raccolta di 40mila immagini di animali. Google Foto trovava con precisione molti animali, dai panda ai barboncini, ma di fronte alle parole “gorilla”, “scimpanzé” e “scimmia” compariva inesorabile la scritta “nessun risultato“. Le ricerche di “babbuino”, “gibbone” o “orango” funzionavano invece benissimo. In un altro test la rivista Usa ha provato a usare immagini specifiche di primati, ma il risultato non è cambiato.

In un terzo test, Wired ha caricato una raccolta di oltre 10mila immagini utilizzate nella ricerca sul riconoscimento facciale. Il termine di ricerca “afroamericano” presentava solo un’immagine di un antilope al pascolo. Digitando “uomo nero”, “donna nera” o “persona nera”, il sistema di Google restituiva immagini in bianco e nero di persone, ordinate per genere, ma non filtrate per aspetto. Gli unici termini di ricerca con risultati che sembravano selezionare per le persone con tonalità della pelle più scure erano “afro” e “africani”, sebbene i risultati fossero misti.

close

Prima di continuare

Se sei qui è evidente che apprezzi il nostro giornalismo. Come sai un numero sempre più grande di persone legge Ilfattoquotidiano.it senza dover pagare nulla. L’abbiamo deciso perché siamo convinti che tutti i cittadini debbano poter ricevere un’informazione libera ed indipendente.

Purtroppo il tipo di giornalismo che cerchiamo di offrirti richiede tempo e molto denaro. I ricavi della pubblicità ci aiutano a pagare tutti i collaboratori necessari per garantire sempre lo standard di informazione che amiamo, ma non sono sufficienti per coprire i costi de ilfattoquotidiano.it.

Se ci leggi e ti piace quello che leggi puoi aiutarci a continuare il nostro lavoro per il prezzo di un cappuccino alla settimana.

Grazie,
Peter Gomez

Articolo Precedente

Facebook aggiorna l’algoritmo che decide cosa farci vedere: priorità a post di amici e familiari, penalizzate notizie e pagine

prev
Articolo Successivo

Facebook aggiorna il News Feed, come funziona e quali aziende premierà il nuovo algoritmo

next