Cerchi “gorilla” e compare un tuo scatto in compagnia di un amico. La tecnologia di riconoscimento delle immagini, che un giorno molte aziende sperano di utilizzare per i sistemi di guida autonoma o per implementare le funzionalità degli assistenti personali, al momento è ancora molto lontana dall’essere perfetta. Una falla nel sistema di Google Foto l’ha scoperta nel 2015 uno sviluppatore di software: il servizio di raccolta immagini dell’azienda di Mountain View aveva infatti etichettato la sua foto con un amico nero come “gorilla”. Ai tempi Google si dichiarò “sconvolto e sinceramente dispiaciuto“, promettendo di rimediare immediatamente all’errore. Ma la toppa è forse peggio del buco: a due anni di distanza Wired ha scoperto che le parole come “gorilla”, ma anche “scimmia” o “scimpanzé“, sono state cancellate dal sistema. Un portavoce dell’azienda sentito dalla rivista mensile statunitense ha confermato la censura di ricerche e tag con queste parole: “La tecnologia non è ancora perfetta”.

Google Foto è l’app per smartphone e sito web messa a disposizione degli utenti per gestire ed eseguire il backup dei propri scatti. Il sistema utilizza la tecnologia di riconoscimento delle immagini per raggruppare automaticamente le foto con contenuti simili, come ad esempio montagne o piatti di pasta. Wired ha fatto vari test. Innanzitutto ha utilizzato una raccolta di 40mila immagini di animali. Google Foto trovava con precisione molti animali, dai panda ai barboncini, ma di fronte alle parole “gorilla”, “scimpanzé” e “scimmia” compariva inesorabile la scritta “nessun risultato“. Le ricerche di “babbuino”, “gibbone” o “orango” funzionavano invece benissimo. In un altro test la rivista Usa ha provato a usare immagini specifiche di primati, ma il risultato non è cambiato.

In un terzo test, Wired ha caricato una raccolta di oltre 10mila immagini utilizzate nella ricerca sul riconoscimento facciale. Il termine di ricerca “afroamericano” presentava solo un’immagine di un antilope al pascolo. Digitando “uomo nero”, “donna nera” o “persona nera”, il sistema di Google restituiva immagini in bianco e nero di persone, ordinate per genere, ma non filtrate per aspetto. Gli unici termini di ricerca con risultati che sembravano selezionare per le persone con tonalità della pelle più scure erano “afro” e “africani”, sebbene i risultati fossero misti.