Il fidanzato che ci ha lasciato, l’amico che ci ha tradito. Fra qualche tempo sarà possibile, se non abbiamo optato per la cancellazione definitiva, con Google Foto evitare la vista di persone sgradite nei nostri album fotografici. Con una nuova feature annunciata qualche tempo fa alla Google I/O, la conferenza dedicata agli sviluppatori, Mountain View permetterà di creare una sorta di black list di persone che non vogliamo vedere neanche in foto, “parcheggiando” le immagini in qualche angolo dei suoi server senza farcele più vedere.

L’aggiornamento del sistema che vanta cento milioni di utenti e permette di archiviare online le nostre immagini è stato introdotto in Usa, Canada, America Latina e in parte in Asia, Medio Oriente e Africa, ma prima o poi sarà disponibile anche per l’Italia. La soluzione non prevede la distruzione delle foto, ma semplicemente eviterà di mostrarle quando si sfoglierà la sezione “Persone” e anche “Riscopri questo giorno” così come già succede con Facebook che non ripropone foto che fanno venire i nervi nella sezione “Accadde oggi”.

Tutto questo è possibile grazie a un sistema di etichettatura e al riconoscimento facciale. L’opzione permette anche di cambiare idea. Così se il traditore chiede scusa o l’amore improvvisamente ritorna basta togliere il nome dalla lista e tutto torna come prima. Che tutto funzioni alla perfezione è comunque ancora da dimostrare. Qualche tempo fa infatti un utente si è accorto che gli algoritmi che fanno funzionare Google Photo avevano etichettato le persone di colore come “gorilla”.

Nel regno del politically correct si tratta di una gaffe imperdonabile tanto è vero che prontamente è arrivata la risposta di Yonatan Zunger, chief architect di Google+, che in breve tempo a risolto il problema semplicemente cancellando la parola gorilla dalle etichette di Google Photo. Ovviamente sono arrivate anche le scuse e nuovi carichi di lavoro per gli ingegneri che si occupano dei software per il riconoscimento facciale.

“Dobbiamo modificare in maniera significativa i sistemi di apprendimento delle macchine fornendo loro una maggiore contestualizzazione, affinché possano comprendere le sensibilità culturali importanti per gli umani”, ha commentato al Wall Street Journal Babk Hodjat, responsabile del settore scientifico di Sentient Technologies, società che si occupa di intelligenza artificiale. “Gli umani sono molto sensibili e si concentrano su determinate differenze che sono culturalmente rilevanti per noi, le macchine non possono farlo”.

Articolo Precedente

Facebook, gli utenti saranno liberi di registrarsi con pseudonimi o soprannomi

next
Articolo Successivo

Hacking Team, pm: “Ex dipendenti hanno venduto programma spia ai jihadisti”

next