I ricercatori del Computer Science e Artificial Intelligence Laboratory (CSAIL) del Massachusetts Institute of Technology hanno trovato un modo per consentire a una mano robotica di percepire come sarà un oggetto al tatto, semplicemente guardandolo. Sembra una banalità per un essere umano, che guarda una pallina in gommapiuma e sa che sarà morbida al tatto, o una forchetta e sa che sarà liscia e dura. Per un computer non è affatto scontato, anzi.

Per riuscire nell’intento è stato necessario unire diversi elementi già sviluppati in passato: il braccio robot KUKA (nel video qui sotto) sviluppato dal CSAIL, a cui hanno aggiunto un sensore tattile chiamato GelSight creato dal MIT e un’Intelligenza Artificiale che recepisce le informazioni di GelSight e le usa per “imparare” quale relazione c’è fra le informazioni visive e quelle tattili.

 

Per insegnare all’Intelligenza Artificiale a identificare gli oggetti tramite il tocco, i ricercatori hanno registrato 12.000 video di 200 oggetti tessuti, strumenti e accessori domestici che venivano toccati. I video sono stati suddivisi in immagini fisse, e l’Intelligenza Artificiale le ha usate per creare una connessione fra dati tattili e visivi.

Yunzhu Li, dottorando del CSAIL e autore principale dello studio, spiega che “guardando la scena, il nostro modello può immaginare la sensazione di toccare una superficie piatta o un bordo tagliente. Può predire l’interazione con l’ambiente partendo dalle sensazioni tattili”. Un robot capace di unire le informazioni visive e quelle tattili potrebbe svolgere compiti che implicano la manipolazione e la presa di oggetti. Pensiamo ad esempio all’azione che si deve fare per afferrare e sollevare una tazzina o un pupazzo di peluche: sono differenti e richiedono movimenti diversi, e la capacità di prevederli.

Yunzhu Li, dottorando al MIT CSAIL

 

La ricerca non è terminata perché al momento il robot può solo identificare oggetti in un ambiente controllato. Il prossimo passo sarà creare un set di dati più ampio, in modo che il robot possa lavorare con impostazioni diverse.

close

Prima di continuare

Se sei qui è evidente che apprezzi il nostro giornalismo. Come sai un numero sempre più grande di persone legge Ilfattoquotidiano.it senza dover pagare nulla. L’abbiamo deciso perché siamo convinti che tutti i cittadini debbano poter ricevere un’informazione libera ed indipendente.

Purtroppo il tipo di giornalismo che cerchiamo di offrirti richiede tempo e molto denaro. I ricavi della pubblicità ci aiutano a pagare tutti i collaboratori necessari per garantire sempre lo standard di informazione che amiamo, ma non sono sufficienti per coprire i costi de ilfattoquotidiano.it.

Se ci leggi e ti piace quello che leggi puoi aiutarci a continuare il nostro lavoro per il prezzo di un cappuccino alla settimana.

Grazie,
Peter Gomez

Sei arrivato fin qui

Se sei qui è evidente che apprezzi il nostro giornalismo. Come sai un numero sempre più grande di persone legge Ilfattoquotidiano.it senza dover pagare nulla. L’abbiamo deciso perché siamo convinti che tutti i cittadini debbano poter ricevere un’informazione libera ed indipendente.

Purtroppo il tipo di giornalismo che cerchiamo di offrirti richiede tempo e molto denaro. I ricavi della pubblicità non sono sufficienti per coprire i costi de ilfattoquotidiano.it e pagare tutti i collaboratori necessari per garantire sempre lo standard di informazione che amiamo.

Se ci leggi e ti piace quello che leggi puoi però aiutarci a continuare il nostro lavoro per il prezzo di un cappuccino alla settimana.

Grazie,
Peter Gomez

Diventa Sostenitore
Articolo Precedente

Asus presentea un monitor superveloce per i videogiocatori più esigenti

prev
Articolo Successivo

iPhone controlla la pista smart per le macchinine Hot Wheels di Mattel

next