La nuova IA del MIT può “sentire” un oggetto solo guardandolo

Medallia lancia quattro innovazioni rivoluzionarie nel campo dell'AI

Grazie a un software della CSAIL, possiamo insegnare alle macchine cosa si prova a toccare un oggetto, prima ancora di farlo

I ricercatori del MIT, della divisione Computer Science e Artificial Intelligence Laboratory (CSAIL), hanno sviluppato una nuova intelligenza artificiale in grado di percepire gli oggetti solo vedendoli. L’IA in questione può prevedere come si sentirebbe a maneggiare un oggetto, semplicemente visionandolo, e arriva persino a crearne una rappresentazione visiva, solo dai dati tattili che genera toccandolo. Yunzhu Li, studente del CSAIL e autore principale del progetto, ha affermato che il modello informatico nasce anche per aiutare i robot a gestire meglio gli oggetti del mondo reale.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

“Osservando la scena, il nostro modello può immaginare la sensazione di toccare una superficie piatta o un bordo tagliente. Guardando intorno, il software può predire l’interazione con l’ambiente, procedendo puramente dalle informazioni tattili. Unire insieme questi due sensi consentirebbe ai robot di manipolare gli oggetti, permettendo agli umani di avere più dati su di essi, senza averli mai sfiorati”.

Cosa può fare

Il team di ricerca ha utilizzato un braccio robot KUKA con uno speciale sensore tattile chiamato GelSight per addestrare il modello. Ha proserguito facendo toccare al braccio circa 200 oggetti per un totale di 12 mila volte, registrando i dati visivi e tattili. Sulla base di ciò, ha creato un set di dati di 3 milioni di immagini, chiamate VisGel. Andrew Owens, ricercatore presso l’Università della California a Berkeley, ha dichiarato che questa ricerca può aiutare i robot a sapere con quanta forza dovrebbe afferrare un oggetto.

“Siamo dinanzi al primo metodo che può tradurre in modo convincente segnali visivi e tattili. Iniziative simili hanno il potenziale per divenire più che utili per la robotica, dove è necessario rispondere a domande come questo oggetto è duro o morbido? oppure se sollevo questa tazza, quanto sarà buona la mia presa? Si tratta di problemi impegnativi, perché considerano elementi che dovrebbero già essere in nostro possesso e senza dei quali non ci sarebbe risultato verosimile. Ma adesso possiamo giungere a inferenze reali, in tempo minore”.

Leggi anche:  Dalla trasformazione all’innovazione digitale in tre mosse