Ricercatori in Italia e Germania svelano un nuovo approccio alla robotica

Ricercatori in Italia e Germania svelano un nuovo approccio alla robotica

Il chip Loihi di Intel potrebbe alimentare robot più intelligenti

Gli scienziati hanno sfruttato l’informatica neuromorfica per far sì che i robot imparino a  conoscere nuovi oggetti. Per chi non lo sapesse, l’informatica neuromorfica replica la struttura neurale del cervello umano per creare algoritmi in grado di affrontare le incertezze del mondo naturale. Intel Labs ha sviluppato una delle architetture più importanti nel campo: il chip neuromorfo Loihi, composto da circa 130.000 neuroni artificiali, che si scambiano informazioni attraverso una rete neurale “spiking” (SNN). I chip avevano già alimentato una serie di sistemi, da una pelle artificiale intelligente a un “naso” elettronico che riconosce gli odori emessi dagli esplosivi. Intel Labs questa settimana ha presentato un’altra applicazione. L’unità di ricerca ha collaborato con l’Istituto Italiano di Tecnologia e l’Università Tecnica di Monaco per implementare Loihi in un nuovo approccio all’apprendimento continuo per la robotica.

Il metodo prende di mira i sistemi che interagiscono con ambienti non vincolati, come i futuri assistenti robotici per l’assistenza sanitaria e la produzione. Le reti neurali profonde esistenti possono avere difficoltà con l’apprendimento degli oggetti in questi scenari, poiché richiedono dati di addestramento estesi e ben preparati e un’attenta riqualificazione sui nuovi oggetti che incontrano. Il nuovo approccio neuromorfico mira a superare queste limitazioni. I ricercatori hanno prima implementato un SNN su Loihi. Questa architettura localizza l’apprendimento in un singolo strato di sinapsi di plastica. Tiene conto anche di diverse visualizzazioni degli oggetti aggiungendo nuovi neuroni su richiesta. Di conseguenza, il processo di apprendimento si svolge in modo autonomo durante l’interazione con l’utente.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il team ha testato il proprio approccio in un ambiente 3D simulato. In questa configurazione, il  robot rileva attivamente gli oggetti spostando una telecamera basata su eventi che funge da occhi. Il sensore della fotocamera “vede” gli oggetti in un modo ispirato a piccoli movimenti oculari di fissazione chiamati “microsaccadi”. Se l’oggetto che visualizza è nuovo, la rappresentazione SNN viene appresa o aggiornata. Se l’oggetto è noto, la rete lo riconosce e fornisce un feedback all’utente. Il team afferma che il loro metodo richiedeva un’energia fino a 175 volte inferiore per fornire velocità e precisione simili o migliori rispetto ai metodi convenzionali eseguiti su una CPU. Ora devono testare il loro algoritmo nel mondo reale con robot reali.

Leggi anche:  Microsoft invita gli Usa a regolamentare l’IA