Fujitsu: nuova tecnologia Deep Learning per l’Intelligenza Artificiale

deep learning

I Laboratori europei di Fujitsu hanno sviluppato una tecnologia di deep learning per le applicazioni di Intelligenza Artificiale, efficiente e scalabile, che supera le attuali restrizioni di memoria della GPU

Fujitsu ha annunciato importanti novità nell’ambito della tecnologia deep learning, sviluppando un nuovo e molto efficiente meccanismo di distribuzione della memoria per i Deep Neural Networks (DNNs). Ampiamente utilizzato per molte applicazioni nel campo dell’intelligenza articficiale (AI) come il riconoscimento e la classificazione di un discorso e di un oggetto, l’utilizzo avanzato di DNN richiede enormi risorse computazionali, che incidono pesantemente sulle infrastrutture informatiche esistenti. Con la nuova soluzione, sviluppata dai laboratori europei di Fujitsu, il parallelismo del modello impiegato viene utilizzato per distribuire i requisiti di memoria DNN in modo automatizzato, trasparente e facilmente gestibile. Di conseguenza, la capacità delle infrastrutture esistenti nell’affrontare applicazioni AI su larga scala è notevolmente migliorata senza la necessità di ulteriori investimenti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Tsuneo Nakata, CEO dei Fujitsu Laboratories of Europe, spiega i vantaggi di questa nuova tecnologia di deep learning: “Negli ultimi anni abbiamo assistito a continue innovazioni tecnologiche che utilizzano acceleratori hardware per supportare l’enorme mole di calcoli necessari per costruire il Deep Neural Networks (DNN) per applicazioni di intelligenza artificiale. L’aumento continuo dei costi di calcolo legati ai DNN è una sfida importante, soprattutto quando la dimensione del modello di DNN crescerà fino al punto d non poter essere caricata e nella memoria di un singolo acceleratore. Sono necessarie reti neurali più ampie e profonde, insieme ad una più raffinata classificazione delle categorie, per affrontare le sfide emergenti di AI. La nostra soluzione agisce proprio in questo modo, distribuendo i requisiti di memoria DNN su più macchine. Con la nostra tecnologia, è possibile ampliare le dimensioni delle reti neurali che possono essere elaborate da più macchine, consentendo lo sviluppo di modelli DNN più accurati e su larga scala “.

Leggi anche:  Per il 53% degli executive il livello di resilienza della propria azienda è insufficiente

La nuova soluzione riesce ad ottenere questa distribuzione ottimizzata della memoria perchè trasforma gli strati di reti neurali, arbitrariamente progettate, in reti equivalenti in cui alcuni o tutti i suoi strati sono sostituiti da una serie di sotto-strati più piccoli. Queste ultime sono progettate per essere funzionalmente equivalenti agli strati originali, ma sono molto più efficienti da eseguire dal punto di vista computazionale. Importante notare che, poiché gli strati originali e quelli nuovi derivano dal medesimo profilo, il processo di formazione del DNN ‘trasformato’ converge a quello del DNN originale senza alcun costo aggiunto.

I laboratori europei di Fujitsu hanno testato a lungo la nuova tecnologia, inclusa l’applicazione del nuovo meccanismo in «Caffe», un framework open source di deep learning ampiamente utilizzato dalle comunità di ricerca e sviluppo in tutto il mondo. La soluzione ha raggiunto un’efficienza di oltre il 90 per cento nella distribuzione della memoria nel momento in cui vengono trasformati gli strati completamente collegati di AlexNet su più GPU NVIDIA. Come tecnologia indipendente da hardware, ha la capacità di sfruttare la potenza computazionale di entrambe le unità di elaborazione convenzionali e di acceleratori hardware in fase di sviluppo, inclusi NVIDIA GPU, Intel Xeon Phi, FPGA, ASIC ecc. o qualsiasi altro hardware alternativo specificamente adattati per aumentare l’efficienza computazionale nel Deep Learning.

Utilizzando il parallelismo del modello, i requisiti aggiunti per la riallocazione della memoria DNN  sono ridotti e distribuiti secondo un approccio automatizzato, trasparente e facilmente gestibile

Esempi di applicazioni per la nuova soluzione comprendono l’analisi nel settore healthcare (ad esempio la rilevazione della retinopatia diabetica), la classificazione e l’analisi delle immagini satellitari, l’elaborazione linguistica naturale (dove sono necessari modelli di deep learning su larga scala per modellare e apprendere la completa complessità del linguaggio umano), dati su larga scala relativi a dispositivi IoT, transazioni finanziarie, servizi di social network ecc.

Leggi anche:  AI generativa e sviluppo Java, guida pratica ai concetti fondamentali

I laboratori europei di Fujitsu sono un centro di eccellenza per le ricerche avanzate sul machine learning e il deep learning, nell’ambito delle soluzioni digitali e dei servizi sviluppati all’interno dell’iniziativa Human-Center AI di Fujitsu, denominata Zinrai. La sua attività comprende un’ampia collaborazione e una co-creazione con i clienti Fujitsu e le organizzazioni di ricerca in tutta l’area EMEIA, tra cui San Carlos Clinical Hospital di Madrid (con la soluzione HIKARI AI), l’Università di Siviglia (analisi dati per le applicazioni turistiche) e il 5G Innovation Center nel Regno Unito.