IA: Seeweb, Gruppo DHH, lancia AI Accelerator con i chip Tenstorrent

IA: Seeweb, Gruppo DHH, lancia AI Accelerator con i chip Tenstorrent

Baldassarra: “L’accordo con la canadese Tenstorrent e la commercializzazione del primo servizio Cloud Server NPU con i loro chip è per noi un importante risultato: siamo convinti infatti che ci sarà sempre più spazio per chip specializzati con funzioni mirate nell’ambito delle infrastrutture per l’intelligenza artificiale. Inoltre, i chip Tenstorrent sono basati sull’architettura aperta RISC-V, che pensiamo sia in grado di tracciare un nuovo futuro”

Seeweb e DHH lanciano un acceleratore di Intelligenza Artificiale basato su NPU o Neural Processing Unit. Un’offerta innovativa e unica a oggi sul mercato italiano che estende e integra quella già consolidata di Seeweb con le GPU.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La soluzione di AI Accelerator, basata sempre su un modello cloud a consumo e disponibile on demand, consente di gestire in particolar modo le fasi di inferenza abbattendo i costi, senza rinunciare alle prestazioni elevate che richiede l’intelligenza artificiale e garantendo un’elevata scalabilità, e quindi a prestazioni flessibili e adattive.

L’AI Accelerator sfrutta infatti la tecnologia avanzata di una start-up canadese, Tenstorrent, le cui NPU (Neural Processing Unit) – rispetto alle GPU – necessitano di un quantitativo di memoria ridotto e si prestano estremamente bene per lo sviluppo di Small Language Model o SML. Le NPU con cui è stato possibile per la compagnia italiana leader nelle infrastrutture cloud per IA e ML costruire il nuovo “AI Accelerator” hanno un costo e un consumo energetico – e quindi anche un impatto ambientale – notevolmente più contenuti rispetto alle canoniche GPU, su cui Seeweb ha già da tempo costruito un’offerta cloud competitiva oggi in uso presso le aziende più avanzate e il mondo della ricerca.

Antonio Baldassarra, CEO Seeweb

La soluzione messa a punto da Seeweb può essere impiegata in maniera efficace anche nella fase di addestramento, ma dà il suo meglio quando viene utilizzata per il “light machine learning” e per i modelli piccoli, i cosidetti Small Language Model (per gli LLM al momento si conferma l’efficacia delle GPU).

Leggi anche:  ally Consulting propone Infor CPQ per semplificare le attività di progettazione, vendita e marketing delle aziende del manifatturiero

Nella fase, quindi, in cui un modello di Intelligenza Artificiale già addestrato genera un contenuto nuovo elaborando dei dati che non aveva acquisito in precedenza, l’acceleratore è in grado di fornire un’elevata capacità di elaborazione a costi e consumi più competitivi.

Le NPU sono in grado di gestire in maniera efficace l’esecuzione simultanea dei processi di calcolo. Sono quindi uno strumento di accelerazione essenziale per le reti neurali. Queste ultime, infatti, analizzano immagini di continuo, da cui estrapolano caratteristiche e creano associazioni, per generare poi un contenuto nuovo.

L’attenzione di Seeweb verso questa nuova generazione di chip è dovuta alla sua costante osservazione delle evoluzioni tecnologiche utili a favorire lo sviluppo full-stack di applicativi AI e ML, cercando di soddisfare le esigenze delle aziende e del mondo della Ricerca con una varietà di server e di schede adatte alle varie esigenze e ai vari casi d’uso.