Seeweb e Nvidia: flessibilità e potenza si incontrano per supportare i progetti di IA

Seeweb e Nvidia: flessibilità e potenza si incontrano per supportare i progetti di IA
Server GPU presso il Data Center Seeweb

Primo e unico player in Italia a fornire servizi di GPU Computing, Seeweb si affida al fornitore unendo le elevate prestazioni delle schede grafiche alla flessibilità e integrabilità del cloud

L’intelligenza artificiale è un trend per nulla nuovo all’interno dello scenario IT. Se applicazioni consumer, come ChatGPT, hanno alzato l’attenzione sugli usi delle piattaforme di IA conversazionale e generazionale, in realtà alcuni fornitori, da tempo, lavorano per portare capacità avanzate nei loro sistemi, così da dare ai clienti l’opportunità di far compiere al loro business un balzo deciso verso il futuro. Ed è il caso di Nvidia, che già da oltre un decennio sviluppa hardware e software di gestione software in campi come il deep learning e l’IA generativa. È merito del colosso l’aver fornito la tecnologia alla base di tutti i principali sviluppi dell’intelligenza artificiale ai primi pionieri. Ad esempio AlexNet, una delle prime reti neurali per la visione artificiale, nell’ottobre del 2012 poggiava su GPU Nvidia, create per la grafica in 3D.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

I massicci modelli di intelligenza artificiale generativa di oggi richiedono migliaia di GPU per funzionare; Nvidia detiene circa l’88% del mercato delle Graphics Processing Unit, secondo John Peddie Research. Secondo l’agenzia, OpenAI che sviluppa ChatGPT ha utilizzato 10.000 GPU Nvidia per addestrare la sua piattaforma. Il fornitore è stato anche molto agile nell’integrare nuove funzionalità nel suo sistema. Altre startup di chip AI hanno investito in strumenti software, creando offerte più economiche di quelle di Nvidia, che però non offrono un miglioramento proporzionato nell’attuale esperienza di programmazione.

La piattaforma di calcolo CUDA, un’architettura hardware per l’elaborazione parallela, che Nvidia ha rilasciato nel 2007, è lo stack software e middleware che consente ai ricercatori di programmare e accedere alla potenza di calcolo e al parallelismo estremo che le GPU possono abilitare. Prima che Nvidia rilasciasse CUDA, la programmazione di una GPU era un processo di codifica lungo e arduo, che richiedeva la scrittura di una grande quantità di codice di basso livello. Utilizzando CUDA, che era gratuito, i ricercatori potevano sviluppare i loro modelli di deep learning in modo molto più rapido ed economico. Le GPU Nvidia A100 Tensor Core sono sfruttate per distribuzione, gestione e scalabilità dei carichi di lavoro IA nei cloud ibridi. Sono soluzioni costose ma su modelli IA conversazionali all’avanguardia come BERT (algoritmo pensato per rispondere a query particolarmente complesse) sono capaci di accelerare il throughput di inferenza fino a 249 volte rispetto alle CPU.

Leggi anche:  Alstom rinnova la fiducia in Kinaxis per la gestione della propria pianificazione industriale

Cloud Server GPU

E a Nvidia si affida Seeweb per il servizio Cloud Server GPU. L’obiettivo? Permettere alle aziende clienti di sviluppare progetti di machine learning, deep learning, computer vision ma anche realizzare postazioni di lavoro virtuali. Di fatto, con l’hardware di Nvidia, Seeweb rende possibile l’accelerazione del lavoro con l’AI, velocizzando l’esecuzione di calcoli, importanti e paralleli, con una soluzione HPC gestita dagli ingegneri del gruppo e schede grafiche pensate per l’utilizzo nei Data Center. Nei rack ad alta densità di Seeweb ci sono a disposizione 10 GPU in un server singolo per soddisfare le esigenze di SLA, che mirano a prestazioni ma anche alla sostenibilità: con il loro basso consumo energetico, i processori grafici Seeweb sono installati su server farm alimentate esclusivamente da energie rinnovabili.

Questi i principali vantaggi di Cloud Server GPU di Seeweb, di fatto una tecnologia abilitante per tutto lo scenario IA italiano: schede grafiche Nvidia integrate; driver preinstallati, stack preconfigurati pronti all’uso. Ma anche automazione del deployment e gestione completa via API, con immagini server personalizzabili e integrazione con Kubernetes. Senza dimenticare il supporto IaC (Terraform) – con cui è possibile governare anche infrastrutture iper complesse senza manualità -, la bassa latenza, con tutti i Data Center in Italia, e il supporto tecnico pre-sales e post-sales veloce e h24. Seeweb offre inoltre 3 livelli di assistenza, risorse on demand, green computing (infrastruttura certificata DNSH e ISO 14001) e compliance GDPR in territorio EU.

Non solo tecnologia quindi ma competenza ed esperienza. Chiunque scelga di ospitare i propri progetti di IA nelle infrastrutture di Seeweb, certificate ISO/IEC 27001, 27017, 27018 e 27701, si assicura di poter usufruire di un ambiente pensato anche per la gestione di informazioni sensibili, dati sanitari, finanziari e di business, protetto da un costante monitoraggio anche in modalità proattiva, per fronteggiare attacchi DoS e rischi di sicurezza.

Leggi anche:  Open insurance, verso un futuro data-driven