HPE trasforma le factory AI distribuite in una rete AI intelligente powered by NVIDIA

HPE trasforma le factory AI distribuite in una rete AI intelligente powered by NVIDIA

La nuova soluzione fondamentale nei servizi di AI e nei casi d’uso che richiedono una connettività in tempo reale a bassa latenza, tra cui la personalizzazione nel settore retail, la manutenzione predittiva nel settore manifatturiero, l’inferenza edge localizzata nel settore sanitario e i servizi di AI di livello carrier

HPE ha annunciato HPE AI Grid, una soluzione end-to-end basata sull’architettura di riferimento NVIDIA per collegare in modo sicuro le “AI factory” e i cluster di inferenza distribuiti tra sedi locali e periferiche. HPE AI Grid consente ai service provider di implementare e gestire migliaia di siti di inferenza decentralizzati, trasformando le installazioni di AI in un unico sistema intelligente.

Le applicazioni AI native richiedono un’infrastruttura prevedibile, a bassa latenza e distribuita. La soluzione HPE AI Grid, parte del portafoglio NVIDIA AI Computing by HPE, offre prestazioni prevedibili e a bassissima latenza su larga scala per servizi di AI in tempo reale, provisioning zero-touch e sicurezza automatizzata con orchestrazione integrata.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

“Stiamo ridefinendo il modo in cui viene fornita l’AI spostando l’intelligenza dove si trovano i dati e gli utenti, rendendo la rete il tessuto affidabile e resiliente per le esperienze in tempo reale”, ha affermato Rami Rahim, Executive Vice President, President and General Manager, Networking, HPE. “HPE AI Grid con NVIDIA offre ai service provider un modo sicuro e scalabile per gestire l’inferenza distribuita come un unico sistema, garantendo prestazioni prevedibili e a bassissima latenza in modo che i clienti possano innovare più rapidamente, ridurre i rischi e creare nuovi servizi”.

“Un’AI Grid unifica i cluster di AI distribuiti geograficamente per collocare i carichi di lavoro di AI dove funzionano meglio, bilanciando prestazioni, costi e latenza tra le strutture di AI, i siti locali e l’edge”, ha affermato Chris Penrose, Global Vice President, Telco, NVIDIA. “Insieme a HPE, stiamo dando vita a questa visione combinando l’elaborazione accelerata e il networking di NVIDIA con il routing multicloud delle telco e l’infrastruttura edge di HPE, per creare un unico fabric intelligente per l’inferenza distribuita”.

Leggi anche:  Così si ridisegna il futuro tecnologico: la roadmap smeup fatta di cloud, AI e soluzioni proprietarie

HPE offre la soluzione AI Grid end-to-end che accelera il time-to-value dell’implementazione

HPE AI Grid è conforme all’architettura di riferimento NVIDIA AI Grid per fornire uno stack hardware e software unificato ai service provider. HPE AI Grid si distingue per la capacità di HPE di offrire server e reti AI full-stack. HPE AI Grid include:

  • Il routing multicloud telco di HPE Juniper e l’ottica coerente per una connettività metropolitana e a lunga distanza prevedibile; sicurezza cloud-native e multi-tenant; firewall; automazione WAN; e orchestrazione per garantire implementazioni zero-touch e operazioni di gestione del ciclo di vita
  • Server edge HPE ProLiant Compute e server rack con elaborazione accelerata NVIDIA, incluse le GPU NVIDIA RTX PRO 6000 Blackwell, nonché DPU NVIDIA BlueField, switch Ethernet Spectrum-X, SuperNIC Connect-X e architetture di riferimento di AI per una rapida implementazione di modelli per erogare servizi di inferenza

HPE AI Grid offre nuove opportunità ai fornitori di servizi

I casi d’uso per service provider – dalla personalizzazione nel settore retail e dalla manutenzione predittiva all’assistenza sanitaria edge e ai servizi di AI di livello carrier – richiedono una connettività prevedibile e a bassissima latenza. HPE AI Grid consente agli operatori di trasformare i siti esistenti dotati di alimentazione e connettività in reti AI RAN‑ready, rendendo possibili l’inferenza distribuita e nuovi servizi su larga scala.

Nell’ambito del potenziamento della propria strategia di AI Grid, Comcast ha annunciato nuove prove AI sul campo sulla propria rete altamente distribuita per l’inferenza dell’AI edge in tempo reale, al fine di garantire esperienze più veloci e reattive per la prossima ondata di applicazioni AI. Le prime sperimentazioni hanno affrontato diversi casi d’uso, tra cui l’utilizzo di server HPE ProLiant che eseguono piccoli modelli linguistici da Personal AI, parte del programma di partnership “Unleash AI” di HPE, su GPU NVIDIA per fornire servizi di “front desk” basati sull’AI per le piccole imprese.

Leggi anche:  L'Europa accelera sulla sovranità nell’intelligenza artificiale

Le reazioni del settore a HPE AI Grid con NVIDIA

“HPE e NVIDIA sono stati partner strategici nella realizzazione della Sovereign AI Factory di TELUS, il supercomputer più veloce e potente del Canada, che consente a ricercatori, aziende e istituzioni di innovare su larga scala”, commenta Nazim Benhadid, Executive Vice-president and Chief Technology Officer, TELUS. “Poiché TELUS punta ad avvicinare l’AI ai clienti, a promuovere l’ottimizzazione della rete basata sull’AI e a fornire un servizio più veloce, HPE AI Grid powered by NVIDIA è una soluzione che siamo interessati a esplorare ulteriormente mentre portiamo avanti il nostro percorso di trasformazione grazie all’AI”.

“I nostri clienti si aspettano sempre più una reattività nell’ordine dei millisecondi, una connettività a bassa latenza e una sicurezza completa a supporto delle loro applicazioni e dei loro servizi”, ha affermato Neil McRae, CTIO di CityFibre. “Stiamo scoprendo come AI Grid di HPE, basata sull’architettura di riferimento di NVIDIA, possa supportare l’inferenza AI distribuita e avvicinare l’intelligenza agli utenti e ai dati. Sfruttando le nostre risorse di rete in fibra ottica, vediamo il potenziale per combinare una connettività ad alte prestazioni con servizi intelligenti per i clienti.”

HPE Financial Services accelera l’adozione di reti AI-ready e infrastrutture di AI distribuite

Per accelerare ulteriormente l’adozione di reti AI-ready e infrastrutture di AI distribuite, HPE Financial Services estende inoltre la sua offerta di finanziamento a tasso zero per il software AIOps di rete, tra cui HPE Juniper Networking Mist, e la sua offerta di finanziamento che garantisce un risparmio in contanti pari al 10% sui contratti di leasing per reti AI-ready.