Red Hat AI Factory con NVIDIA accelera il percorso verso un’AI scalabile in produzione

Red Hat AI Factory con NVIDIA accelera il percorso verso un’AI scalabile in produzione

La nuova offerta co‑ingegnerizzata combina Red Hat AI Enterprise e il software di calcolo accelerato di NVIDIA per fornire una base unificata su cui costruire, distribuire e scalare applicazioni abilitate all’intelligenza artificiale

Red Hat, il fornitore leader mondiale di soluzioni open source, ha annunciato la disponibilità Red Hat AI Factory con NVIDIA, una piattaforma software co-ingegnerizzata dalle due aziende che combina Red Hat AI Enterprise e NVIDIA AI Enterprise per fornire una soluzione AI end-to-end ottimizzata per le organizzazioni che intendono implementare l’AI su larga scala. Red Hat AI Factory con NVIDIA rappresenta solo il più recente tassello della profonda collaborazione tra le due aziende, mirata a portare più rapidamente le recenti innovazioni AI ai clienti enterprise di oggi, offrendo al contempo supporto Day 0 per le architetture hardware NVIDIA.

Con previsioni di una spesa aziendale per l’AI che supererà 1 trilione di dollari entro il 2029, trainata in gran parte dalle applicazioni di agentic AI, le organizzazioni stanno orientando le loro strategie verso workflow agentici ad alta densità e cercano di affrontare le crescenti esigenze che questi modelli impongono all’inferenza dell’AI e all’infrastruttura. Red Hat AI Factory con NVIDIA supporta le aziende in questo percorso, consentendo ai team operativi IT di semplificare la gestione dell’infrastruttura tradizionale e delle esigenze in evoluzione dello stack AI.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Red Hat AI Factory con NVIDIA accelera il percorso verso l’intelligenza artificile in produzione e fornisce la piattaforma software per le AI factory, in esecuzione su un’infrastruttura di elaborazione accelerata che garantisce prestazioni più elevate per i modelli e le GPU NVIDIA che gestiscono lo stack di inferenza. La piattaforma è supportata dall’infrastruttura di fabbrica di intelligenza artificiale dei principali produttori di sistemi, tra cui Cisco, Dell Technologies, Lenovo e Supermicro, cosa che consente agli amministratori IT e ai team di operations di scalare e gestire le implementazioni AI con lo stesso rigore operativo e la stessa prevedibilità di qualsiasi workload aziendale.

Leggi anche:  Oltre i modelli: l’importanza dei layer d’integrazione nel successo dell'AI

Chris Wright, chief technology officer e senior vice president, Global Engineering, Red Hat, spiega: “Il passaggio dalla sperimentazione AI alla produzione su scala industriale e a livello aziendale richiede un cambiamento profondo nel modo in cui gestiamo lo stack di calcolo AI. Con Red Hat AI Factory con NVIDIA, stiamo accelerando il percorso di implementazione del l’AI per passare rapidamente alla produzione. Sulla base delle nostre comprovate offerte in tema di hybrid cloud, la piattaforma fornisce una base stabile e ad alte prestazioni che consente ai nostri clienti di avere un reale controllo della propria strategia AI e di scalare con lo stesso rigore che applicano alle altre piattaforme IT”.

Red Hat AI Factory con NVIDIA integra la collaborazione open source, l’ingegneria e l’esperienza di supporto di Red Hat e NVIDIA per fornire una soluzione affidabile di livello enterprise, altamente scalabile per le implementazioni AI in qualsiasi ambiente: on-premise, nel cloud o all’edge. La piattaforma include le principali funzionalità di inferenza AI ad alte prestazioni e per la messa a punto dei modelli, la personalizzazione e l’implementazione e la gestione degli agenti, con un focus sulla sicurezza.

Ciò consente alle organizzazioni di mantenere il controllo della propria architettura dal data center al cloud pubblico, fornendo:

  • Accelerazione del time-to-value: accelerazione dell’AI in produzione con flussi di lavoro semplificati e accesso istantaneo a modelli preconfigurati, inclusa la famiglia IBM Granite e i modelli aperti NVIDIA Nemotron e NVIDIA Cosmos, forniti come microservizi NVIDIA NIM. Inoltre, le organizzazioni possono allineare ulteriormente i modelli ai dati aziendali utilizzando NVIDIA NeMo, riducendo i tempi e i costi di messa a punto.
  • Ottimizzazione di costi e prestazioni: massimizzazione dell’utilizzo dell’infrastruttura e aumento delle prestazioni di inferenza con uno stack di servizio unificato e ad alte prestazioni. Red Hat AI Factory con NVIDIA offre funzionalità di osservabilità integrate e sfrutta le capacità di inferenza di Red Hat AI alimentate da vLLM, NVIDIA TensorRT-LLM, e NVIDIA Dynamo soddisfare rigorosi obiettivi di livello di servizio AI. Ciò aiuta le organizzazioni a ridurre il costo totale di proprietà (TCO) per l’AI ottimizzando la connessione tra modelli e GPU NVIDIA.
  • Orchestrazione intelligente della GPU: possibilità di accedere on-demand alle risorse della GPU tramite orchestrazione intelligente e infrastruttura in pool, con checkpoint automatici per proteggere i processi di lunga durata e mantenere costi di elaborazione più prevedibili in ambienti dinamici.
  • Rafforzamento della postura aziendale: sfruttando la base flessibile e stabile di Red Hat Enterprise Linux, le organizzazioni beneficiano di funzionalità avanzate di sicurezza e conformità già integrate che aiutano a ridurre i rischi, a risparmiare tempo e a mitigare i tempi di inattività. Ciò fornisce una base rafforzata per la sicurezza per i carichi di lavoro AI mission-critical che richiedono isolamento e verifica continua. I microservizi NVIDIA DOCA si basano su questa base, creando un’architettura zero-trust e garantendo la sicurezza runtime dell’intelligenza artificiale in tutta l’infrastruttura.
Leggi anche:  Non l’abbiamo vista arrivare