Red Hat AI Enterprise, una piattaforma AI unificata che si estende dal metal agli agent

Red Hat AI Enterprise, una piattaforma AI unificata che si estende dal metal agli agent

Red Hat AI Enterprise colma il divario tra l’infrastruttura AI e gli agent pronti per la produzione, unificando il ciclo di vita dell’AI con Red Hat Enterprise Linux e Red Hat OpenShift

Red Hat, leader mondiale nelle soluzioni open source, ha annunciato Red Hat AI Enterprise, una piattaforma AI integrata per implementare e gestire modelli, agenti e applicazioni di intelligenza artificiale attraverso l’hybrid cloud. Questa piattaforma si unisce al portfolio Red Hat AI, che include Red Hat AI Inference Server, Red Hat OpenShift AI e Red Hat Enterprise Linux AI. Red Hat ha introdotto anche Red Hat AI 3.3, portando aggiornamenti e miglioramenti significativi all’intera offerta AI dell’azienda. Insieme, queste soluzioni forniscono uno stack completo in grado di coprire “dal metal all’agent”, integrando l’infrastruttura Linux e Kubernetes sottostante con capacità agentiche e di inferenza avanzate per aiutare le aziende a passare da una fase di sperimentazione frammentata a un modello operativo autonomo e pienamente governato.

Il panorama dell’AI enterprise si sta evolvendo rapidamente da semplici interfacce di chat a flussi di lavoro agentici autonomi e ad alta densità che richiedono una maggiore integrazione nell’intero stack tecnologico. Tuttavia, molte organizzazioni si trovano a rimanere bloccate nella fase pilota a causa di strumenti frammentati e infrastrutture incoerenti. Red Hat AI Enterprise affronta questo problema unificando i cicli di vita dei modelli e delle applicazioni, permettendo ai team IT di gestire l’AI come un sistema aziendale standardizzato anziché come un progetto isolato. In questo modo, la delivery dell’AI diventa affidabile e ripetibile, raggiungendo gli standard operativi del software aziendale tradizionale.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

“Affinché l’AI possa portare un vero valore di business, deve essere operazionalizzata come componente centrale dello stack software aziendale, non relegata a un silo separato”, spiega Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat. “Red Hat AI Enterprise è progettato per colmare il divario tra infrastruttura e innovazione, fornendo una piattaforma unificata dal metal all’agent. Integrando capacità avanzate di tuning e funzionalità agentiche con le fondamenta leader del settore di Red Hat Enterprise Linux e Red Hat OpenShift, stiamo offrendo uno stack completo – dall’hardware accelerato da GPU ai modelli e agent che guidano la logica di business. Inoltre, con Red Hat AI 3.3, le organizzazioni possono superare i progetti pilota frammentati per passare a operazioni AI governate, ripetibili e ad alte prestazioni su tutto il cloud ibrido.”

Leggi anche:  Progettazione e produzione del futuro: l’IA protagonista al 3DEXPERIENCE World 2026 di Dassault Systèmes

Red Hat AI Enterprise: le basi per la produzione AI

Red Hat AI Enterprise fornisce funzionalità fondamentali, tra cui inferenza AI ad alte prestazioni, messa a punto e personalizzazione dei modelli, e implementazione e gestione degli agenti, con la flessibilità di supportare qualsiasi modello e qualsiasi hardware in qualsiasi ambiente. Sulla base di Red Hat OpenShift, la piattaforma leader del settore per le applicazioni in cloud ibrido potenziata da Kubernetes, Red Hat AI Enterprise offre un’esperienza altamente scalabile e coerente, ccon livelli superiori di sicurezza ovunque, utilizzando strumenti e framework che le organizzazioni già conoscono. Per l’infrastruttura NVIDIA AI, NVIDIA e Red Hat hanno co-progettato la nuova Red Hat AI Factory con NVIDIA, combinando Red Hat AI Enterprise e NVIDIA AI Enterprise per contribuire ad accelerare e scalare la produzione di intelligenza artificiale per le aziende.

Tra i principali vantaggi di Red Hat AI Enterprise:

  • Inferenza AI più rapida, economica e scalabile utilizzando il motore di inferenza vLLM e il framework di inferenza distribuita llm-d per implementazioni ottimizzate di modelli di AI generativa in ambienti hardware ibridi.
  • Osservabilità e gestione del ciclo di vita integrate per aiutare a guidare la governance del ciclo di vita dell’AI e mitigare i rischi con uno stack AI integrato, testato e interoperabile, pronto per l’impresa.
  • Flessibilità attraverso il cloud ibrido, consentendo alle organizzazioni di implementare e gestire modelli, agenti e applicazioni AI con maggiore coerenza ovunque il loro business richieda di operare, supportato da piattaforme Red Hat affidabili.

Maggiore flessibilità strategica ed efficienza full-stack con Red Hat AI 3.3

La strategia di Red Hat si concentra sul colmare il divario tra stabilità mission-critical e innovazione all’avanguardia attraverso una piattaforma unificata. L’ultima versione del software espande la scelta dei modelli, approfondisce l’ottimizzazione full-stack in vista dell’adozione di semiconduttori di nuova generazione e rafforza la coerenza operativa per i modelli di frontiera.

Leggi anche:  ServiceNow presenta Zurich: l’intelligenza artificiale è ancora più sicura e scalabile

Tra le nuove funzionalità e i miglioramenti:

  • Ecosistema di modelli Red Hat AI ampliato con versioni compresse, validate e pronte per la produzione di Mistral-Large-3, Nemotron-Nano e Apertus-8B-Instruct, disponibili tramite l’OpenShift AI Catalog. Inoltre, la versione abilita l’implementazione di modelli all’avanguardia come Ministral 3 e DeepSeek-V3.2 con tecnica di sparse attention, offrendo al contempo miglioramenti multimodali, tra cui una velocizzazione di Whisper 3x, supporto geospaziale, decodifica speculativa EAGLE migliorata e un potenziato tool calling per flussi di lavoro agentici.
  • Accesso self-service ai modelli AI con un’anteprima tecnologica di Models-as-a-Service (MaaS). I team IT possono fornire accesso self-service a modelli ospitati privatamente tramite un gateway API. Questo approccio centralizzato assicura che l’AI sia disponibile on-demand per gli utenti interni, promuovendo una base AI pronta all’uso che favorisce l’adozione privata e scalabile dell’AI all’interno dell’impresa.
  • Supporto hardware esteso, inclusa un’anteprima tecnologica del supporto per l’AI generativa su CPU, a partire dalle CPU Intel per un’inferenza più conveniente su modelli linguistici di piccole dimensioni (SLM). Inoltre, la piattaforma ha ampliato la sua certificazione hardware per Blackwell Ultra di NVIDIA e il supporto per gli acceleratori AMD MI325X.
  • Ciclo di vita unificato dai dati al modello, protetto dal nuovo Red Hat AI Python Index. Questo repository affidabile offre versioni rafforzate e di livello enterprise di strumenti critici—inclusi Docling, SDG Hub e Training Hub—consentendo ai team di passare da una sperimentazione frammentata a pipeline di produzione ripetibili e focalizzate sulla sicurezza.
  • Osservabilità e sicurezza AI complete con maggiore visibilità sulla salute, le prestazioni e il comportamento dei modelli. Ciò fornisce telemetria in tempo reale su carichi di lavoro AI, implementazioni llm-d e utilizzo dei cluster e dei modelli Models-as-a-Service (MaaS), ed è abbinato a un’anteprima tecnologica di NeMo Guardrails integrato, che consente agli sviluppatori di imporre sicurezza operativa e allineamento attraverso le interazioni AI.
  • Accesso on-demand alle risorse GPU, consentendo alle organizzazioni di implementare le proprie capacità interne di GPU-as-a-Service attraverso un’orchestrazione intelligente e l’accesso a hardware condiviso con checkpoint automatici per salvare lo stato dei lavori di addestramento a lungo termine. Ciò consente di prevenire la perdita degli avanzamenti e di mantenere costi di calcolo più prevedibili, anche in ambienti altamente dinamici o preemption-based.
Leggi anche:  L’IA oltre l’hype, i vantaggi per marketing, vendite, finance e supply chain