Microsoft sta realizzando chip personalizzati per il cloud

Microsoft sta realizzando chip personalizzati per il cloud

Gli Azure Maia 100 e Cobalt 100 sono i primi due semiconduttori progettati per l’infrastruttura cloud dell’azienda

Microsoft è al lavoro per realizzare il proprio chip IA personalizzato che può essere utilizzato per addestrare modelli linguistici di grandi dimensioni e potenzialmente evitare la dipendenza da Nvidia. Oltre a questo, l’obiettivo di Redmond è anche creare la propria CPU basata su Arm per i carichi di lavoro cloud. Entrambi i chip personalizzati sono progettati per alimentare i data center di Azure e preparare l’azienda e i suoi clienti ad un futuro pienamente incentrato sull’intelligenza artificiale. Il chip AI Azure Maia di Microsoft e la CPU Azure Cobalt basata su Arm arriveranno nel 2024, sulla scia di un aumento della domanda quest’anno per le GPU H100 di Nvidia che sono ampiamente utilizzate per addestrare e gestire strumenti di immagini generative e modelli linguistici di grandi dimensioni. La domanda per queste GPU è così elevata che alcune hanno addirittura superato i 40.000 dollari su eBay.

“Microsoft ha in realtà una lunga storia nello sviluppo del silicio”, spiega Rani Borkar, responsabile dei sistemi hardware e delle infrastrutture di Azure presso Microsoft, in un’intervista a The Verge. Microsoft ha collaborato allo sviluppo del silicio per Xbox più di 20 anni fa e ha persino co-ingegnerizzato i chip per i suoi dispositivi Surface. “Questi sforzi si basano su quell’esperienza”, afferma Borkar. “Nel 2017, abbiamo iniziato a progettare lo stack hardware cloud e iniziato questo viaggio mettendoci sulla buona strada per costruire i nostri nuovi chip personalizzati”. Il nuovo chip AI Azure Maia e la CPU Azure Cobalt sono entrambi realizzati internamente da Microsoft, insieme a una profonda revisione dell’intero stack di server cloud per ottimizzare prestazioni, potenza e costi. “Stiamo ripensando l’infrastruttura cloud per l’era dell’intelligenza artificiale e ottimizzando letteralmente ogni livello di tale infrastruttura”, afferma Borkar.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Apple lavora su una versione economica di VisionPro

Prodotto con un processo TSMC a 5 nanometri, Maia ha 105 miliardi di transistor, circa il 30% in meno rispetto ai 153 miliardi presenti sul concorrente Nvidia di AMD, la GPU AI MI300X. “Maia supporta la nostra prima implementazione dei tipi di dati inferiori a 8 bit, i tipi di dati MX, al fine di co-progettare hardware e software”, afferma Borkar. “Questo ci aiuta a supportare tempi di addestramento e inferenza del modello più rapidi”. Microsoft fa parte di un gruppo che comprende AMD, Arm, Intel, Meta, Nvidia e Qualcomm che stanno standardizzando la prossima generazione di formati dati per i modelli AI. Microsoft si sta basando sul lavoro collaborativo e aperto dell’Open Compute Project (OCP) per adattare interi sistemi alle esigenze dell’intelligenza artificiale.