L’infrastruttura cloud di Oracle utilizzata da Microsoft per la ricerca conversazionale di Bing

L'infrastruttura cloud di (OCI) utilizzata da Microsoft per la ricerca conversazionale di Bing

Oracle ha annunciato un accordo pluriennale con Microsoft per supportare la crescita esplosiva dei servizi di intelligenza artificiale.

Microsoft sta utilizzando l’infrastruttura AI di Oracle Cloud Infrastructure (OCI), insieme all’infrastruttura AI di Microsoft Azure, per l’inferenza dei modelli AI che vengono ottimizzati per alimentare ogni giorno le ricerche conversazionali di Microsoft Bing. Sfruttando la tecnologia Oracle Interconnect per Microsoft Azure, Microsoft è in grado di utilizzare servizi gestiti come Azure Kubernetes Service (AKS) per orchestrare OCI Compute su scala massiva, per supportare la crescente domanda di ricerca conversazionale di Bing.

La ricerca conversazionale di Bing richiede infatti potenti cluster di infrastrutture di elaborazione che supportino la valutazione e l’analisi dei risultati della ricerca condotta dal modello di inferenza di Bing.

“L’AI generativa è un balzo tecnologico incredibile e Oracle sta consentendo a Microsoft e a migliaia di altre aziende di costruire e far funzionare nuovi prodotti con le nostre infrastrutture e servizi AI di OCI”, ha dichiarato Karan Batta, Senior Vice President di Oracle Cloud Infrastructure. “Grazie a questo ulteriore passo avanti nella collaborazione con Microsoft, siamo in grado di abilitare nuove esperienze per un maggior numero di persone in tutto il mondo”.

“Microsoft Bing sfrutta i più recenti progressi dell’intelligenza artificiale per offrire un’esperienza di ricerca nettamente migliore alle persone di tutto il mondo”, ha aggiunto Divya Kumar, global head of marketing for Search & AI di Microsoft. “La nostra collaborazione con Oracle e l’utilizzo di Oracle Cloud Infrastructure insieme alla nostra infrastruttura Microsoft Azure AI espanderà le possibilità di accesso ai clienti e migliorerà la velocità di molti dei nostri risultati di ricerca”.

Leggi anche:  Open-es e JAGGAER insieme per un Procurement sempre più sostenibile

I modelli di inferenza richiedono migliaia di istanze di calcolo e di storage e decine di migliaia di GPU che operano in parallelo come un singolo supercomputer, su una rete con capacità di multi-terabit.