L’accelerazione dell’innovazione dell’IA richiede ecosistemi e infrastrutture

L'accelerazione dell'innovazione dell'IA richiede ecosistemi e infrastrutture

A cura di Kaladhar Voruganti, Senior Business Technologist di Equinix

L’avvento di ChatGPT ha portato l’IA generativa a diventare mainstream, spingendo moltissime organizzazioni a concentrarsi sull’accelerazione di iniziative di IA per servire meglio clienti, dipendenti e partner e semplificare al contempo i flussi di lavoro interni.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Ciononostante, è anche opportuno chiedersi: queste organizzazioni disporranno delle competenze, dei sistemi e delle infrastrutture necessarie per gestire l’enorme impatto che l’IA avrà sui loro modelli operativi?

L’edizione 2023 della Global Tech Trends Survey (GTTS) di Equinix ha portato alla luce una chiara risposta: il 42% dei responsabili IT aziendali ritiene che la propria infrastruttura informatica non sia del tutto preparata ad accogliere la crescente adozione dell’IA.  Inoltre, il 41% dubita della capacità del proprio team di implementare la tecnologia.

L’implementazione dell’IA a livello produttivo introduce nuove sfide

I team IT che stanno iniziando a supportare l’uso delle tecnologie AI nelle loro organizzazioni si trovano ad affrontare una serie di sfide completamente nuove in termini di costi, prestazioni, condivisione dei dati, carenze di competenze e sostenibilità.

Partendo dall’ambito economico, una fonte di preoccupazione per le aziende risulta il fatto che,entro la metà di questo decennio, la maggior parte dei dati sarà generata al di fuori del data center. Ad esempio, se i dati sono generati nel cloud, ha senso elaborarli nel cloud. Tuttavia, se i dati sono generati nell’edge, devono essere archiviati ed elaborati nell’edge. Pertanto, le architetture di intelligenza artificiale centralizzate non sono scalabili in termini di costi e prestazioni; e il costo del backhaul dei dati generati nell’edge e inviati al core può essere proibitivo.

Le organizzazioni possono inoltre incontrare ostacoli al raggiungimento di prestazioni ottimali per diversi motivi come la difficoltà di accesso alla tecnologia GPU più recente nel cloud, la latenza/throughput dell’inferenza dell’edge e le differenze tra l’architettura del sistema e dell’implementazione, dal momento che, sebbene i fornitori di GPU, gli OEM e i cloud possano utilizzare tutti lo stesso tipo di GPU, ci sarà una differenza nelle prestazioni complessive di queste implementazioni a causa dell’architettura di interconnessione delle GPU con le reti, lo storage e le altre GPU nel cluster.

Leggi anche:  SAP customer experience: come valorizzare la relazione tra azienda e cliente

E ancora, sussistono anche sfide legate alla condivisione dei dati, dal momento che, in molti casi, le organizzazioni hanno bisogno di sfruttare dati esterni (ad esempio, dati meteo, dati sul traffico, ecc.) per migliorare l’accuratezza dei loro modelli di IA, obbligandosi quindi a conoscere il percorso dei dati e dei modelli esterni che stanno utilizzando per assicurarsi di non violare le norme di conformità e per proteggersi da dati corrotti manipolati da agenti malintenzionati.

Eppure, una delle maggiori barriere risulta la difficoltà ad assumere lavoratori qualificati nel campo dell’IA, tanto che, nella GTTS, il 45% dei leader IT ha dichiarato che la sfida più grande per le competenze è la velocità di trasformazione del settore tecnologico.

Infine, la sostenibilità: I rack di formazione per l’intelligenza artificiale consumano più di 30 kVA per rack e il raffreddamento ad aria diventa inefficiente; kVA più elevati per rack richiedono un raffreddamento a liquido; e la maggior parte dei data center privati (in-house) non sono attrezzati per gestire questi rack per l’IA ad alto consumo energetico.

Siamo pronti per l’IA?

Una cosa è certa: la creazione di soluzioni di IA scalabili richiederà che le aziende siano in grado di gestire l’ingestione, la condivisione, l’archiviazione e l’elaborazione di serie di dati enormi e diversificate, pur tenendo conto della sostenibilità. Dovranno raggiungere, in altri termini, un’IA di livello produttivo; e, in quest’ottica, la partecipazione a un ecosistema digitale risulterà sempre più fondamentale, aiutando i team dell’infrastruttura IT a superare la complessità dell’AI, a gestire enormi volumi di dati e ad ottenere l’accesso a nuovi partner tecnologici con soluzioni innovative.