Sostenibilità dell’AI – perché i data center “green” non bastano

Sostenibilità dell’AI – perché i data center “green” non bastano

A cura di Monica Batchelder, Chief Sustainability Officer, HPE

Sostenibilità e impatto sociale

Il pensiero ecosistemico sarà fondamentale per la sostenibilità a lungo termine dell’AI

L’intensità delle risorse richieste dall’AI è una preoccupazione condivisa dai settori pubblici e privati – una sfida con cui il mondo continua a confrontarsi a quasi 3 anni dall’esplosione della Gen AI sulla scena globale, alla fine del 2022.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Possiamo essere incoraggiati dalle numerose innovazioni già emerse per rendere questi enormi carichi di lavoro più efficienti, ma resta ancora molto da fare. Comprensibilmente, i titoli sui media che mettono sotto la lente la sostenibilità dell’AI si concentrano soprattutto sui data center “green”: strutture alimentate da energia rinnovabile, ottimizzate per il raffreddamento e progettate per massimizzare l’efficienza. Tuttavia, rappresentano solo un pezzo di un puzzle molto più grande. La realtà è che, per costruire ecosistemi AI realmente sostenibili, dobbiamo andare oltre l’infrastruttura e abbracciare una strategia più ampia che massimizzi l’uso di fonti di energia a basse emissioni di carbonio, integrando al contempo altri elementi chiave di sostenibilità IT come l’efficienza dei dati e quella del software.

Oltre il data center: ampliare la conversazione sulla sostenibilità dell’AI

È innegabile che i data center moderni siano fondamentali per il deployment dell’AI. Innovazioni nel raffreddamento a liquido, nella conversione energetica e nell’ottimizzazione a livello di rack hanno reso possibile sostenere le enormi richieste computazionali dei carichi di lavoro AI. Vale la pena sottolineare che questi progressi non solo sono necessari, ma anche cruciali. Tuttavia, anche le strutture più avanzate incontrano dei limiti. Basti pensare che solo l’inferencing dell’AI – il processo di utilizzo dei modelli addestrati per generare previsioni o risposte – potrebbe arrivare a consumare fino al 20% dell’energia globale entro il 2030. Non si tratta solo di un problema dei data center: è un rischio per il business.

Leggi anche:  OpenAI presenta l'anteprima di ricerca di Operator

La realtà è che i miglioramenti infrastrutturali sono vitali ma non sufficienti. La sfida della sostenibilità dell’AI è sistemica e riguarda l’intero ciclo di vita di un modello – dalla raccolta dei dati all’addestramento, fino al deployment e al monitoraggio. Concentrarsi solo sul data center, ignorando il sistema nel suo complesso, è come migliorare la propria routine in palestra continuando però ad avere una dieta sbagliata: i progressi ci saranno, ma non si massimizzeranno i risultati.

Avere una chiara strategia dei dati non solo assicura output migliori per i modelli AI – ma può anche migliorare in modo significativo l’efficienza energetica del modello stesso.

L’efficienza parte dai dati

I buoni modelli AI si basano su buoni dati. Avere una chiara strategia dei dati non solo assicura output migliori, ma può anche ridurre drasticamente il consumo di energia del modello. Eppure, molte organizzazioni si lanciano in progetti AI senza una strategia definita. Il risultato? Modelli addestrati su dati irrilevanti, non strutturati o di bassa qualità che non solo hanno performance inferiori, ma sprecano preziose risorse computazionali.

Un framework in 4 fasi per l’efficienza dei dati – Raccogliere, Curare, Pulire e Confermare – può aiutare a garantire l’uso esclusivo di dati pertinenti e di alta qualità, riducendo così l’energia e il tempo necessari per addestramento e inferencing. Ad esempio, la curazione dei dataset per eliminare bias e ridondanze ha dimostrato di migliorare significativamente l’accuratezza dei modelli, riducendo al contempo il consumo di risorse.

Software: l’opportunità nascosta

L’efficienza del software è purtroppo spesso trascurata nelle conversazioni sulla sostenibilità dell’AI. La maggior parte degli sviluppatori è formata per privilegiare funzionalità e velocità, dando per scontata la disponibilità illimitata di risorse. Ma le risorse non sono illimitate, e codici inefficienti e modelli “gonfi” aumentano enormemente il consumo energetico.

Leggi anche:  L'AI come abilitatore della relazione brand-consumatore

La buona notizia è che il passaggio da una logica “bigger is better” a una logica “fit-for-purpose” è già in corso. Nella community degli sviluppatori stanno emergendo molte tattiche vincenti. La quantizzazione, ad esempio, riduce il carico computazionale diminuendo la precisione del modello quando un’accuratezza estrema non è necessaria. L’uso di guardrail è un’altra tecnica utile, che instrada le query semplici verso modelli più leggeri e meno energivori. Inoltre, gli sviluppatori AI stanno facendo progressi con i Small Language Models (SLM) e LLM più leggeri e specifici per settore, ottenendo notevoli guadagni di efficienza.

Efficienza delle apparecchiature: abbinare carichi e hardware

Così come il software deve essere ottimizzato per prestazioni e sostenibilità, anche l’hardware deve esserlo. L’efficienza delle apparecchiature nei deployment AI significa sfruttare al massimo ogni tecnologia, con il minimo consumo energetico e la minore generazione di calore possibile. È quindi essenziale abbinare i carichi AI a piattaforme hardware progettate appositamente per quei compiti. Ciò richiede alle imprese di resistere alla tendenza diffusa di richiedere piu’ risorse “per sicurezza”, pratica che porta a bassi tassi di utilizzo e a consumo energetico inutile. Allineando i carichi di lavoro a tassi di utilizzo hardware ottimizzati, le organizzazioni possono ottenere guadagni sostanziali in termini di efficienza.

Un framework olistico per l’efficienza dell’AI

I leader aziendali devono promuovere un nuovo modo di pensare, che vada oltre l’ottimizzazione a livello di singolo dispositivo: serve partire da una visione d’insieme e adottare una roadmap completa per il deployment AI, che consideri l’ottimizzazione a livello di soluzione. Ciò implica un cambiamento culturale significativo che richiederà tempo, ma che non può essere ignorato. Sviluppare un framework olistico per l’efficienza AI significa formare nuove competenze, promuovere la collaborazione cross-funzionale e integrare la sostenibilità nella governance dell’AI.

Leggi anche:  OVHcloud lancia Managed Kubernetes Standard

Allargando il nostro campo visivo per valutare l’ecosistema AI nel suo complesso, e non solo l’hardware sottostante, aumentiamo le possibilità di affrontare le sfide della sostenibilità dell’AI in tempo utile a incidere sulla sua traiettoria ambientale. Abbracciando l’efficienza dei dati e del software, ottimizzando apparecchiature e risorse, e allineando le strategie energetiche agli obiettivi aziendali, le organizzazioni possono costruire sistemi AI potenti che tengano conto dei vincoli energetici del mondo di oggi e che ci mettano nella posizione di beneficiare delle promesse di questa nuova tecnologia.