L’infrastruttura digitale del 2024? Sempre più ecosistema

L’infrastruttura digitale del 2024? Sempre più ecosistema

Emmanuel Becker, Managing Director of Equinix Italy, condivide 3 previsioni sui nuovi trend infrastrutturali del 2024

Mentre un altro anno sta per concludersi, la tecnologia digitale continua a essere un motore critico del progresso economico e sociale, tanto che, in futuro, quella che oggi conosciamo come digital economy diverrà presto l’economia stessa per antonomasia.

La trasformazione digitale, infatti, sta ridisegnando le basi della competizione in quasi tutti i settori verticali, ma allo stesso tempo anche lo strato sottostante a tutto questo, l’infrastruttura digitale, si sta evolvendo per supportare il processo trasformativo, in base a input sia interni che esterni.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

  1. Una nuova logica: il tuo ecosistema è la tua infrastruttura

Da 25 anni Equinix guida la trasformazione digitale; e guardando al futuro, tra altri 25 anni, possiamo prevedere che tutte le attività commerciali saranno digitali, il che significa che tutti i processi aziendali non saranno altro che software che passano dati avanti e indietro sulle reti. Ma come possono le aziende garantire un’esperienza utente soddisfacente e senza soluzione di continuità su dispositivi, sedi e reti diverse?

La risposta risiede nell’appoggiarsi a un solido ecosistema digitale, in cui una ricca rete di entità digitali interconnesse può scambiare valore e informazioni attraverso diversi canali. Sfruttando determinate infrastrutture digitali per connettersi con nuovi ecosistemi, i leader digitali possono attingere a cloud e network provider, produttori e persino utenti finali, per sfruttare nuove capacità che consentono loro di scalare il proprio business, ma non solo. Un ecosistema consente anche l’approdo ad applicazioni tecnologiche emergenti che richiedono elevate prestazioni, bassa latenza e scambio sicuro di dati, come l’IA; e infine permette un nuovo approccio alla cybersecurity che garantisce la protezione e l’integrità dei dati in uso attraverso l’uso di confidential computing, stabilendo un’enclave sicura all’interno di una CPU, nota come trusted execution environment (TEE).

Leggi anche:  OpenText presenta opentext.ai e OpenText Aviator

Ma da cosa dipende il successo di queste piattaforme? Sicuramente la larghezza di banda a prezzi accessibili e la connettività “last mile” sono fondamentali, così come la sempre maggior interconnessione globale dettata dai cavi sottomarini, che rimarranno anche nel prossimo futuro il mezzo preferito per il flusso di dati; eppure il distinguo di un fiorente ecosistema digitale rimane il data center.

  1. I data center: una pietra miliare in continua evoluzione

Mentre le strutture tradizionali, costruite da e a beneficio di una singola organizzazione, vengono progressivamente sostituite da punti di internet exchange (“IX”) altamente interconnessi e distribuiti in tutto il mondo, i data center fungono da base per le piattaforme su cui i partner di un ecosistema si riuniscono per scambiare dati tra loro in modo rapido e sicuro.

Con l’avvento dell’Everything-as-a-Service, i data center assumeranno il ruolo principale nel consentire alle imprese di adottare un approccio infrastrutturale ibrido, che combini la flessibilità e la scalabilità del cloud con la sicurezza e l’affidabilità dell’infrastruttura digitale fisica.

Non a caso, il mercato dei colocation data center sta crescendo a un tasso di crescita annuale composto (CAGR) del 14,2%, e anche per queste strutture imprescindibili si prospettano cambiamenti significativi:

  • L’intelligenza artificiale trasformerà fisicamente i data center – Nei prossimi anni, possiamo ipotizzare che la presenza dell’IA nella nostra vita sarà quotidiana e continua come lo è oggi l’elettricità, ma questo non avverrà senza sforzo.  L’IA generativa richiede sistemi di elaborazione ad alte prestazioni progettati per eseguire workload intensivi su larga scala e, già oggi, l’IA generativa ha influenzato l’architettura dei cluster di IA, richiedendo una rete neurale più grande – il che significa più hardware – oltre a un tessuto di calcolo migliore e a set di dati più grandi. Questi fattori comportano un elevato consumo energetico e la conseguentemente necessità di un raffreddamento più efficiente e di una migliore infrastruttura di rete.
  • La sostenibilità si estenderà all’intera catena del valore – Un approccio sostenibile all’infrastruttura digitale richiederà un’ampia gamma di innovazioni materiali, tecnologiche ed energetiche, ma sarà necessario anche un approccio che rifletta ancora una volta una logica di ecosistema. Ciò implica non solo la valutazione delle metriche di sostenibilità proprie del data center, ma anche la collaborazione con clienti, fornitori, partner e le comunità locali in cui opera, al fine di ottenere risultati sostenibili. Ad esempio, un modo per scalare l’impatto di un data center è quello di stipulare dei power purchase agreement (PPA), una strategia che come Equinix stiamo già intraprendendo con successo in tutta l’area EMEA  e che ci consente di lavorare direttamente con i provider locali per sostenere la produzione di nuove energie rinnovabili e contribuire al raggiungimento di obiettivi a lungo termine. Un altro invece potrebbe essere proprio quello di servire letteralmente la community circostante. In quest’ottica recuperare il calore dai data center e renderlo disponibile per l’uso nelle comunità locali è un esempio di economia circolare in azione che stiamo adottando come azienda già da tempo. Ad Helsinki questo fenomeno virtuoso è già realtà e ci stiamo impegnano per portarlo a compimento anche a Francoforte, Parigi e Milano.
  • L’informatica quantistica diventerà mainstream – Molte aziende hanno iniziato a pianificare le attività rese possibili dalla potenza di calcolo rivoluzionaria offerta dal quantum computing, tanto che ora la questione non è se adotteranno questa nuova tecnologia, ma come e quando lo faranno. I sistemi quantistici possono risolvere tipi di problemi preclusi a quelli convenzionali e sono perciò destinati a popolare sempre più data center, integrando i sistemi di calcolo ad alte prestazioni (HPC) esistenti e supportando determinati casi d’uso. La sfida per le aziende, in futuro, sarà quella di sfruttare al meglio entrambe le tecnologie e di combinarle in modo che funzionino bene come parte di un’architettura IT olistica, ma due cose sono certe: le aziende che utilizzano il Quantum Computing as a Service possono massimizzarne la flessibilità, utilizzando potenzialmente il computer migliore per ogni particolare task; infine, gli utilizzatori non includeranno più i soli istituti accademici e di ricerca, ma si espanderanno a diverse classi e dimensioni di aziende.
  1. La regolamentazione della digitalizzazione

Infine, le forze che plasmano l’infrastruttura digitale e la sua evoluzione saranno anche esterne. Il movimento per la digital sovereignty  è già ben avviato in alcune regioni, ma diventerà ancora più importante con la crescente interconnessione del mondo. I governi si aspettano che i fornitori di infrastrutture digitali offrano piattaforme neutrali che rendano più rapida l’implementazione di infrastrutture ibride in un maggior numero di luoghi, sostenendo di conseguenza la crescita del settore delle infrastrutture digitali, ma anche chiedendo ai fornitori di dare priorità alla sostenibilità e alla privacy dei dati durante la loro crescita.

Leggi anche:  Qlik e Talend migliorano soluzioni Best-In-Class che ampliano l'utilizzo e il valore dei dati nella piattaforma Databricks Lakehouse

Ad esempio, diverse organizzazioni stanno sviluppando strategie di sovranità del cloud con una forte attenzione alla localizzazione dei dati, per ospitare, utilizzare, archiviare o elaborare i dati del cloud in un luogo o in una giurisdizione preferiti, come il proprio Paese, la propria regione o il proprio territorio; ma i casi d’uso emergenti di AI/ML stanno iniziando a catturare l’attenzione anche da parte degli enti governativi. Possiamo ipotizzare che vedremo leggi più severe su ciò che i sistemi di IA possono o non possono fare, e che i governi progetteranno modelli di IA per contribuire al monitoraggio e all’applicazione di tali normative.