Se il lavoro, la produzione industriale e il business si spostano nel cloud, il futuro dell’infrastruttura è digitale. Piccola guida ai fondamentali dei nuovi paradigmi dell’IT e alle tecnologie protagoniste della trasformazione dei data center legacy

Questo dossier prende spunto dalla giornata organizzata da IDC Italia sul futuro dell’infrastruttura digitale, e affronta il ruolo del data center nel contesto della piena virtualizzazione delle risorse IT. Secondo le previsioni degli analisti, le aziende dovranno rivedere le loro politiche di investimento per adattarsi alla vasta gamma di servizi disponibili che supportano il passaggio ai paradigmi del cloud che rappresenta una svolta epocale. Tuttavia, per sfruttare appieno queste opportunità, le aziende dovranno investire in infrastrutture adatte e nell’adeguamento di processi e procedure. Il ruolo dei data center sta cambiando, poiché l’approccio tradizionale basato su server fisici sta cedendo il passo alla virtualizzazione, alla conteneirizzazione e alla distribuzione delle applicazioni su più ambienti. Il futuro del data center è digitale e richiederà competenze specialistiche per la gestione e l’ottimizzazione delle infrastrutture cloud.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

IL FUTURO DEL DATA CENTER

Era inevitabile che il crescente gap tra le risorse fisiche del calcolo e l’aspetto funzionale delle applicazioni associato al fenomeno della virtualizzazione portasse a ripensare un modello di erogazione legato storicamente al controllo, anzi al “possesso” dell’hardware. Oggi, è il concetto stesso di data center “proprietario” a essere messo in discussione. Non si può certo ancora pensare a una dismissione su larga scala, ma in molti casi queste infrastrutture vengono illuminate da una luce critica che avrà un inevitabile impatto sulle singole decisioni di molte imprese sia quelle più consolidate e di grandi dimensioni, impegnate ormai da anni in un processo di trasformazione del loro patrimonio informatico proprio in direzione del cloud; sia i nuovi entranti che arrivano sui mercati senza il problema di una infrastruttura legacy e con una mentalità di servizio “digital first”.

Il modo di vedere le infrastrutture fisiche è del resto molto legato alla problematica generale della migrazione dei data center legacy verso i modelli software-defined. L’originaria contrapposizione tra strategie “private” e “public” si evolve in una visione sempre più ibrida e spesso multi-provider. Visione che lascia appunto spazio a molte considerazioni sull’opportunità di mantenere il controllo (e il costo) di una porzione privata della propria infrastruttura digitale, sia nel data center vero e proprio sia nelle risorse di calcolo periferiche (edge computing) che sempre più spesso devono essere dispiegate a supporto dei luoghi di lavoro e di produzione. Naturalmente, l’idea di abbandonare definitivamente il concetto di data center di proprietà è uno scenario del tutto estremo, ma in un orizzonte di tempo molto esteso è ragionevole ipotizzare evoluzioni molto radicali del “server on premises”.

«Il futuro dell’infrastruttura ICT di un’azienda è la digital infrastructure» – afferma Sergio Patano, associate director, Consulting and Custom Solutions di IDC. Le sue basi poggiano su tre elementi fondamentali: «Il cloud come modello di delivery, le autonomous operations, che supportano le aziende a velocizzare i processi e a ridurre gli errori, e il deployment ubiquo che collega il data center aziendale all’edge e all’IoT per sfruttare al massimo dati e informazioni e creare un supporto in near-real-time al business». La digital infrastructure è quindi un tassello imprescindibile per le aziende che vogliono competere nel mondo sempre più caratterizzato dal business digitale e da nuovi modelli di organizzazione del lavoro. «Solo attraverso infrastrutture flessibili e scalabili, le organizzazioni potranno rispondere a un mercato mutevole e imprevedibile» – sottolinea l’analista.

Tra i fattori determinanti – aggiunge Patano – c’è anche l’attuale tendenza al risparmio energetico e alla sostenibilità in un’economia che – come il software – cerca di riscoprire i fondamentali vantaggi del riuso e della circolarità. «In un contesto in cui le aziende e le istituzioni ambiscono a diventare “ESG Compliant”, un ruolo fondamentale viene giocato anche dalle infrastrutture digitali che permettono di ridurre i costi operativi, aumentare l’efficienza e potenziare comunicazione e collaborazione tra dipendenti e con i clienti». L’informatica software-defined contribuisce a generare fonti di ricavo e a creare processi di business più sostenibili, migliorando la tracciabilità e la trasparenza delle attività aziendali e rispondendo alle aspettative di clienti e stakeholder. Negli ultimi anni, le aziende sono diventate estremamente sensibili alle tematiche ambientali e sociali, non solo per questioni di hype momentaneo sul mercato e di brand reputation. Nello sviluppo di una strategia di digital infrastructure, le aziende devono considerare molteplici elementi tra loro strettamente collegati. La condizione indispensabile dell’infrastruttura digitale dipende dallo stato di salute dell’infrastruttura fisica: le reti di telecomunicazione fisse e mobili. «La rete deve garantire flessibilità, sicurezza e velocità per connettere applicazioni, persone, oggetti ma soprattutto dati» – spiega Patano, sottolineando anche l’ubiquità e la qualità complessiva delle connessioni che nell’Italia produttiva, ancora molto frammentata in decine di distretti periferici, rappresentano ancora un obiettivo da raggiungere.

IL DATO AL CENTRO

I dati che le reti devono trasportare sono il secondo ingrediente della ricetta della nuova informatica. «Sono l’elemento cardine di un’azienda che oltre che essere digitale ambisce ad essere anche data-driven. I dati devono essere facilmente e velocemente accessibili e l’infrastruttura deve essere disegnata in modo tale da favorire la loro fruizione, archiviazione e protezione» – continua Patano. Lo shift sempre più comune verso modelli infrastrutturali ibridi e multicloud mette le realtà di fronte al crescente aumento della complessità di gestione che deve essere affrontata migliorando governance e osservabilità al fine di ridurre i rischi, anticipando criticità ed eliminando i colli di bottiglia che possono limitare le capacità di innovazione IT e di business. Insieme al fattore osservabilità, l’altro abilitatore primario è l’automazione. Le opportunità di crescita di una cultura infrastrutturale al passo coi tempi, possono essere colte migliorando i livelli di autonomia nella gestione dell’infrastruttura. Le regole della trasformazione portano a disegnare infrastrutture che oltre a essere molto complesse, quasi invariabilmente non dipendono dal controllo esclusivo da parte delle aziende che le utilizzano.

Aspetti come il provisioning delle macchine virtuali e l’integrazione di applicazioni e servizi forniti internamente o da terze parti richiedono un approccio interdisciplinare che è incredibilmente “time consuming” e richiede una vasta gamma di competenze. «L’automazione – fa notare Patano – consente soprattutto di orientarsi verso attività a maggior valore aggiunto e a supporto del business, con figure IT sempre più focalizzate sullo sviluppo e la creazione di nuove revenue stream». L’automazione inoltre risulta essere un fondamentale acceleratore, che rende possibile la velocità di reazione di fronte agli stimoli e alle esigenze del mercato. Oggi, questo obiettivo si può raggiungere solo implementando in modo adeguato soluzioni di intelligenza artificiale e machine learning. Infine, considerando il ruolo cruciale del cloud nella digital infrastructure per sfruttare concretamente un vantaggio competitivo, diventa altrettanto cruciale garantirne la resilienza, perché anche delegando parte dei carichi di lavoro ai modelli ibridi e multicloud, nessun servizio è esente da rischi.

ON-PREM E OFF-PREM

Come si articolano questi principi nella ridefinizione del data center? L’approccio prevalente è la strategia dell’infrastruttura digitale ibrida, in cui si combinano risorse basate su cloud e locali per supportare l’infrastruttura IT di un’organizzazione. L’infrastruttura digitale ibrida offre flessibilità e scalabilità, consentendo alle aziende di adottare un approccio basato sui servizi, in cui le risorse IT vengono fornite come servizio da una varietà di fornitori, piuttosto che essere possedute e gestite internamente. Ciò significa che le aziende possono adottare un approccio pragmatico, scegliendo tra le opzioni di cloud pubblico, cloud privato e infrastruttura on-premises in base alle loro esigenze specifiche. Allo stesso tempo, è necessario considerare la sicurezza, la governance e la gestione delle risorse in un’infrastruttura digitale ibrida, poiché l’adozione di un approccio “cloud first” non significa ignorare i rischi e le sfide. Quale può essere il ruolo del data center proprietario in tale contesto? Con l’avvento di fenomeni come la co-location, l’housing e l’hosting della virtualizzazione, la stessa definizione di quella che un tempo era nota come “sala macchine” ha subito una significativa evoluzione. Diciamo che una infrastruttura fisica oggi è qualcosa di molto diverso, non deve necessariamente coincidere con un luogo fisico, ma fa comunque capo alla proprietà e alla gestione da parte di una singola organizzazione. Ciò significa che l’organizzazione ha il completo controllo sull’hardware, il software e l’infrastruttura di rete all’interno del proprio data center e delle eventuali sedi periferiche. I data center proprietari possono essere situati on-premises oppure off-premises e possono essere utilizzati per archiviare ed elaborare una vasta gamma di dati e applicazioni. Nell’infrastruttura digitale ibrida, composta da risorse di calcolo e servizi applicativi che possono far capo a un provider pubblico, attraverso il proprio data center, l’azienda può abbinare questa capacità di controllo all’opportunità di sfruttare le risorse del cloud ai fini di una maggiore scalabilità, convenienza e flessibilità. Uno dei principali vantaggi è la personalizzazione dell’infrastruttura, anche digitale, a determinate applicazioni o alla scelta di ambienti operativi, piattaforme e linguaggi di sviluppo. Un secondo e forse più importante vantaggio – considerato il diverso peso che le aziende europee forzatamente clienti di hyperscaler soprattutto americani devono dare alla compliance regolamentare – è la capacità di mantenere la sovranità dei dati, ovvero il diritto di controllare i propri dati e garantire che siano gestiti in conformità con le proprie politiche e normative vigenti.

Leggi anche:  AI, moda passeggera o vera rivoluzione?

Su questo punto, il mercato del cloud pubblico sta cercando di elaborare soluzioni adeguate, agendo sulla leva della localizzazione geografica delle risorse di calcolo fisiche. Ma la strada è ancora lunga, perché le differenze di natura giuridica e culturale sulla definizione di “dato sensibile” sono ancora evidenti. Oltre al controllo e alla sovranità dei dati, un data center proprietario può anche fornire risparmi sui costi in una strategia ibrida. Sebbene le risorse basate su cloud possano essere convenienti per alcuni carichi di lavoro, possono anche rivelarsi più costose per altri. Per esempio, in presenza di costi elevati per la connettività, l’archiviazione e l’elaborazione dei dati, un’infrastruttura locale può essere più efficiente e conveniente. Inoltre, alcune aziende potrebbero preferire un’infrastruttura locale per motivi di sicurezza o per mantenere un maggior controllo sui propri dati e sulla propria infrastruttura IT.

Sull’altro piatto della bilancia ci sono però alcuni svantaggi in termini di struttura finanziaria dei costi (CapEx versus OpEx, problema che non a caso i fornitori di hardware affrontano, modificando anche i loro modelli di vendita dell’hardware); obsolescenza dei server fisici; manutenzione; scarsa scalabilità; e sicurezza complessiva di data center che a fronte di una maggiore capacità di controllo rappresentano anche un bersaglio naturale. La vera risposta alla domanda sull’opportunità di mantenere una infrastruttura di calcolo proprietaria risiede nella sua “cloudizzazione”, che storicamente parte dalle piattaforme di virtualizzazione dell’hardware.

VIRTUALIZZAZIONE DEL SERVER

Il primo passo del software-defined data center consiste nella scelta di un motore di virtualizzazione, un software in grado di orchestrare il tempo di esecuzione dei microprocessori per creare una o più macchine virtuali (VM) da una singola CPU o array di CPU, simile alle infrastrutture mainframe. Esistono diversi tipi di virtualizzazione, tra cui quella intrinseca all’architettura di alcuni processori, quella dove l’hypervisor viene installato direttamente sull’hardware (bare metal) e le tipologie più ibride che dipendono da un dialogo più o meno stretto tra hypervisor e sistema operativo ospite, e agli ambienti di emulazione (come Oracle Virtual Box) e containerizzazione (come Docker), che vengono installati sul sistema operativo e girano come una applicazione.

In generale, si distinguono la virtualizzazione di tipo-1 per gli hypervisor che costituiscono il substrato di un sistema operativo e la virtualizzazione di tipo-2 per i motori di virtualizzazione che vengono installati in ambienti operativi specifici (host OS) e sui quali si possono emulare uno o più sistemi operativi “guest”. Alcuni esempi di hypervisor open source sono KVM, la macchina virtuale basata sul kernel Linux, o Xen. KVM consente l’esecuzione di più macchine virtuali su un singolo server fisico e offre funzionalità avanzate come la migrazione in tempo reale, l’alta disponibilità e le funzionalità di rete avanzate. È piuttosto popolare tra chi desidera implementare la virtualizzazione del data center senza incorrere in costi di licenza elevati. Xen, invece, è un hypervisor utilizzato da una serie di importanti fornitori di servizi cloud pubblici, tra cui Amazon Web Services. È di tipo-1, viene installato in modalità bare metal e offre anche funzionalità avanzate di disponibilità continua e sicurezza.

Proxmox VE è un altro progetto open source visto da molti come un’alternativa a VMware ESXi nell’ambito degli hypervisor bare metal. Accanto a queste soluzioni open source, ci sono diverse offerte commerciali, tra cui Microsoft con Hyper-V e altri provider che utilizzano tecnologie proprie o mutuate dalle piattaforme open source menzionate. In un panorama oggettivamente complesso, i fattori che devono guidare la scelta di una soluzione di virtualizzazione sono essenzialmente la compatibilità con le architetture fisiche da virtualizzare, la facilità di gestione, la sicurezza, il costo della piattaforma e – last but not least – il livello di supporto che lo sviluppatore può garantire alle aziende che non possono contare su competenze interne adeguate.

CLOUD PRIVATO VS SDDC

Dopo la virtualizzazione, che può anche riguardare un singolo server, il secondo importante passo verso l’infrastruttura digitale è la tecnologia in grado di gestire un insieme di macchine virtuali, come avverrebbe in un tradizionale data center. I due concetti fondamentali di questa fase riguardano la realizzazione di un cloud privato o, più in generale, di un cosiddetto SDDC (Software-defined data center). Questi due concetti sono strettamente correlati nell’informatica del cloud computing, anche se con significati e scopi un po’ diversi. Un cloud privato è un ambiente di cloud computing dedicato a una singola organizzazione. È progettato per fornire gli stessi vantaggi di un cloud pubblico, come l’accesso on demand alle risorse, il provisioning self-service e l’elasticità, ma è costruito e gestito dall’organizzazione stessa. Un cloud privato può essere ospitato on-premises o presso un data center di terze parti, in modalità hosted o in co-location. Un SDDC, invece, è un’infrastruttura fisica virtualizzata e controllata dal software. Comprende risorse di calcolo, archiviazione e rete virtualizzate progettate per essere flessibili, scalabili e automatizzate. Il concetto chiave di un data center virtuale è che può essere gestito interamente via software, piuttosto che tramite configurazioni basate su hardware. Mentre un cloud privato può essere considerato un tipo di ambiente di cloud computing, un SDDC è un tipo specifico di infrastruttura progettata per supportare il cloud computing. In altre parole, un SDDC è un elemento costitutivo di un cloud privato o di qualsiasi altro tipo di ambiente di cloud computing. Un SDDC fornisce l’infrastruttura sottostante che consente a un’organizzazione di creare un cloud privato, mentre un cloud privato fornisce i servizi front-end che consentono agli utenti di accedere e utilizzare le risorse erogate dall’SDDC.

DATA CENTER VIRTUALE

La creazione di un data center definito dal software (SDDC) richiede una gamma di piattaforme e soluzioni che funzionino in maniera integrata per virtualizzare le risorse fisiche, offrire il provisioning automatizzato e consentire la gestione di queste risorse virtuali. Anche in questo caso, le imprese hanno a disposizione un’ampia scelta di possibilità, sia commerciali che open source. Per esempio, VMware vSphere è una piattaforma di virtualizzazione ampiamente utilizzata che fornisce le basi per la creazione di un SDDC. Include funzionalità come la gestione delle macchine virtuali (VM), la virtualizzazione dell’archiviazione e della rete e l’alta disponibilità. VMware offre anche una gamma di prodotti complementari, come VMware Aria Automation e Operations (il nuovo nome di vRealize Automation e vRealize Operations), che forniscono ulteriori funzionalità di automazione, gestione e monitoraggio. Ci sono poi prodotti più specifici orientati alla virtualizzazione di singoli aspetti di un data center, come la connettività o lo storage. Uno degli ambienti leader per il Software-defined networking è Cisco ACI (Application Centric Infrastructure), una piattaforma di rete definita dal software (SDN) che può fornire una base per la creazione di un SDDC.

Leggi anche:  Fincons Insurance Insights. Uno sguardo sul futuro tra visione e innovazione

IPERCONVERGENZA E CONTAINER

Altre soluzioni commerciali mirate alla creazione di un cloud privato sono Microsoft Azure Stack e Nutanix Enterprise Cloud. Microsoft Azure Stack è una piattaforma cloud ibrida che consente alle organizzazioni di eseguire i servizi del cloud pubblico Azure in locale, includendo funzioni come la gestione delle macchine virtuali, la virtualizzazione dell’archiviazione e della rete e i servizi applicativi. Azure Stack offre anche una gamma di prodotti complementari destinati, per esempio, alla business continuity, come Azure Site Recovery o il monitoraggio di Azure. Nutanix Enterprise Cloud è una piattaforma che si basa sull’iperconvergenza, una modalità di gestione integrata delle risorse di calcolo, archiviazione e rete che un tempo restavano separate nell’ambito dell’architettura complessiva del data center. Questo approccio ha dato vita a un mercato molto complesso che prevede anche la possibilità di investire in soluzioni hardware iperconvergenti in forma di appliance che integrano funzionalità di rete e storage in un unico nodo computazionale. Le soluzioni Nutanix appartengono alla categoria dell’iperconvergenza software-defined e raggruppano funzionalità come la gestione delle macchine virtuali, la virtualizzazione dell’archiviazione e della rete e l’alta disponibilità, oltre a add-on come l’automazione, la gestione e il monitoraggio. La creazione di un ambiente cloud privato in un data center richiede una gamma di tecnologie e soluzioni che lavorano insieme per progettare una infrastruttura virtualizzata, oltre alle capacità di provisioning automatizzato e di gestione delle risorse virtuali.

Dai grandi gruppi di sviluppo open source derivano molte delle storiche piattaforme di cloud privato. OpenStack per esempio fornisce una gamma di servizi per la “cloudizzazione” delle risorse di calcolo, rete e archiviazione, più una gamma di prodotti complementari, come OpenStack Horizon e OpenStack Heat, che forniscono ulteriori funzionalità di automazione, gestione e monitoraggio. Un altro progetto open source è CloudStack, della grande famiglia Apache. Anche CloudStack rappresenta una cassetta degli attrezzi molto completa, fino ad arrivare alle interfacce grafiche e le API per la gestione e il controllo. Forse meno conosciuta è Eucalyptus, una piattaforma di cloud computing rivolta alla creazione di cloud compatibili con il mondo AWS, il cloud pubblico di Amazon. Anche per Eucalyptus sono previste funzionalità gestionali aggiuntive. Infine, quando si parla di software defined data center non si può non citare tutto il comparto della containerizzazione e della cosiddetta application modernization: la trasformazione delle applicazioni legacy. Questo processo mira a migliorare l’efficienza, la scalabilità e la competitività sfruttando tecnologie e metodologie più moderne e aperte al business digitale.

Il mercato della modernizzazione delle applicazioni è cresciuto rapidamente in questi ultimi anni, sull’onda della richiesta di adattamento alle esigenze del Web e della mobilità. La soluzione leader in materia di containerizzazione è Docker, da abbinare alla piattaforma di orchestrazione dei container Kubernetes. Quest’ultima fornisce le basi per l’esecuzione di carichi di lavoro containerizzati nel contesto di un data center software defined. Include funzionalità come la gestione dei contenitori, il bilanciamento del carico e il ridimensionamento automatico. Ulteriori funzionalità di monitoraggio dei contenitori possono essere aggiunte con soluzioni come Kubernetes Dashboard e Kubernetes Helm.

Numerose soluzioni di modernizzazione arrivano dal versante commerciale. OpenShift di Red Hat è un competitor di Kubernetes nell’orchestrazione dei container. Cloud Transformation Advisor di IBM aiuta le organizzazioni a modernizzare le proprie applicazioni fornendo una valutazione dettagliata e raccomandazioni per la migrazione delle applicazioni Java ad ambienti cloud-native. Microsoft Azure Migrate è una suite di strumenti che aiuta le organizzazioni a valutare, migrare e ottimizzare le proprie applicazioni locali sul cloud di Microsoft, Azure.

La stessa Google offre Cloud Anthos una piattaforma applicativa ibrida e multicloud che consente alle organizzazioni di adeguare le proprie applicazioni alle nuove infrastrutture ibride, sfruttando le tecnologie di containerizzazione e orchestrazione di Google Cloud. Allo stesso filone, appartengono servizi di Web serving avanzato come AWS App Runner di Amazon, un servizio completamente gestito che semplifica la creazione, la distribuzione e la rapida scalabilità di applicazioni containerizzate. Mentre VMware Tanzu è una suite di prodotti e servizi per la creazione, l’esecuzione e la gestione di applicazioni containerizzate basate su Kubernetes. In generale, queste soluzioni possono essere utilizzate insieme o come opzioni autonome, a seconda delle esigenze dell’organizzazione e dei requisiti specifici delle loro applicazioni. È essenziale che le organizzazioni valutino attentamente le proprie opzioni e scelgano la giusta combinazione di strumenti e servizi per modernizzare con successo le proprie applicazioni, magari avvalendosi di società di system integration e consulenza competenti.

AUTOMAZIONE E DEVOPS

Come sottolineato da Sergio Patano, il fattore dell’automazione è uno dei criteri fondamentali per un’infrastruttura digitale e un aspetto essenziale nella piena virtualizzazione del data center e delle attività di sviluppo e rilascio delle applicazioni (DevOps). Le tecnologie e le piattaforme di automazione consentono ai team IT di ridurre gli interventi manuali e le attività più ripetitive, con conseguente aumento sia dell’efficienza sia dell’agilità dell’infrastruttura. Solo per fornire alcuni esempi di piattaforme di automazione più diffuse, Ansible è un progetto open source guidato da Red Hat, che offre un supporto su scala globale. Il sistema consente di automatizzare l’implementazione e la gestione dell’infrastruttura e si distingue per la sua immediatezza e semplicità operativa. Anche Puppet è una popolare piattaforma che, a differenza di Ansible, fornisce un approccio dichiarativo all’automazione dell’IT. Puppet consente ai designer architetturali di definire lo stato desiderato della loro infrastruttura e garantisce il raggiungimento dell’obiettivo. La scalabilità di Puppet lo rende molto popolare nelle organizzazioni di grandi dimensioni, mentre la semplicità di Ansible si presta anche alle esigenze delle medie imprese.

Leggi anche:  Microsoft porta Copilot su Windows 10

Vale poi la pena menzionare Chef, uno strumento di automazione che fornisce un approccio “model-driven” e un ambiente molto aperto all’uso di altri strumenti e piattaforme. Gli architetti utilizzano il codice di Ruby per definire l’infrastruttura di delivery e i moduli aggiuntivi come Chef Habitat e Chef InSpec che si occupano rispettivamente dell’automazione delle applicazioni e della sicurezza e compliance. Chef è noto per la sua flessibilità e la sua capacità di integrarsi con un’ampia gamma di strumenti e piattaforme.

Un concorrente di Chef è SaltStack, che a differenza del primo utilizza come linguaggio di riferimento Python e agisce sulla base di eventi e trigger, il che lo rende molto interessante per l’automazione di infrastrutture particolarmente complesse e dinamiche. Di automazione si occupano anche soluzioni come VMware Aria (ex vRealize Automation), orientato alla gestione automatica delle macchine virtuali, e Microsoft System Center, una suite di strumenti di gestione di server, desktop e applicazioni, nonché funzionalità di automazione per l’orchestrazione e la gestione delle configurazioni. Esistono anche prodotti più specifici come Cisco Intersight, progettata per la gestione dell’infrastruttura Cisco, e tutta una serie di soluzioni di automazione di generazione precedente, che oggi sono addirittura andati in pensione, come nel caso di HP OpenView, molto utilizzato in passato per la gestione di rete, in seguito ribattezzato BTO (Business Technology Optimizer) e oggi giunto in cosiddetta End of Life.

Oltre a queste tecnologie e provider di automazione, esistono anche numerose piattaforme di automazione basate su cloud pubblico e integrate nell’offerta degli hyper scaler. Due esempi tra tutti quelli di Amazon Web Services (AWS) CloudFormation e Google Cloud Deployment Manager. Queste piattaforme consentono di automatizzare l’implementazione e la gestione dell’infrastruttura nel cloud, utilizzando una gamma di modelli e API.

INTEGRAZIONE CONTINUA

Negli ambienti cloud ibridi, che solitamente comportano una combinazione di servizi on-premises, cloud privato e cloud pubblico, l’integrazione è un tema complesso che richiede la considerazione di diversi “stili” di integrazione. Alcuni esempi di tali stili includono la gestione delle API, l’utilizzo di soluzioni iPaaS per integrare applicazioni basate su cloud e on-premises, l’uso di piattaforme di integrazione ibrida (HIP) progettate specificamente per ambienti cloud ibridi, l’implementazione di una service mesh per gestire la comunicazione tra microservizi su più piattaforme e l’utilizzo di piattaforme di servizi serverless per gestire carichi di lavoro basati su eventi.

Inoltre, ci sono anche strumenti di integrazione e virtualizzazione dei dati che sono specificamente orientati alle esigenze delle data-driven company che utilizzano molteplici sorgenti di dati. Questi strumenti permettono di spostare, trasformare e sincronizzare i dati tra vari sistemi cloud e on-premises, e includono soluzioni come Apache NiFi, Denodo, Talend, Informatica PowerCenter e l’italiana Irion, protagonista della cover story di Data Manager di aprile 2023. In generale, l’obiettivo è quello di garantire un’integrazione uniforme e continua tra le applicazioni in esecuzione su piattaforme diverse, consentendo una gestione efficace dei diversi carichi di lavoro in un ambiente di tipo multicloud.

LA GIUSTA PERFORMANCE

Una combinazione di queste soluzioni di integrazione applicativa può aiutare a gestire efficacemente i carichi di lavoro in ambienti digitali ibridi, come parte di una strategia di controllo che include anche strumenti di monitoraggio e osservabilità, e valutazione della performance istantanea delle applicazioni. È importante implementare strumenti di monitoraggio e osservabilità (come Prometheus, Grafana o ELK Stack di Elastic) e specifici prodotti di Application performance management (APM) per monitorare le prestazioni e l’integrità delle applicazioni su diverse piattaforme.

L’APM è un componente fondamentale degli ambienti di cloud computing, poiché fornisce informazioni in tempo reale sulle prestazioni delle applicazioni eseguite su macchine virtuali ospitate nei data center dei cloud provider. Queste macchine possono essere distribuite su più server fisici e data center, rendendo difficile il monitoraggio delle prestazioni delle applicazioni utilizzando strumenti di monitoraggio tradizionali. L’APM crea una visione centralizzata delle prestazioni delle applicazioni, indipendentemente da dove sono ospitate, consentendo alle organizzazioni di identificare e risolvere i problemi prima che abbiano un impatto sugli utenti finali, sui contratti di servizio o sui limiti fissati dalle normative.

Tra i maggiori fornitori di tecnologie APM cloud, Dynatrace si distingue per il rilevamento automatico e la mappatura delle dipendenze delle applicazioni, il monitoraggio in tempo reale dell’utente finale, la visibilità a livello di codice e l’analisi automatizzata della “root cause” dei problemi di performance. La root cause analysis è un concetto fondamentale per la performance analysis e rappresenta l’unico strumento in grado di assicurare un pronto ripristino di flussi di servizi caratterizzati da significativi livelli di interdipendenza in un’infrastruttura digitale. La piattaforma APM di Dynatrace utilizza l’intelligenza artificiale e l’apprendimento automatico per fornire informazioni in tempo reale sulle prestazioni delle applicazioni, consentendo alle organizzazioni di identificare e diagnosticare rapidamente i problemi prima che abbiano un impatto sugli utenti finali.

GUIDATI DAL SOFTWARE

Tra i competitor di Dynatrace, azienda leader nelle tecnologie APM cloud, ci sono AppDynamics (una società di proprietà di Cisco), New Relic, Datadog e altre, che insieme contribuiscono a creare un mercato dinamico di strumenti sempre più importanti anche ai fini della cybersecurity. Oltre alle piattaforme legate a singole aziende, gli hyperscaler mettono a disposizione degli amministratori di sistema strumenti per sorvegliare la corretta esecuzione dei servizi implementati sui rispettivi ambienti cloud. Per esempio, Amazon CloudWatch è un servizio di monitoraggio facilmente integrabile con altri servizi AWS, come AWS Lambda e Amazon EC2 Container Service. Microsoft Azure Monitor fornisce un cruscotto in tempo reale sulle prestazioni delle applicazioni in esecuzione su Azure e sui microservizi di Function, mentre nella Google Cloud Platform l’equivalente è Google Stackdriver. Il nuovo approccio alla gestione dei servizi IT, basato sulla virtualizzazione e sul cloud, sta portando alla trasformazione anche del ruolo dei responsabili IT. La vera sfida sia per le grandi che per le piccole aziende, è quella di adottare una nuova cultura imprenditoriale definita dal software. Ciò richiede la capacità di comprendere e utilizzare in modo efficace le tecnologie disponibili, non solo per garantire il corretto funzionamento dei servizi IT, ma anche per sfruttare al meglio le opportunità offerte dal mondo digitale.


Maticmind – Data center sostenibili, il consolidamento è la chiave

Rosenberger OSI – Trasferire con successo un datacenter

Smeup – Il motore dell’economia digitale