Quando il virtuale fa male alle aziende

Sicurezza: Seeweb e Gruppo Progress organizzano un webinar il 20 ottobre

I costi di ripristino di un’infrastruttura virtuale possono essere molto alti. La concentrazione di server, applicazioni e dati in un unico punto rappresentano un rischio con cui l’azienda deve fare i conti. Allo stesso tempo l’azienda non può perdere di vista altre voci di spesa celate dietro alla virtualizzazione

La virtualizzazione nasconde più di un’insidia. Anzitutto virtualizzare per risolvere quale problema? E dunque virtualizzare cosa? Non tutto poi può essere virtualizzato. Ci sono applicazioni che richiedono specifiche periferiche hardware; altre bloccate da accordi di licenza. Sistemi – video streaming, database critici, transazioni finanziarie – per i quali affidarsi al “ferro” rimane ancora la scelta migliore. Che si tratti di virtualizzare il proprio data center o lo storage, bisognerà sempre acquisire nuovo software, hardware, servizi, competenze. «Se da un lato la virtualizzazione comporta dei significativi risparmi di costo quando è a regime, cambiare le infrastrutture aziendali richiede un importante investimento iniziale» – spiega Scott Herold, product management supervisor, virtualization technologies di Red Hat. Davanti all’alternativa tra il refresh graduale delle macchine fisiche spalmato su due o tre esercizi e un investimento doppio o triplo tutto in una volta, qualche interrogativo è bene che sorga. «Scegliere un’infrastruttura virtuale proprietaria può portare a un aggravio di costi, diretti e indiretti, dato dal cosiddetto vendor lock-in, la necessità di approvvigionarsi dallo stesso vendor, di adeguarsi alla road map di prodotto del vendor stesso, con possibili ritardi nella creazione di un ambiente virtuale aggiornato» – avverte Herold di Red Hat. Il tutto a fronte di un ritorno, come accade con qualsiasi investimento, che può anche non essere immediato.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’irresistibile ascesa della virtualizzazione

 

La virtualizzazione, intesa come paradigma computazionale, non ha più bisogno di dimostrare tutto il suo valore. A partire dalla metà degli anni 2000, è cresciuta ben oltre le più rosee previsioni degli esperti. Dalle prime timide sperimentazioni, siamo arrivati agli ambienti di produzione. «Si partiva in punta di piedi, con progetti semplici. Oggi, si virtualizzano server e desktop, la rete, lo storage, le applicazioni» – ci dice Gastone Nencini, country manager di Trend Micro Italia . «I grandi player (telco, banche, contesti enterprise) hanno già virtualizzato il virtualizzabile da tempo (hardware/storage). Anche i piccoli seguono questo trend, virtualizzando le risorse interne soprattutto in termini di hardware» – conferma Alessio Pennasilico, membro del comitato direttivo di CLUSIT. Storage e rete sono probabilmente gli ambiti in cui la virtualizzazione si è maggiormente affermata. «Espandendosi nel quadro di un paradigma più ampio, quello dei “software-defined environments” – spiega Giancarlo Vercellino, research & consulting manager di IDC Italia – la spesa risulta positivamente correlata con progetti in area ERP, analytics e infrastructure, in dimensioni che fanno comprendere quanto l’automazione nei processi di gestione stia progressivamente acquisendo spazi sempre più ampi nella spesa delle imprese italiane». E con livelli di investimento che si mantengono stabili nel tempo. «Da una ricerca condotta su oltre 200 imprese italiane nel 2015, nel segmento sopra ai 50 addetti, emerge una sostanziale propensione a mantenere inalterata la spesa in progetti di server e desktop virtualization (tra il 55 e il 60%), con un netto orientamento all’espansione della spesa in un gruppo piuttosto ampio di imprese tra il 28 e il 29%» – conferma Vercellino. Alcuni fattori tuttavia frenano l’espansione del modello: le preoccupazioni di sicurezza delle aziende, la complessità di gestione degli ambienti virtuali, budget per gli investimenti risicati, la compliance, solo per fare qualche esempio. Forse uno degli ostacoli maggiori e allo stesso tempo uno dei meno compresi è la mancanza di visibilità dei costi sottostanti al progetto di virtualizzazione. Soprattutto per la difficoltà di quantificarli. Per esempio, ci sono costi amministrativi difficili da preventivare come quelli di consulenza, formazione, migrazione, aggiornamento a sistemi operativi più recenti. Altri connessi alla gestione del software e dell’hardware, difettano di tool di life-cycle management all’altezza. C’è poi tutto il capitolo legato ai costi delle licenze per le applicazioni proprietarie. Una voce, come vedremo, da valutare attentamente.

Ghost in the machine. Costi nascosti e sprechi

 

Molte organizzazioni hanno iniziato a interessarsi alla virtualizzazione, attratte dalla possibilità di poter ridurre i costi del proprio data center, minimizzando al contempo l’impatto di un crash fisico delle macchine. Un problema che neppure la virtualizzazione riesce a rimuovere. Anche per questo, al varo di un ambiente virtuale si accompagnavano sempre investimenti sulla rete per ridondarla. Allora, alla voce costi nascosti si associavano vetusti meccanismi di isolamento dell’infrastruttura virtuale connessi alla high availability, solo un’opzione all’epoca, considerazioni ancora nebulose sul licensing, sull’incidenza dei costi energetici e amministrativi che lo strato virtuale aggiungeva al complesso dell’infrastruttura. L’importanza di talune voci rimane tutt’oggi mutata. Altre invece si sono trasformate in reperti di un’era geologica lontana. Nel frattempo però, si sono accumulate esperienze e best practice. E se allora l’IT incontrava parecchie difficoltà a fornire talune risposte, oggi queste stesse risposte non sono più eludibili.

La domanda che ci si continua tuttora a porre riguarda il costo della singola macchina virtuale (VM) installata. Un buon punto di partenza è quello di determinare il numero massimo di VM installabili prima che ciò impatti sulla mia operatività. Determinare cioè il limite entro il quale spingere la densità di VM nell’ambiente virtualizzato sia on-premise sia su cloud. E poi procedere con la determinazione dei costi associati a ogni singola applicazione in relazione ai livelli di utilizzo. Per ottenere questo dato bisogna disporre di strumenti che consentano di raccogliere informazioni direttamente da macchine, applicazioni e utilizzatori. Strumenti in grado di interrogare tutte le fonti disponibili, dare loro una forma leggibile e interpretarli. Un processo quasi interamente manuale e solo di recente in parte automatizzato grazie all’ausilio di uno strato aggiuntivo di business intelligence e analitiche.

Leggi anche:  Il ruolo della protezione e della sicurezza dei dati nelle relazioni di fiducia con clienti e partner

Un altro dato essenziale su cui basare le proprie analisi è quello che misura il livello di sfruttamento della VM. Uno dei vendor più conosciuti del settore afferma che si ha una riduzione dei costi quando si utilizza almeno l’80% delle risorse allocate su una VM. Consideriamo che ogni soluzione di virtualizzazione produce un overhead che fa decrescere le performance globali e che si può stimare tra il 10 e il 20% delle risorse fisiche disponibili. Se questo dato è corretto non stupisce più di tanto rilevare che solo una quota delle risorse globali, tra il 64 e il 72%, trova effettivo impiego, mentre oltre un terzo viene sprecato. Consideriamo poi i tempi di inizializzazione e provisioning di una VM, un dato variabile a seconda della piattaforma adottata. Non si tratta certo di una delle voci più gravose. Tuttavia, conoscere l’entità di questa inefficienza può stimolare miglioramenti successivi, fermo restando che riuscire a ridurre l’incidenza di questa voce rimane comunque auspicabile. Soprattutto quando si tratta di operazioni che vengono compiute più volte durante la giornata. Non dimentichiamo poi che una VM è pur sempre un computer. E come tale potrebbe rispondere in modo differente rispetto a un’altra VM del tutto identica pubblicata nella stessa rete, diventando improvvisamente instabile, oppure andando addirittura in crash, senza una spiegazione immediatamente a portata di mano. Variabili d’ambiente modificate. Aggiornamenti software del sistema operativo non corrispondenti. Possono essere mille le differenze tra due macchine all’apparenza identiche. Ma per esaminarle e ripristinarne le funzionalità di partenza si renderà necessario lavorarci sopra un po’, generando un costo aggiuntivo, simile a quello che generano le cosiddette macchine zombie o dormienti. Come ben sanno i professionisti del virtuale, è quasi la norma imbattersi in macchine che versano in stato comatoso, inutilizzate o abbandonate al loro destino come zattere in mezzo al mare. Si calcola che circa un terzo delle VM installate sia improduttiva. Ma allo stesso tempo occupa spazio e consuma risorse. Passare in rassegna periodicamente l’intero parco macchine sbarazzandosi di quelle inutilizzate sembrerebbe il modo più semplice (ma non il più frequente) per tagliare le inefficienze.

Gli sprechi si annidano anche altrove

Per esempio nel passaggio delle applicazioni sulle macchine virtuali, accompagnato quasi sempre a un cambiamento delle condizioni di licenza. «Il passaggio al virtuale scombina meccanismi ed equilibri ormai consolidati, anche in tema di licensing. I modelli tradizionali vanno in crisi rispetto alla mancata corrispondenza tra hardware e software» – ammette Antonio Madoglio, SE manager di Fortinet Italia. Anche se spesso i primi a scombinare le carte con politiche di licensing gestite con criteri quantomeno discutibili sono talvolta gli stessi vendor. «Molti di loro non fanno differenza fra risorse fisiche e virtuali quando vendono licenze per le loro organizzazioni» – spiega Roberto Patano, senior manager systems engineering di NetApp. «E questo può portare a costi eccessivi da parte dei vendor che puntano a sfruttare a proprio vantaggio l’adozione massiccia della virtualizzazione». Altri tuttavia per cercare di rendere più chiari termini e condizioni delle loro licenze si sforzano di modulare meglio la propria offerta. «Dato che le tecnologie per la virtualizzazione consentono un controllo granulare dell’utilizzo delle risorse in generale, queste informazioni potrebbero essere utilizzate dagli stessi vendor per modulare il costo delle licenze in un’ottica “pay as you grow”, svincolandosi dai parametri classici, legati all’infrastruttura fisica» – suggerisce Patano. Un modello già adottato con successo in ambito infrastrutturale. «In questo modo, si potrebbero abbassare le barriere all’ingresso di questa tecnologia, evitare i costi associati alle postazioni o alle licenze non utilizzate e ottenere una migliore “predictability” dei costi associati alla crescita». Una strada imboccata anche da altri. «Red Hat propone diversi modelli di sottoscrizione, che consentono ai clienti di utilizzare la virtualizzazione al meglio, riducendo il più delle volte anche i costi» – afferma Scott Herold di Red Hat.

Leggi anche:  Stiamo vincendo la lotta contro il ransomware?

La fase di presales gioca un ruolo importante nelle decisioni relative a un aspetto importante come il licensing. «Nel caso in cui il processo di virtualizzazione coinvolga applicazioni critiche, oltre alle licenze richieste proponiamo servizi di assistenza e manutenzione» – ci dice Benjamin Jolivet, country manager di Citrix Italia, South Eastern Europe and Israel. «Di solito questi servizi vengono erogati su richiesta del cliente. Tuttavia, integrandoli all’inizio del processo, il cliente riesce ad avere una visione onnicomprensiva sia dei costi sia del valore che un ambiente virtualizzato può portare». Come è facile immaginare, i costi di ripristino di una infrastruttura virtuale dopo un attacco possono essere molto alti. La concentrazione di server, applicazioni e dati in un unico punto rappresentano un rischio con cui l’azienda deve fare i conti. Per questo, al progetto di virtualizzazione si accompagna un piano di disaster recovery dettagliato in grado di prevedere il caso in cui l’intera infrastruttura IT aziendale, compresa quella virtualizzata, dovesse andare a gambe all’aria: un piano capace di modulare sulla base della conta dei danni, le azioni da intraprendere per ripristinare la situazione, aumentare le misure di sicurezza, e al limite difendersi nelle aule giudiziarie.

Una recente ricerca di Kaspersky Lab, svolta a livello mondiale su 5.500 aziende, ha evidenziato che per risanare la sicurezza informatica di un ambiente virtuale violato, le aziende pagano in media più di 800mila dollari, il doppio se paragonato agli attacchi rivolti alla sola infrastruttura fisica. Secondo Morten Lehn, general manager di Kaspersky Lab Italia, «questi costi aggiuntivi si spiegano con il fatto che circa il 62% delle aziende del campione tende a virtualizzare i processi aziendali più critici. Perciò gli attacchi che riguardano ambienti virtuali richiedono un budget supplementare destinato al coinvolgimento di professionisti». Le imprese si aspettano che la virtualizzazione riduca le spese e ottimizzi la propria infrastruttura. Ma i risultati dell’indagine sembrerebbero invece dimostrare altro. E cioè che ancora una parte considerevole di aziende non svolge con la necessaria diligenza i propri compiti a casa. Sottovalutando pericolosamente la sicurezza negli ambienti virtuali. «La complessità delle misure di sicurezza di questi ambienti e l’errata percezione dello scenario delle possibili minacce costituiscono due elementi aggiuntivi che sono la causa dell’aumento dei costi necessari per affrontare un attacco rivolto alle infrastrutture virtuali» – spiega Lehn. A far lievitare questi costi spesso c’è un utilizzo improprio delle soluzioni di sicurezza. «Le aziende dovrebbero utilizzare solo quelle ottimizzate per ambienti virtuali. Troppo spesso invece ci si imbatte in realtà che utilizzano software di sicurezza pensato per macchine fisiche installato su quelle virtuali» – fa notare Nencini di Trend Micro. Sensazione peraltro confermata dalla stessa indagine di Kaspersky Lab, dalla quale emerge che solo il 27% delle aziende intervistate installa una soluzione di sicurezza progettata specificatamente per questi ambienti. Un “trucchetto” che quando va bene limita i danni a uno spreco di risorse computazionali – esattamente quello che le aziende vorrebbero evitare virtualizzando – e a una minore efficacia nel consolidamento delle VM. Ma che in altri casi può portare a conseguenze più gravi. «Sottovalutare gli aspetti di sicurezza, in qualsiasi contesto, trasforma un piccolo rischio potenziale in un enorme danno. La security aiuta non solo a lavorare nel modo corretto, ma soprattutto a non perdere denaro inutilmente» – afferma Pennasilico di CLUSIT.

Controllo dei costi, risparmio assicurato

Questa panoramica dei costi nascosti e non connessi ai processi di virtualizzazione non ha alcuna pretesa di essere esaustiva. Troppe le voci che richiederebbero un’analisi ancora più approfondita. Ma il punto centrale di questo servizio è un altro. Quello che ci preme mettere in evidenza è la necessità per l’organizzazione – e per l’IT in particolare – di dotarsi di tutti gli strumenti a disposizione per misurare le performance e i ritorni. Inutile dire che in un contesto come quello virtuale ci si misura con elevati livelli di astrazione. E che in mancanza di dati certi, diventa molto difficile stabilire, per esempio, se virtualizzare un certo pool di server porterà il vantaggio desiderato entro un determinato tempo. Al contrario per l’IT è essenziale riuscire a esprimersi con il linguaggio compreso dal management, quello del business. Basandosi cioè su metriche finanziarie. Diversamente, diventa un’impresa faticosa riuscire a far comprendere e approvare progetti innovativi. Riuscire a costruire un modello efficiente di allocazione dei costi è centrale per l’IT. Oggi, nessuno metterebbe in dubbio che l’infrastruttura che regge una piattaforma di virtualizzazione ha un costo. Spesso anche alto. Questo non significa che con la virtualizzazione non sia possibile conseguire dei risparmi anche rilevanti su alcune voci di investimento. Ma solo e sempre a partire da una corretta progettazione dell’infrastruttura virtuale. Si sente spesso affermare che la crescita degli ambienti virtuali rende più difficile misurare e gestire i costi effettivi. In realtà, questo è vero solo se non si hanno a disposizione gli strumenti per monitorarne la crescita e la performance. La virtualizzazione promette risparmi, consolidamento dei sistemi, un utilizzo migliore delle risorse e delle capacità amministrative dell’IT. Ma oggi sappiamo che la virtualizzazione si trasforma in una tecnologia estremamente potente quando riesce a disporre di tool in grado di gestire l’intero ciclo di vita delle macchine, di misurare le performance, di individuare sacche di inefficienza e di eliminare gli sprechi. Il futuro della virtualizzazione passa anche attraverso la capacità dei CIO di dotarsi di strumenti efficienti e capaci di monitorare costantemente i vantaggi. In futuro, i risparmi arriveranno proprio dalla capacità di guardare dentro alle infrastrutture virtuali, al modo in cui vengono utilizzate e al modo in cui possono essere ottimizzate. Perciò sia che si voglia compiere il passo successivo, il passaggio integrale al cloud, sia che si scelga di rafforzare la propria infrastruttura virtuale, riuscire a misurare il proprio ambiente virtuale non solo si può ma si deve. Non è mai troppo tardi per iniziare e il business delle aziende ci guadagnerà per questo.

Leggi anche:  Per un esperto di cybersecurity su due la mancanza di conoscenze ha causato errori sul lavoro

 

Sicurezza nella virtualizzazione? Non proprio una passeggiata

G DATA, che da oltre trent’anni protegge le aziende con soluzioni complete di IT security, MDM e patch management, intende rivolgersi entro l’anno a chi decide di virtualizzare con applicazioni specifiche, atte a garantire la stessa pluripremiata protezione fruibile in ambienti fisici. A fronte dello “svanire” dei confini fisici tra le varie istanze di server, la sicurezza negli ambienti virtualizzati presenta numerosi interrogativi, come spiega Giulio Vada, country manager di G DATA Italia. «Dal rischio di accessi incontrollati a dati e applicazioni, a malware che da un server possono raggiungerne altri, fino alla moltiplicazione delle vulnerabilità dovute alla fruizione non monitorata delle risorse virtualizzate con desktop insicuri. A questa amplificazione dei rischi si aggiunge il fatto che la modalità operativa delle soluzioni di sicurezza IT in ambiente fisico è una “non opzione” in ambienti virtualizzati. Se nelle piccole aziende una macchina ospita due o tre VM, può quindi gestire più client antimalware e il rispettivo workload, ma questo approccio è impensabile su macchine la cui CPU è condivisa da centinaia di server. Oltre alle ovvie conseguenze in termini di spazio, la scansione di più server contemporaneamente a opera di client di sicurezza tradizionali avrebbe luogo a totale detrimento della capacità di calcolo disponibile per le altre istanze. Ecco perché quando si virtualizza è necessario fruire di soluzioni antimalware sviluppate ad hoc. Ormai virtualizzazione e cloud sono una realtà per numerosissime aziende».