CLOUD E INFRASTRUTTURE, DOPO LA VIRTUALIZZAZIONE DEL SERVER


Il Cloud computing è la nuova metafora dell’informatica, sia dal punto di vista dell’implementazione delle risorse di calcolo, sia da quello del loro utilizzo in azienda e nel telelavoro. Quali percorsi seguire per “cloudizzare” un’infrastruttura, o integrarne i modelli nelle proprie dinamiche di lavoro

 

Il punto di partenza del cammino che porta a “cloudizzare” un’infrastruttura viene identificato dagli esperti nelle tecnologie software di virtualizzazione. Il fondamento teorico del Cloud computing obbliga infatti a separare in modo netto il livello fisico delle risorse, le “macchine”, dal livello più funzionale, genericamente identificabile con il software delle interfacce grafiche, siano esse dei sistemi operativi, delle applicazioni, degli ambienti di sviluppo e testing.

Obiettivo di questo articolo è analizzare l’offerta dei fornitori di prodotti e servizi che abilitano o agevolano le aziende a percorrere la strada verso il Cloud, vuoi quando il target primario è l’infrastruttura fisica, magari distribuita, di cui dispone per raggiungere l’obiettivo identificato con la terminologia di “Cloud privata”, vuoi nel quadro di progetti più ampi, “federativi” in cui si tratta di inserire le proprie risorse interne in un contesto di Cloud computing misto, privato/pubblico, con la precisa finalità di ottenere un’infrastruttura ancora più flessibile e in grado di rispondere ai picchi di richiesta senza impegnare risorse fisiche sovradimensionate e di conseguenza sottoutilizzate.

 

Quali sono le ragioni che dovrebbero orientare le aziende dotate di infrastrutture importanti verso un’ottica di private Cloud? La virtualizzazione è sempre una strada obbligata?

 

Rompe il ghiaccio sul quesito iniziale Corrado Rebecchi, responsabile Cloud Computing Igem di Accenture (www.accenture.it), che introduce il tema affermando: «Per comprendere appieno le potenzialità del Cloud, credo che sia importante vedere questo fenomeno non come prodotto puramente tecnologico e infrastrutturale, ma come un’azione di trasformazione di tutto l’ICT aziendale. In particolare il private Cloud, grazie alla condivisione delle risorse IT e all’allocazione dinamica di queste sui servizi di business più rilevanti, consente di ottenere significativi benefici quanto più è alta la complessità delle infrastrutture e veloce e dinamico il modello di business. Valore che cresce quando si estende il modello di gestione dalla virtualizzazione dei server a tutto l’IT aziendale: software di base, sicurezza, monitoring & management, data base, applicazioni».

Per Lorenzo Gonzales, business consultant degli HP Technology Services di Hewlett-Packard Italiana (www.hp.com/it), «il private Cloud attrae le aziende per due motivi: razionalizzazione e flessibilità di costi e servizi, riduzione della soglia di accesso all’innovazione abilitata dalle tecnologie. L’IT può focalizzarsi più facilmente sul proprio core, e differenziare il proprio modello di sourcing, definendo un unico e specifico modello ibrido di servizi Cloud e non Cloud». La virtualizzazione, aggiunge Gonzales, accelera il processo, ma non esclude la “partecipazione” di altre capacità tecnologiche, quali le infrastrutture convergenti, le nuove tecnologie di rete, i sistemi di automazione e gestione real time.

Sulla virtualizzazione come parola chiave si esprime molto chiaramente Alessio Lo Turco, team lead, Systems Consulting di Quest Software (www.questsoftware.it). «Il primo passo in direzione di data center virtuali, le ragioni che dovrebbero orientare le aziende dotate di infrastrutture importanti verso un’ottica di private Cloud, e quindi gli obiettivi da raggiungere, sono essenzialmente aumentare la flessibilità, Disaster Recovery & Business Continuity, ottimizzazione delle performance, limitare l’espansione del data center, mantenere ottimale l’esperienza utente, mantenere il controllo dell’infrastruttura e dei dati in essa contenuti, ridurre le spese. La virtualizzazione è una scelta obbligata se si vogliono far crescere i livelli prestazionali e la qualità del servizio erogato dai data center contenendo nel tempo investimenti e costi di esercizio».

Giorgio Richelli, systems architect di IBM Italia (www.ibm.com/it), riassume le motivazioni principali di un progetto di Cloud privata, che «consistono nei risparmi sull’infrastruttura, spazi e consumi, nella velocità nel provisioning di nuove applicazioni e nella possibilità di adattarsi in modo flessibile a improvvise e inattese variazioni del carico». Il punto di partenza anche per IBM è la virtualizzazione. Per Richelli, «il Cloud senza la virtualizzazione è come un gelato senza il cono. Si manterrebbe vincolata l’architettura logica a quella dell’infrastruttura fisica, limitandone in modo drammatico la flessibilità».

Sul provisioning interviene Dario Regazzoni, system engineer manager di VMware Italia (www.vmware.com/it/), ricordando l’offerta di VMware vCloud Director. Secondo Regazzoni la soluzione «consente ai clienti di eseguire il provisioning e gestire l’infrastruttura con una supervisione minima, sfruttando allo stesso tempo le funzionalità di gestione e protezione necessarie per l’implementazione del Cloud».

Un altro importante provider di soluzioni per la cloudizzazione delle infrastrutture, CA Technologies (www.ca.com/it), ribadisce attraverso Elio Molteni, suo senior technology specialist, l’importanza del nuovo modo di concepire l’infrastruttura come erogatore di “servizi”: «Il Cloud computing, oltre alla definizione di un nuovo modello di erogazione dei servizi basato sull’indipendenza delle applicazioni dalla loro collocazione fisica, prospetta un nuovo modello di consumo dei servizi per i clienti». Ma ci sono, secondo Molteni, notevoli ricadute sul mercato delle tecnologie. «La trasformazione graduale da una logica di possesso a una logica di utilizzo sta modificando in maniera significativa le aspettative da una parte dei fornitori, che adottano tecnologie in grado di garantire efficienza e abbattere i costi legati all’infrastruttura, cercando di incrementare l’utilizzo del proprio sistema informativo, e dall’altra dei clienti, che sono guidati nelle scelte dal rapporto costo/qualità del servizio.  La virtualizzazione gioca un ruolo chiave per i fornitori come abilitatore di una corretta pianificazione della capacità di elaborazione e di riduzione del rischio, rendendo possibile una gestione dinamica delle risorse IT in linea con le richieste del mercato».

L’aspetto infrastrutturale viene analizzato anche da Paolo Battimiello, business development manager di VCE, la joint venture tra EMC (http://italy.emc.com), Cisco (www.cisco.com/it) e VMware, con il supporto di Intel (www.intel.com/it). «Il Cloud offre a tutte le organizzazioni, soprattutto (ma non solo) a quelle dotate di infrastrutture importanti e articolate, un modo semplice e veloce di ridurre i costi e accelerare il provisioning, con la possibilità di allineare sempre risorse IT e necessità di business. La virtualizzazione è un fattore abilitante: una strategia efficace di private Cloud non può prescindere da una virtualizzazione estesa delle risorse».

Ma anche il modo di virtualizzare è importante. Denis Nalon, portfolio & business program manager di Fujitsu Technology Solutions (http://it.fujitsu.com/) dice: «La virtualizzazione, così come implementata nella piattaforma Fujitsu, disaccoppia le applicazioni dall’hardware e quindi le protegge da possibili guasti fisici che possono pregiudicarne il corretto funzionamento. Le risorse fisiche, come i server o i dispositivi di storage, sono trasformate in pool di risorse logiche fruibili in modalità “on demand” in base alle esigenze delle applicazioni. Inoltre, è possibile stabilire delle tariffe precise per il loro utilizzo». Vantaggi che, secondo Nalon, «giustificano ampiamente la scelta» di questo percorso.

Leggi anche:  Nutanix estende i servizi di storage alla sua piattaforma cloud ibrida

Con lui concorda Roberto Salucci, Solutions Consultant di Hitachi Data Systems (www.hds.com), per il quale a fronte di un approccio che consente di erogare servizi in maniera flessibile e mirata alle specifiche esigenze dell’utente, «le chiavi per raggiungere tali obiettivi sono essenzialmente due: virtualizzazione dell’infrastruttura e automazione dei processi».

Luca Venturelli, direttore divisione Server, Tools & Cloud di Microsoft Italia (www.microsoft.com/italy), parla della tecnologia di virtualizzazione come base per «costruire l’efficienza attraverso i principi di agilità del business, abbattimento dei costi e riallocazione dei carichi di lavoro», aggiungendo tuttavia altri due importanti aspetti: «Per prima cosa l’azienda deve pensare alla gestione omogenea dei server fisici, non creando discontinuità. Inoltre deve essere in grado di offrire i servizi IT in modalità self service: soltanto così si abilitano i processi che permettono di erogare il servizio secondo le esigenze aziendali».

Se la virtualizzazione è una strada comunque obbligata, soprattutto nel quadro congiunturale attuale, Marco Frigerio, regional sales manager di DataCore (www.datacore.com), propone la sua azienda come provider di soluzioni mirate alle infrastrutture di storage. «La prima ondata di virtualizzazione ha toccato fondamentalmente solo i server, aprendo però nuovi scenari e scatenando nuove problematiche. Una su tutte quella del costo di una infrastruttura di storage in grado di garantire prestazioni e affidabilità. DataCore da oltre 10 anni offre soluzioni di virtualizzazione dello storage, con migliaia di installazioni dagli ambienti più piccoli fino a grandi data center geografici. Con il software DataCore è possibile replicare lo storage su più nodi indipendenti e distribuiti, in grado quindi di offrire alta disponibilità, continuità operativa e performance elevate». E Mario Levratto, senior marketing manager della divisione IT di Samsung Italia (www.samsung.com/it), aggiunge che sempre nell’ambito dello storage, «una gestione centralizzata delle applicazioni e delle risorse, unita a una flessibilità nell’architettura IT di un’azienda, fanno sì che gli interventi su una modifica di configurazioni (come per esempio, aggiungere applicazioni o cambiare priorità) siano estremamente veloci. La possibilità di estendere velocemente la capacità di storage di un data center attraverso servizi on-demand aumenta l’efficienza delle risorse, riducendo al tempo stesso i costi dell’infrastruttura».

Le opinioni dei provider tecnologici sulla prima questione del nostro speciale si chiudono con Fabrizio Landini, vice president di APC by Schneider Electric Italia (www.apc.com/it), che si sofferma su un punto finora rimasto marginale: l’impatto del Cloud computing sul risparmio energetico. «Una virtualizzazione ampliata alle geografie richiede d’altro canto un’infrastruttura massimamente flessibile dal punto di vista delle risorse, del condizionamento e della sicurezza in modo da garantire anche al Cloud la capacità di servizio e di risparmio energetico, aspetti oggi ampiamente garantiti negli ambienti virtualizzati – afferma Landini -. «I vendor che intendono ottenere risultati positivi nell’ambito data center, con soluzioni che garantiscano la continuità del servizio e la proficuità, devono avere una conoscenza profonda dei meccanismi della virtualizzazione e poter contare su delle collaborazioni strategiche con coloro che la realizzano. APC, grazie ad accordi specifici con alcune aziende, tra cui VMware, è in grado di pilotare in modo puntuale ed efficace la distribuzione delle risorse all’interno dei data center in base a quanto la virtualizzazione richiede».

Il contributo dei partecipanti in rappresentanza del comparto della consulenza e la system integration inizia con Luca Bruschi, responsabile Marketing dell’Offerta Enterprise di BT Italia (www.italia.bt.com), che apre invitando a considerare l’outsourcing come prerequisito. «La scelta del modello Cloud (che significa virtualizzare le infrastrutture tecnologiche, ma anche e soprattutto delegare a un fornitore esterno la gestione dell’infrastruttura fisica) consente di accedere a infrastrutture e competenze normalmente non disponibili all’interno (con conseguente maggior focalizzazione sul proprio core business e sull’innovazione) e nella variabilizzazione dei costi. Un buon approccio al tema “Cloud computing” è di tipo consulenziale, ovvero un’analisi di costi, ma anche e soprattutto di fattibilità, costi e benefici attesi».

Antonio Baldassarra, Ceo di Seeweb (www.seeweb.it), conclude il primo giro di risposte in modo volutamente provocatorio sull’assunto fondamentale del private Cloud. Che a suo parere non dev’essere un percorso forzato. «A domanda chiara, risposta chiara: un’azienda, a meno che non abbia dimensioni estremamente rilevanti, non ha grandi ragioni di dotarsi di un’infrastruttura di private Cloud; i vantaggi li può avere attraverso l’uso di un public Cloud, eventualmente organizzato in maniera privata. Oltre a non avere ragioni se non è interessata a problemi di accountability dipartimentale, non avrà nemmeno tangibili vantaggi economici da un paradigma di tipo private Cloud nei confronti del quale, ma penso si sia capito, sono estremamente scettico: è poco più di una buzz word».

 

Spesso, il maggiore ostacolo percepito, la ritrosia che l’azienda nutre nei confronti del Cloud computing è legata a un percorso giudicato irreversibile. È possibile, invece, arrivare alla Cloud privata con gradualità, modulandone le tempistiche e il coinvolgimento? Quali sono a grandi linee le tappe principali di questo percorso?

 

Ancora una volta utilizziamo l’esperienza di Accenture per iniziare la seconda tornata di risposte. «Per rendere efficaci i benefici del private Cloud, esordisce Rebecchi, «è necessario definire una strategia che utilizzi i cambiamenti già pianificati per introdurre tecnologie e processi, con progressività e trasparenza, concentrando gli acquisti già a budget sulle tecnologie Cloud ready più opportune. Altre realtà scelgono un percorso di trasformazione più veloce per ottenere anticipatamente tali risparmi. Le grandi realtà aziendali e industriali tendono a miscelare queste due modalità, così da bilanciare benefici economici, operativi e costi di trasformazione».

«Il percorso verso l’adozione di un’infrastruttura Cloud può avvenire in maniera graduale – risponde Regazzoni di VMware -. Sempre partendo da ciò che le tecnologie consentono e valutando, in base alle esigenze e aspettative dell’azienda, quale tipologia adottare, se un Cloud privato, una soluzione ibrida o altro».

Leggi anche:  OVHcloud Connect si evolve per supportare strategie ibride e multi-cloud

Anche Bruschi, di BT Italia, invita a pianificare una roadmap di migrazione, aggiungendo che «BT ha un’offerta sufficientemente ampia per coprire necessità anche molto diverse in termini di piattaforme, applicazioni, sicurezza e continuità operativa, e la capacità di analizzare i bisogni del cliente e aiutarlo a definire un progetto coerente ed efficace».

La gradualità è considerata da tutti la politica ideale, ma Battimiello in rappresentanza di VCE, esorta a non escludere obiettivi ambiziosi: «Nel lungo periodo il Cloud rappresenta una scelta strategica, e la capacità di dare una visione futura affidabile e concreta è fondamentale. È importante partire “in piccolo”, ma serve anche pensare “in grande” fin da subito, in modo da capire quali sono i vantaggi potenziali ottenibili. Noi stessi di EMC consigliamo di partire “in piccolo”, spostando sul Cloud magari prima determinati servizi, da aumentare poi man mano sulla base dei risultati ottenuti». A questo proposito, appare molto utile la precisazione che Salucci, di HDS, ha inteso fornire a proposito di “percorsi a tappe”: «Ciò che è importante tenere a mente è che il processo di trasformazione non può essere interrotto a metà perché si otterrebbero risultati minimali rispetto agli investimenti effettuati». Gradualità, quindi, ma anche continuità e focalizzazione.

Molteni riassume così la filosofia implementativa della sua azienda: «In ambito tecnologico, il percorso proposto da CA Technologies è graduale e disteso su quattro punti principali: comprensione, composizione, ottimizzazione e orchestrazione. La fase di comprensione (Cloud insight), include la valutazione delle risorse IT hardware e software al fine di stabilire la gestione di livelli di servizio adeguati. La fase di composizione (Cloud compose) consente di creare una o più private Cloud attraverso dispositivi software riusabili, in maniera veloce e flessibile. Le fasi successive, legate all’ottimizzazione e all’orchestrazione, hanno rispettivamente lo scopo di calibrare le risorse presenti nei propri data center e fornire i meccanismi di workflow per l’automazione delle risorse Cloud interne ed esterne».

Mentre Frigerio di DataCore sottolinea che la diffidenza nasce proprio dalla fretta con cui in passato molte aziende hanno affrontato la questione degli investimenti in IT e ricorda in particolare che lo storage necessario per supportare le Cloud resterà troppo costoso fino a quando le Cloud stesse non si sposteranno su modelli di virtualizzazione dello storage basati su soluzioni software, così come oggi avviene per i server grazie a VMware o a Microsoft, e per i desktop grazie a Citrix. Grazie al software DataCore, è possibile realizzare una San virtuale, performante e affidabile, scalabile dalle installazioni più piccole, pochi terabyte di dati in una piccola server room, fino a installazioni geograficamente distribuite su più nodi».

Ottimista è il parere di Nalon, di Fujitsu Technology Solutions. «Tutte le aziende che hanno progettato i propri sistemi IT seguendo una logica orientata all’architettura Soa e ai Web services sono nelle condizioni di poter rendere la propria infrastruttura sempre più flessibile e lavorare nell’ottica di creazione di un private Cloud iniziale, per spostarsi gradualmente al public Cloud in una fase successiva. Fujitsu ha l’expertise per poter supportare qualsiasi tipo di progetto».

Torniamo sul tema della gradualità con Gonzales, di HP, che esorta ad adottare metriche precise. «Il percorso evolutivo verso il Cloud deve essere graduale, con risultati intermedi misurabili, focalizzato sull’evoluzione delle tecnologie abilitanti, la standardizzazione dei servizi e delle tecnologie, e la trasformazione dei processi operativi. È indispensabile sperimentare su casi d’uso reali e specifici, per allineare l’evoluzione di organizzazione, processi, servizi, tecnologie e non rischiare di vanificare gli investimenti. I servizi di HP, tra cui il Cloud Discovery Workshop, aiutano i clienti a disegnare e sviluppare la propria roadmap evolutiva, considerando tutti questi aspetti». E il suo competitor Richelli, di IBM Italia, invita a non trascurare gli aspetti «amministrativi e gli altri fattori “collaterali” come la gestione del personale (il Cloud porta evidentemente variazioni organizzative nei dipartimenti IT), oppure il know how dei system administrator. Di fatto, una volta che le applicazioni sono pronte per essere portate in un ambiente Cloud, sarà necessario adottare tecnologie di virtualizzazione e di strumenti di monitoring, amministrazione e provisioning che permettano di gestire la nuova infrastruttura».

E Lo Turco, di Quest Software, interpreta la gradualità dei percorsi suggerendo che se «l’obiettivo a cui tendere è una “Infrastructure-as-a-Service” flessibile, robusta e scalabile, una parte dai dati, quelli più strategici o confidenziali e dell’infrastruttura rimane “on premise”; una parte viene portata on the Cloud. A questo scopo è necessario dotarsi di strumenti di Cloud automation semplici, rapidi ed error-free che consentano di automatizzare la transizione verso il Cloud e gestiscano il delivery e la reclamation dell’intera infrastruttura mantenendone allo stesso tempo il completo controllo.

Attraverso Venturelli, Microsoft entra in maggior dettaglio sulle tappe di un possibile percorso di cloudizzazione. Si può partire dal «consolidamento infrastrutturale attraverso la virtualizzazione con prodotti come Windows Server Hyper-V 2008 R2. Da un lato, è fondamentale dotarsi di una piattaforma di gestione che abbraccia tutti gli ambienti virtualizzati e, dall’altro lato, serve un processo che aiuti l’azienda a creare la cultura del servizio che porta al private Cloud».

Ancora più specifico è il messaggio di Samsung. «Le tecnologie da adottare in ambito di Cloud computing ormai sono molteplici: dalla mera virtualizzazione dei server arrivando all’affascinante concetto della virtualizzazione delle postazioni di lavoro – spiega Levratto -. In questo senso, Samsung propone, al posto del Pc tradizionale, una soluzione monitor Lcd Zero Client, un “all-in-one” plug and play, con solo una scheda di virtualizzazione on-board che instrada l’utente verso la sua macchina virtuale risiedente su un server remoto virtuale, attraverso il protocollo di comunicazione ”Pc over IP”. I vantaggi di tale tecnologia sono molteplici: nessun sistema operativo; memoria, processore e dati non risiedono a bordo della macchina, tutto è allocato remotamente, compreso le applicazioni (on-demand) a cui l’utente ha accesso. Anche i livelli di consumo energetico della soluzione Samsung Zero Client sono nettamente inferiori rispetto a quelli di un Pc e monitor tradizionali, con un ulteriore riduzione del Tco».

E infine anche in questo caso appare controcorrente il parere di Seeweb. «Il Cloud computing, per definizione, deve azzerare le componenti Capex. Se ciò non avviene siamo al cospetto di qualcosa di diverso che si fregia di una definizione che, probabilmente, non gli spetta. Diverso è il discorso connesso ai fenomeni di “lock-in” legati a un percorso di implementazione del paradigma Cloud a supporto delle esigenze infrastrutturali delle aziende. L’assenza di “lock-in” di una soluzione Cloud diventa uno degli elementi sostanzialmente qualificanti dell’offerta stessa», conclude Baldassarra.

Leggi anche:  Wattsdat sceglie Retelit per la gestione in Multicloud dei servizi della piattaforma Digital Energy

 

Il modello federativo esercita una forte attrattiva, specie per chi deve rispondere a picchi di richiesta occasionali. Le priorità sono la standardizzazione, la riservatezza, la sicurezza, la contrattualistica, la responsabilità giuridica dell’infrastruttura virtuale. È possibile gestire con successo tutti questi aspetti?

 

Corrado Rebecchi, di Accenture, risponde positivamente a tale quesito, invitando a cercare conferme nella «straordinaria trasformazione che il settore delle TLC ha compiuto negli ultimi decenni introducendo la tecnologia IP e la condivisione dinamica delle proprie reti. Lo stesso traguardo è oggi alla portata del Cloud, attraverso l’estensione dei benefici della “virtualizzazione” a tutte le dimensioni dell’ICT».

Ma l’intero panel di Data Manager concorda sulle possibilità di fornire soluzioni adeguate anche a questa problematica. «Negli aspetti di standardizzazione e contrattualistica, gli strumenti di gestione dei livelli di servizio (Service level agreement) non sono solamente adottati dal fornitore per avere una completa contabilizzazione dei servizi erogati, ma anche dagli stessi utilizzatori, che in tal modo possono ridurre possibili rischi legati all’esternalizzazione», ricorda per esempio Molteni, di CA Technologies. Bruschi, di BT, sottolinea la forte focalizzazione della sua azienda sulla «confidenzialità dei dati aziendali, privacy e integrità dei servizi e dei dati», ribadendo che anche la continuità e gli Sla dei servizi federativi sono addirittura «superiori a quelle ottenibili con soluzioni tradizionali».

Secondo Battimiello, di VCE, non ci sono veri e propri ostacoli strutturali o logistici, «nemmeno riguardo ad aspetti come riservatezza e sicurezza. EMC ha una proposition molto estesa in tale campo, ed è in grado di affrontare tutte queste problematiche offrendo le soluzioni tecnologiche e la capacità di visione necessarie».

Più specifico, Denis Nalon, di Fujitsu Technology Solution, ricorda che nel caso di servizi gestiti privati si dovrebbe poter disporre di un data center dedicato affinché si possa sempre avere il controllo su processi, responsabilità e modalità di gestione delle informazioni, mentre nel contesto di Cloud pubblica «per il fornitore di servizi intervengono ulteriori requisiti legati alla sicurezza». Tutto questo implicherà una forte selezione naturale: «solo alcuni player raggiungeranno economie di scala tali da poter effettivamente fornire in maniera efficiente ed economicamente sostenibile i servizi in questa modalità».

Per Marco Frigerio, di DataCore, un fornitore di storage può intervenire in termini di capacità di replicare e sincronizzare i dati in un eventuale data center esterno, magari in outsourcing, creando un’infrastruttura in grado «di sostituire il data center principale in caso di fermo macchine, oppure di affiancarlo in caso di richieste di calcolo elevate», mentre Roberto Salucci, di HDS, consiglia di approcciare le problematiche di un’architettura Cloud mista con la mentalità del servizio, non della tecnologia, definendo accuratamente a livello contrattuale con le aziende terze i livelli di servizio richiesti, dettagliandone le specifiche.

Lorenzo Gonzales, di HP, concorda con questo invito, aggiungendo però che «i clienti devono comunque dotarsi di strumenti per l’automazione e il controllo dei servizi e del rispetto dei livelli previsti, come Cloud Service Automation o HP Cloud Assure. La corretta gestione della sicurezza, il controllo del ciclo di vita del servizio e il service management end-to-end sono risorse insostituibili». Del resto «standardizzazione, sicurezza, auditing sono certamente fra gli aspetti più critici e, tutto sommato, anche quelli più “immaturi”». Non a caso la maggior parte delle imprese sta pensando, almeno in una fase iniziale, solo a “nuvole private”. In un futuro non remoto i forti investimenti dei provider su questi aspetti più critici porteranno sicuramente a soluzioni soddisfacenti», conclude invece Richelli, di IBM.

Tra chi investe di più, osserva Luca Venturelli, c’è Microsoft che può vantare numerosi casi di clienti pienamente soddisfatti. «Certamente il tema della regolamentazione non deve essere risolto e gestito solo dai player, bensì anche dalle istituzioni che, sempre più, devono essere coinvolte per fornire delle risposte certe», afferma il responsabile della divisione Server, tools e Cloud.

Anche Lo Turco, di Quest Software, riconosce la concretezza dei rischi di compromissione dei dati, ma sottolinea come sia possibile mitigarli ponendo «molta attenzione nella scelta dell’operatore al quale affidare i dati e valutando attentamente le condizioni contrattuali che regolano il trattamento dei dati e le relative notifiche in caso di perdita di informazioni o di accesso non autorizzato ai dati affidati in custodia».

C’è poi chi addirittura vede nel Cloud un potenziale intrinseco di sicurezza o comunque di tracciabilità. «Trasformare l’infrastruttura IT in una Cloud privata ed effettuare la sua federazione on demand su Cloud pubbliche per poterla distribuire come servizio facilmente accessibile è un approccio che riscuote un significativo interesse perché consente di sfruttare l’efficienza e l’agilità del Cloud computing senza compromettere la sicurezza, la conformità e il controllo», sostiene per esempio Regazzoni, di VMware. Mentre Baldassarra, di Seeweb, pur riconoscendo che gli aspetti legati alla strandardizzazione dei formati delle macchine virtuali sono ancora argomento aperto, fa riferimento all’offerta di tools «capaci di offrire una grande interoperabilità tra i mondi: “physical to Cloud”, “Cloud to Cloud” e “Cloud to virtual”. In relazione agli aspetti di sicurezza e compliance normativa, mi riesce difficile ipotizzare scenari che non siano replicabili, quando non addirittura migliorabili, con un approccio di tipo Cloud». E lo stesso Levratto, di Samsung, mette in evidenza la possibilità di trasformare i data center in infrastrutture di Cloud computing, abilitando l’erogazione di servizi “on-demand”, che siano affidabili e flessibili, con una maggiore garanzia a livello di sicurezza. «Oggi è quindi possibile realizzare una infrastruttura virtuale solida e protetta, garantendo la continuità aziendale anche in presenza di guasti hardware o di indisponibilità del data center, e fornendo servizi di sicurezza localizzati su server remoti e virtuali». Così facendo, la macchina virtuale cui accede l’utente ha un livello di sicurezza molto elevato, con benefici in termini di efficienza operativa e una rete aziendale più tutelata dal rischio malware.