CONNETTERE LE NUVOLE


Le reti al supporto del Cloud. Una solida ed efficiente infrastruttura di rete è una base irrinunciabile per garantire l’erogazione di servizi in Cloud ad alta qualità

Uno dei temi più trattati in questi ultimi mesi nell’ambito delle tecnologie ICT è quello del Cloud computing, in modo particolare per le sue promesse di efficienza ed efficacia, tanto interessanti in questo momento di grande attenzione ai costi. C’è molto movimento in merito, per esempio ha fatto notizia l’annuncio di poco tempo fa di Telecom Italia del lancio del progetto della Nuvola Italiana ovvero della piattaforma evoluta di Cloud computing mirata in particolare a imprese e Pubblica Amministrazione, in un modello di servizio a supporto di una maggiore competitività in termini di costi, innovazione e sostenibilità. Le tecniche di virtualizzazione e di consolidamento, proprie delle architetture Cloud, sarebbero però confinate in poche realtà intranet se nel frattempo non fosse in atto quell’evoluzione sulla rete cui assistiamo, sia nell’accesso – con la disponibilità sempre più ampia di banda larga – sia nel core, con le “autostrade” sviluppate grazie alle componenti ottiche. Il tutto integrato e standardizzato dal protocollo IP, ormai pervasivo.

Per comprendere meglio questo scenario abbiamo allora intervistato alcuni fornitori del mercato, leggiamo di seguito le loro risposte.

 

1.Quali sono le regole base per progettare e sviluppare al meglio un’infrastruttura di rete focalizzata ad architetture di Cloud computing?

Per Enrico Campagna, direttore marketing di BT Italia (www.italia.bt.com), la regola base è quella di affidarsi a un partner che preveda un approccio end-to-end, dal server alla rete, dal supporto al management centralizzato, il tutto tarato su misura in base alle esigenze del cliente. «Sono da evitarsi i rischi connessi all’adozione di un’infrastruttura costruita tramite i servizi di diversi fornitori – ci dice – e di cui non si conosce esattamente l’allocazione delle risorse o del personale di supporto, così da ottemperare alle garanzie di riservatezza, continuità e qualità del servizio. Le soluzioni proposte da BT, per esempio, consentono al cliente di sapere in ogni momento dove si trovano i propri dati, la qualità delle infrastrutture che li proteggono o quali server li elaborano. Inoltre è fondamentale che i servizi vengano erogati tramite una rete di proprietà, che permette non solo di garantire un servizio end-to-end senza ricorrere a terze parti, ma anche di ritagliarlo su misura per quanto concerne capacità, prestazioni e sicurezza».

Secondo Laura Pegorini, technology marketing manager Data Center MED di Cisco (www.cisco.com/it), la rete è un elemento fondante del Cloud computing e fornisce quell’intelligente connettività all’interno e oltre il data center. «È la rete che vede tutti i dati, le risorse interconnesse e le interazioni sulla rete Internet – sostiene – così come nell’ambito Cloud e fra diversi Cloud. La rete ha anche un ruolo attivo nella resilienza e affidabilità, rappresentando di fatto la piattaforma critica per servizi Cloud avanzati. Per condividere le nostre idee sulle regole e per tracciare insieme alle aziende Italiane le basi di approccio al Cloud, Cisco sta collaborando, per esempio, con il Politecnico di Milano, e in particolare al loro Osservatorio Cloud 2010, per condividere con le aziende, di tutte le dimensioni, come trarre reale vantaggio dall’opportunità Cloud e, ancora più importante, come declinare questa opportunità alle specificità individuali».

Il pensiero di Andrea Nava, direttore tecnico Central e Southern Europe di Compuware (http://it.compuware.com), è che le moderne applicazioni Web-based possano utilizzare un mix di elementi forniti da provider esterni. «Le performance dipendono strettamente da quelle dei service provider di ogni singola componente. Dal punto di vista dei clienti è critico poter definire Sla certi per ogni provider», specifica.

George Teixeira, presidente e Ceo di DataCore Software (www.datacore.com), afferma che la base per la realizzazione di un’infrastruttura Cloud è “software”, (in modo specifico la virtualizzazione) e la sua capacità di offrire la più grande flessibilità per risolvere le dinamiche attuali e le future. «Chi costruisce Cloud – aggiunge – pensa a una soluzione software agile e indipendente dall’hardware, e quindi VMware, Microsoft Hyper-V e Cisco sono diventate la norma nei progetti Cloud, perché permettono scelte aperte sul mercato hardware. Lo storage dei dati – che ospitando i dati critici, le applicazioni e le virtual machine che supportano i servizi Cloud richiede la più elevata disponibilità possibile e che a causa dell’esplosione dei dati è l’elemento destinato a crescere maggiormente – viene ancora selezionato alla “vecchia maniera”, come se fosse una scatola hardware, senza preoccuparsi del suo inserimento nel layer software di virtualizzazione».

«Attualmente stiamo assistendo al delinearsi di due approcci principali: Cloud pubbliche e Cloud private – ci risponde Christophe Verdenne, MD, Southern Region di Easynet (www.easynet.com/it/it) -, la prima tendenza, sposata da Google e Amazon, fornisce servizi IT on-demand tramite Internet e ciò significa che gli utenti finali possono beneficiare di un accesso davvero universale a dati e applicazioni, anche se le prestazioni migliori si hanno con connessioni Internet veloci. La seconda tendenza, invece, si basa sulla virtualizzazione da parte delle aziende dei propri sistemi storage e dei propri server, per creare una “nuvola” sicura all’interno del firewall aziendale. Quest’approccio promette migliori prestazioni e maggiore sicurezza, anche se a costo di maggiore complessità per l’IT aziendale. Le problematiche principali che frenano l’adozione del Cloud sono da un lato sicurezza, disponibilità e flessibilità, dall’altro la complessità di gestione».

Per Gianluca De Risi, technical manager South Italy di Enterasys Networks (www.enterasys.com), i servizi di networking, di sicurezza e Cloud devono essere realizzati in tempi rapidissimi e quindi devono prevedere meccanismi di flessibilità che consentano di connetterli ai servizi di virtualizzazione dei server. «La configurazione della rete, dei profili di sicurezza e della componente di networking dei server – evidenzia – deve essere un processo unificato e non deve avere impatti sulla gestione delle risorse delle infrastrutture. Essenziali nel disegno di un’infrastruttura di rete per il Cloud computing sono anche l’automazione e l’autoprovisioning, funzionalità garantite dalla piattaforma Data Center Manager di Enterasys».

«La richiesta di servizi di Cloud computing cresce a ritmi sostenuti e i manager dovrebbero essere consapevoli delle sfide e delle opportunità che tale scenario comporta per il settore IT – asserisce Mario Guarnone, business program manager, Fujitsu Technology Solutions (http://it.fujitsu.com) -. Aziende di ogni dimensione hanno già iniziato a spostare database e attività informatiche all’interno del Cloud, ma se è vero che una società può condurre con facilità il trasferimento nel Cloud di una o due funzioni, è altrettanto vero che lo scenario cambia completamente nel momento in cui questo passaggio avviene anche per le applicazioni e i database proprietari delle aree finanza, affari legali, engineering e marketing. Il successo risiede quindi nella selezione del vendor di servizi gestiti più idoneo per questo genere di transizione».

Lorenzo Gonzales, business consultant HP Technology Services di Hewlett-Packard Italiana (www.hp.com/italy), premesso che il presupposto del Cloud è la rete, mezzo per raggiungere, utilizzare, erogare i servizi, pondera che per progettare un’infrastruttura basata su queste architetture, occorra partire da un’analisi dei servizi che saranno erogati, definendone obiettivi e condizioni d’utilizzo. «Possiamo considerare l’uso del Cloud sulla base di tre elementi – continua -. Il primo riguarda l’armonizzazione di servizi ibridi tra Cloud privato, pubblico e servizi tradizionali: in base a questa composizione, è possibile decidere la modalità di funzionamento delle reti nei data center, mantenendo adeguati livelli di servizio, sicurezza e prestazioni. Il secondo riguarda il private Cloud e la capacità di trasportare interi servizi tra sistemi e persino tra data center, in modalità totalmente automatiche. Infine per l’uso di servizi public Cloud da parte degli utenti finali, si dovranno considerare la sicurezza, l’uso in mobilità, l’indipendenza dalla rete fisica, l’adeguamento delle reti di palazzo ai carichi e alle latenze richieste».

Leggi anche:  Nutanix, il futuro del multi cloud tra governance dei dati e maggiore integrazione

L’opinione di Gennaro Panagia, direttore vendite servizi per le infrastrutture, IBM Italia (www.ibm.com/it/it), è che i diversi modelli di Cloud computing – privati, pubblici o ibridi – abbiano tutti in comune la necessità di una precisa strategia di networking a garanzia della disponibilità dei servizi, delle prestazioni complessive, della sicurezza e dei livelli di servizio. «La diversa collocazione delle applicazioni e delle infrastrutture rispetto agli utilizzatori finali – riflette – ripropone poi il tema della latenza, ovvero della distanza tra i dati e le applicazioni e tra le applicazioni e gli utenti del servizio. Con il Cloud si devono valutare in modo diverso i carichi di lavoro, anche della rete, in virtù della tipologia dei flussi dei dati e della variabilità dei luoghi in cui essi sono elaborati e trasmessi. Si pensi infatti alla disponibilità di server aggiuntivi, dislocati nella “nuvola” per far fronte a un picco elaborativo nell’arco della giornata o all’allocazione temporanea di storage per specifici progetti o per il batch notturno. Se aggiungiamo che la scalabilità di un sistema Cloud è di grado notevolmente più elevato rispetto al modello tradizionale, ne deriva la necessità di una rete che non deve limitarsi a trasportare in modo veloce, affidabile e sicuro i dati tra punti diversi, ma deve soprattutto essere progettata in modo da adattarsi alla dinamicità e alla variabilità delle risorse, modificandosi ed estendendosi nel contesto complessivo della nuvola in modo completamente trasparente per gli utenti finali. È ipotizzabile infine che anche la rete, attraverso la quale si erogano i servizi Cloud, debba avere le caratteristiche di variabilità dei costi in funzione del suo reale utilizzo. IBM nella progettazione e realizzazione dei sistemi Cloud (sia pubblici che privati) considera tutti quei parametri essenziali, derivanti dalla conoscenza delle tecnologie e delle applicazioni, unitamente alle metodologie di automazione, per disegnare una rete funzionale a tutti i componenti del sistema Cloud».

Conclude questo primo giro di domande Pier Paolo Lanati, country manager di Ipanema Technologies (www.ipanematech.com). «Solo oggi si inizia a percepire il reale valore aggiunto di un’infrastruttura Cloud, sia essa di networking e/o di software – ci dice – risulta perciò prematuro sostenere che esistano regole definite da seguire per un progetto di migrazione dell’ambiente ICT aziendale in tal senso. È invece ragionevole pensare di andare in modalità Cloud per fasi successive, iniziando con aree di test, disaster recovery ed eventuali nuovi ambienti, orientandosi verso tecnologie legacy, mantenendo ancora nel data center software e hardware proprietari, in quanto l’architettura Cloud consente l’attivazione di un numero graduale e crescente di virtualizzazione controllabile tramite Web Services».

 

2.Quali le azioni per garantire l’erogazione di servizi in Cloud ad alta qualità?

Enrico Campagna (BT Italia) pensa che il modello architetturale e gli strumenti di gestione per costruire la base infrastrutturale di rete necessaria per erogare servizi in Cloud di alto livello si basi su reti Mpls, Ethernet e sistemi d’accesso sui quali a loro volta sono disponibili servizi di Application Assured Infrastructure & Wan optimization, oltre che di Virtual Data Center (VDC), supportati da un set di servizi professionali di assessment e ottimizzazione. «Per BT elemento chiave della proposta di servizi infrastrutturali è il VDC – specifica – una piattaforma ideata per il Cloud enterprise che permette di disporre rapidamente di server virtuali con una modalità on demand. Con BT VDC si è, in sostanza, in grado di attivare rapidamente l’infrastruttura necessaria per lanciare nuovi servizi e soprattutto farlo con un investimento graduale e correlato al business via via generato».

Interviene su questo punto anche Fabrizio Tittarelli, chief technology officer di CA Technologies Italia (www.ca.com/it), affermando che una maggiore elasticità infrastrutturale e applicativa, la riduzione del time-to-market nella messa in produzione di nuovi servizi di business e la razionalizzazione degli ambienti IT attraverso un processo di riduzione delle spese di capitale e operative, siano solo alcuni dei fattori che oggi spingono molte aziende verso il Cloud computing. «La possibilità di rivolgersi a servizi esterni porterà sempre più all’adozione di modelli ibridi – prosegue il suo pensiero -, dove alcuni servizi sono forniti da provider esterni all’azienda (tramite public Cloud) e altri erogati internamente dall’IT aziendale (private Cloud). Un percorso possibile al Cloud passa innanzitutto attraverso la chiara definizione di cosa e come si vuole erogare in tale modalità: la scelta del modello di deployment e del modello di servizio. Tale scelta si muove attraverso la definizione di vari criteri, è realistico prevedere che le grandi aziende opteranno per Cloud private perché hanno effettuato investimenti significativi nelle loro infrastrutture, preferiscono che i dati sensibili siano entro il firewall aziendale, devono ridurre il time-to-market della messa in produzione di nuovi applicativi di business e vogliono raggiungere una determinata agilità nello sviluppo delle applicazioni. Concentrandoci su ambienti Cloud interni (private), il passaggio sarà incrementale, al fine di minimizzare i rischi, preservare gli investimenti fatti e gestire l’eterogeneità tecnologica e culturale esistente. Altre aziende invece opteranno per un passaggio più dirompente, attraverso l’adozione di tecnologie innovative che promettano di ridurre significativamente il percorso per erogare servizi Cloud di alta qualità. Nel primo caso si dovrà procedere a una massimizzazione dell’adozione di soluzioni di virtualizzazione dei sistemi operativi e di automazione, abilitando l’orchestrazione dei processi che governano data center sempre più evoluti. Nel secondo caso, estendendo il concetto della virtualizzazione dai sistemi operativi all’intera infrastruttura IT che deve supportare le applicazioni di business, è possibile realizzare rapidamente un ambiente Cloud, indipendentemente dal modello di servizio e di deployment che si vuole adottare».

Per Laura Pegorini (Cisco) le aziende che vogliono iniziare un percorso verso il Cloud probabilmente inizieranno con progetti interni. «Utilizzeranno la virtualizzazione per consolidare e automatizzare – chiarisce – e in questo scenario si collocano un paio di innovazioni chiave in ambito data center che Cisco ha portato sul mercato già da qualche anno: Unified Fabric, standard riconosciuto e accettato da organismi super-partes internazionali quali Ieee, dove la rete del data center diviene unica e unifica tutti gli standard di interconnessione fra le varie risorse specializzate. E lo Unified Computing, un server x86 blade (o rack) che sta cambiando l’industria. Una soluzione pensata per il Cloud computing che integra tutte le risorse sia computazionali, sia di rete, di virtualizzazione e di management in un unico stack pre-testato e pronto all’uso, a sostegno dell’obiettivo di riduzione del rischio nel rispetto della qualità e soprattutto dei tempi di realizzazione. La promessa del Cloud è infatti parte integrante dell’architettura e del design delle soluzioni Cisco per i data center del futuro».

Leggi anche:  OVHcloud Connect si evolve per supportare strategie ibride e multi-cloud

Andrea Nava (Compuware) pensa che l’elemento chiave dal lato utente finale per garantire una corretta gestione dei servizi sia il monitoring della disponibilità e delle performance di tutta la catena di erogazione. «Esso consente di definire Sla ed effettuare analisi per identificare i punti di miglioramento», precisa.

Prendendo spunto da una recente indagine di Gartner in cui è emerso che la continuità operativa è elemento cardine, George Teixeira (DataCore Software) pensa che il reale tema di interesse non sia tanto la virtualizzazione, ma le risposte ad alcune domande chiave. «Come continuare a erogare servizi senza interruzioni? Quanto sono valide le nostre soluzioni di continuità operativa e di elevata disponibilità? Il mio storage condiviso è in grado di supportarle? – ci elenca – lo storage è diventato uno dei maggiori fattori di costo quando si parla di progettazione della Cloud: tipicamente ha un peso che va da uno a due terzi del costo hardware complessivo. E questa quota continua a crescere. Con la crescita della Cloud, un maggior numero di server e di macchine virtuali aumenta la pressione sulle prestazioni e prefigura scenari preoccupanti in merito all’affidabilità. Il ruolo guida della virtualizzazione dello storage sta finalmente emergendo, soprattutto per la sua importanza nella protezione dei dati e delle virtual machine per la continuità operativa. L’esperienza di DataCore sta nella sua capacità di progettare infrastrutture a elevata disponibilità e il suo software per la virtualizzazione dello storage è in grado di assicurare ai produttori delle Cloud i livelli più elevati di tempo di corretto funzionamento».

Per Christophe Verdenne (Easynet) la risposta sta in quello che chiama “Cloud enterprise”. «In questo approccio – spiega – l’infrastruttura IT e il networking sono gestite da un provider di rete specializzato in grado di assumersi la responsabilità sia della disponibilità delle applicazioni, sia delle prestazioni della rete. L’infrastruttura è effettivamente in outsourcing, anche se i dati rimangono all’interno del firewall aziendale: in tal modo le spese generali di gestione e i rischi per la sicurezza sono ridotti al minimo».

Secondo Gianluca De Risi (Enterasys Networks) la prima azione da compiere è l’analisi delle infrastrutture e dei servizi in uso per individuare le aree di ottimizzazione. «Il passo successivo – approfondisce il suo pensiero – è la migrazione verso più moderne piattaforme tecnologiche. Tali evoluzioni devono apportare vantaggi in molteplici aree: prestazioni più elevate, mantenendo un livello di complessità basso; consumi energetici e spazi fisici ridotti o tenuti costanti; tempi di erogazione dei servizi abbreviati; procedure di gestione delle risorse del data center semplificate e automatizzate».

Mario Guarnone (Fujitsu Technology Solutions) ritiene che i servizi gestiti privati dovrebbero disporre di un data center dedicato. «In modo che si possa sempre sapere chi è il proprio referente e dove sono archiviate le informazioni – sottolinea -, avendo al contempo la certezza di rispettare le normative governative e quelle sulla sicurezza. Ci sono alcuni aspetti fondamentali legati alla sicurezza che vanno considerati, come la puntuale verifica della policy del vendor rispetto all’accesso e alla sicurezza dei dati, della previsione o meno di regolari audit sulla sicurezza o della perfetta conoscenza della persona che all’interno della struttura scelta controllerà e avrà accesso ai dati e chi è legalmente responsabile».

«Quando parliamo di private Cloud, la prima azione è semplificare e virtualizzare le reti attraverso la riduzione delle complessità della componente fisica, unificandone e automatizzandone la gestione, e adottando sistemi centralizzati anche per quanto riguarda la sicurezza – afferma Lorenzo Gonzales (HP) -; è inoltre opportuno considerare il servizio erogato in tutte le sue componenti e non singolarmente, in linea con il modello HP Converged Infrastructure. Nell’ottica di integrazione con servizi di public Cloud, occorre inoltre valutare i livelli di servizio e sicurezza offerti dal Cloud provider, anche attraverso l’aggiunta di componenti esterne al data center».

Conclude la tornata Pier Paolo Lanati (Ipanema Technologies) riflettendo sul fatto che le Cloud si stanno orientando verso tre standard, IaaS, PaaS, SaaS. «Per ciascuno di questi è necessario attuare delle azioni mirate per raggiungere e garantire elevati standard di qualità – sostiene – definiti dall’utente tramite il settaggio di una serie di parametri misurabili e verificabili, quali l’interazione ad alta velocità tra le macchine e il software, oltre a un accesso veloce e sicuro via Web. Risulta quindi estremamente importante ottenere da parte del Cloud Service Provider degli Sla efficienti e misurabili in ambito di networking».

 

3.Come conciliare tutto ciò con il “legacy”, ovvero con architetture tradizionali, consentendo interconnessioni efficaci, evitando discontinuità o – peggio – disservizi?

Secondo Enrico Campagna (BT) è fondamentale un accurato assessment preliminare in modo da capire da subito come agire per garantire l’interoperabilità tra gli ambienti legacy e quelli nuovi in Cloud. «Subito dopo – prosegue – occorre introdurre strumenti di monitoraggio e gestione efficaci per garantire un governo puntuale degli ambienti Cloud così come oggi viene garantito con quelli legacy e da ultimo, ma non per questo meno importante, le competenze del personale che ha il compito di controllare e gestire. L’aggiornamento degli addetti in termini di competenze e, in alcuni casi, anche in termini di certificazioni è fondamentale. Per tutto ciò si tratta comunque di fare la solita scelta tra make or buy. Oggi molte aziende decidono per il buy, affidandosi a service provider esperti in modo da avere da subito il giusto mix in termini di tecnologie, competenze e servizi».

«Mentre i clienti concordano sull’opportunità Cloud computing – dichiara Laura Pegorini (Cisco) -, hanno delle riserve basate su costi, sicurezza e compatibilità con l’infrastruttura esistente, ma di fatto possono essere risolte utilizzando un approccio al Cloud computing integrato e unificato fra rete, computing, virtualizzazione e storage. Cisco ha un ruolo centrale nel portare avanti la promessa della nuvola, grazie ai sistemi computazionali di nuova generazione e all’approccio architetturale particolarmente innovativo che proponiamo e che poggia sulla natura network-centrica della Cloud. Inoltre, grazie alle tecnologie di virtualizzazione che consentono di creare pool di risorse condivise, di fatto vengono superati i limiti fisici dei sistemi legacy, assecondando il percorso verso una Cloud efficace».

Andrea Nava ci dice che «Compuware è impegnata da anni nell’Apm (Application performance management), con particolare riguardo alle soluzioni che integrino tutta la catena di erogazione del servizio, dal punto di vista end-user, per diminuire notevolmente discontinuità e disservizi. Per completare il monitoring dei servizi Cloud-based, Compuware ha acquisito Gomez proponendo Vantage ed è la sola azienda che offre oggi una soluzione unica e integrata, dal Cloud computing al data center».

Leggi anche:  Salesforce reinventa Service Cloud per trasformare il servizio clienti anche da remoto

George Teixeira risponde che «realizzare nello storage ciò che i server virtuali hanno fatto rispetto a quelli tradizionali, questo è quello che fa DataCore, che adotta un approccio basato su software che consente di sfruttare al massimo qualunque tipo di storage, di riutilizzare lo storage e i sistemi esistenti e di ridurre i costi operativi e quelli in conto capitale correlati alle tradizionali periferiche di storage e alle San. Tutto questo contiene i costi e permette alla Cloud di essere perfettamente funzionante. La virtualizzazione dello storage di DataCore offre le indispensabili funzioni per l’elevata disponibilità, l’accelerazione delle prestazioni e la longevità del software, permettendo di superare i limiti dell’approccio basato su hardware».

Per Christophe Verdenne (Easynet) le reti aziendali attuali sono strutturate in modo da assorbire parte del traffico di applicazioni e Web e non è previsto che supportino l’enorme volume di traffico che il Cloud computing è in grado di generare. «Il rischio che un maggiore utilizzo della nube abbia impatti sull’operatività aziendale diventa reale, l’approccio di tipo “Cloud enterprise” consente alle organizzazioni di beneficiare di una gestione di rete sofisticata e di classe telco, in grado di garantire un controllo dell’infrastruttura end-to-end e di proteggere porzioni di capacità di rete da dedicare ad applicazioni business-critical, superando le problematiche di disponibilità e sicurezza e garantendo la qualità del servizio».

«Grazie alla tecnologia Enterasys, il percorso di migrazione non presenta problemi – afferma Gianluca De Risi -; le funzionalità di Secure networks sono implementate sulle piattaforme di switching/routing e permettono di realizzare un network in grado di fare l’autoprovisioning dei servizi implementando politiche di sicurezza granulari applicabili ai singoli flussi di traffico. La nuova applicazione Data Center Manager, che fa parte del sistema di gestione NMS di Enterasys e opera con gli apparati Serie N e Serie S, permette di interagire con i virtual switch che si trovano a bordo dei maggiori sistemi di server virtualization, integrando e automatizzando il processo di provisioning con le piattaforme di networking Enterasys».

Per Mario Guarnone (Fujitsu Technology Solutions) uno dei problemi che le aziende hanno avuto per diversi anni nei confronti del software proprietario è che, una volta legatesi a una determinata applicazione o sistema operativo, risulta assai difficile poter cambiare vendor in quanto sarebbe necessario modificare l’intera infrastruttura software. «Un problema analogo potrebbe presentarsi anche con il Cloud provider, laddove la policy di migrazione dei dati risultasse complessa e difficoltosa – continua -, per questo motivo si consiglia di verificare le policy di trasferimento dei vendor affinché in caso di necessità sia possibile cambiare fornitore in maniera rapida e semplice. Allo stesso modo è utile consultare anche la policy di migrazione che la società hosting deve aver predisposto nel caso in cui dovesse fallire».

Secondo Lorenzo Gonzales (HP) la trasformazione delle reti richiede una progressiva evoluzione dei modelli legacy. «Spostandosi da reti articolate in “isole”, dedicate ai singoli progetti – spiega -, verso architetture leggere, semplici, efficienti, che interconnettono servizi, persone e organizzazioni, considerando ovviamente le componenti tecnologiche abilitanti. Molte cose stanno cambiando: nuovi standard aperti consentono significative evoluzioni dai paradigmi attuali; componenti quali i virtual switch in architetture virtualizzate richiedono il ripensamento di aspetti operativi nella gestione dei data center; strumenti di automazione portano rilevanti vantaggi economici e operativi, ripensando gli attuali processi IT. D’altra parte le reti sono elementi pervasivi e indispensabili per l’operatività del business. Passare dal legacy ai nuovi modelli comporta la definizione e l’esecuzione di roadmap attraverso cui singoli progetti, che costituirebbero altrimenti ulteriori “isole”, vengono utilizzati per introdurre gradualmente nuove prassi operative e soluzioni tecnologiche, facilitando l’evoluzione dell’IT a tutto tondo. Questo percorso evolutivo deve essere sostenuto dal raggiungimento di risultati di breve termine. HP propone servizi specifici in quest’ambito, basati su metodologie di comprovato successo e sulla propria esperienza, competenza e capacità in ambito delle reti. Il nostro approccio consente di intendere l’evoluzione della propria rete come un insieme continuo e organizzato di azioni e non come operazioni frammentate dettate dalle specifiche urgenze e necessità».

Infine Pier Paolo Lanati (Ipanema Technologies) pone l’accento sul fatto che, essendo una tecnologia oggi non ancora matura, l’implementazione del Cloud computing debba passare attraverso una attenta e puntuale fase di analisi, progetto e realizzazione, da attuarsi congiuntamente tra cliente e provider. «Oggi ritengo sia preferibile orientarsi verso una Cloud ibrida – mette in evidenza – spostando applicazioni legacy, ambienti di sviluppo, di storage e quindi di disaster recovery, per passare a una successiva fase di migrazione degli ambienti proprietari verso ambienti legacy nella Cloud. Sarà in ogni caso fondamentale per l’utente dotarsi di strumenti di misurazione dei parametri che caratterizzano gli Sla prefissati, così da poter controllare sistematicamente le performance delle applicazioni spostate nel Cloud e attuare le eventuali misure correttive per ottenere l’efficienza desiderata per il network. Questa è proprio l’area specifica in cui i servizi di Ipanema trovano la loro massima applicazione, rispondendo in maniera puntuale alle esigenze di ottimizzazione del network aziendale».

Verso i 150 miliardi di dollari

Alcuni analisti prevedono che il mercato del Cloud computing varrà entro il 2013 la cifra astronomica di 150 miliardi di dollari, sotto la spinta di servizi sempre più pervasivi e affidabili che verranno erogati dalle “nuvole”. Le premesse paiono esserci, chissà allora se non sia il caso di avvalerci di quel proverbio di vecchia saggezza popolare, adoperato per indicare il verificarsi di un evento previsto da tempo, ovvero il tanto tuonò che piovve? Mi pare particolarmente indicato quando si parla di nuvole, no? …meditiamo, Gente, meditiamo!

—————————————————————————————————————————


Quando si parla di Cloud computing e di virtualizzazione di solito si pensa ai data center, ma in realtà entrambi coinvolgono desktop, appliance e rete. Tutto ciò comporta significativi cambiamenti nel modo di progettare e gestire l’infrastruttura di rete. «Il Cloud richiede un nuovo approccio – afferma a questo proposito Paola Pernigotti, direttore marketing Enterprise Group Alcatel-Lucent Italia (www.alcatel-lucent.it) -: si ha bisogno di una rete meno complessa, progettata per essere resiliente, a bassa latenza e su cui sia facile operare. In sostanza, le aziende devono offrire un rilascio di elevata qualità delle applicazioni, in grado di adattarsi all’utente, alla tipologia di applicazione e al dispositivo utilizzato».

Alcatel-Lucent ha presentato il suo approccio “Application Fluent Network”, in occasione del lancio del potente switch Ethernet a 10 Gigabit, OmniSwitch 10K. «Per aumentare la produttività dell’utente finale, un “Application Fluent Network” si caratterizza per i comandi automatici che regolano la distribuzione delle applicazioni in base al profilo utente, regole e contesto – spiega Paola Pernigotti -. Allo stesso modo, “Application Fluent Network” ottimizza le operazioni attraverso un provisioning automatico e un basso consumo energetico».