Processori (e non solo) per la nuvola

Consulente tecnico di una iniziativa di standardizzazione dei data center. “Costruttore” di cloud computing. Fautore di una nuova centralità dei client. Al Cern di Ginevra Intel delinea la sua visione infrastrutturale per i prossimi cinque anni

Per annunciare la sua visione sul cloud computing, sull’evoluzione dei data center aziendali e sul ruolo che in questo contesto il personal computer dovrà continuare a rivestire, Intel ha scelto ancora una volta la cornice del Cern di Ginevra, dove i concetti di calcolo ad alte prestazioni e grid computing sono il vero fondamento di una ricerca che punta a squarciare il velo di mistero sulle origini della materia e dell’universo.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Da molto tempo Intel collabora con il Cern attraverso l’esclusiva struttura dell’Open Lab, un laboratorio di sperimentazione e validazione delle tecnologie dove ha luogo un prezioso scambio di idee e competenze tra la comunità mondiale dei fisici e l’industria dell’Itc, che dall’Open Lab trae importanti indicazioni sulle frontiere più avanzate del calcolo e le traduce in una effettiva ricaduta per la sua clientela tradizionale.

All’interno del famoso “Globe”, la costruzione sferica realizzata interamente in legno dove il Cern allestisce esibizioni e eventi formativi e divulgativi, è stata annunciata la Open Data Center Alliance, un consorzio creato da grandissimi utilizzatori di infrastrutture informatiche, dalla Bmw a Deutsche Bank, da Lockheed Martin a Shell. «Nomi che insieme rappresentano 50 miliardi di investimenti annui in informatica», ha precisato Boyd Davis, general manager del marketing per il Data Center Group di Intel, protagonista della giornata ginevrina insieme a Rick Echevarria, che nell’Architecture Group di Intel è general manager della divisione Business Client Platform.

In Open Data Center Alliance, che riunisce già una settantina di grandi aziende, Intel ha avuto un ruolo di consigliere. Come ha spiegato a Data Manager Alan Priestley, responsabile del marketing strategico nel Digital Enterprise Group del quartier generale europeo Intel a Monaco, «la nostra è stata una funzione facilitatrice, il frutto di tanti anni di relazioni con tutte queste aziende, le abbiamo aiutate a parlarsi, a definire i punti comuni di discussione».

Leggi anche:  Come gestire la complessità, il controllo e la sovranità dei dati nel cloud

Qual è dunque l’obiettivo di questa alleanza per il data center del futuro? In un contesto che per il momento appare focalizzato sulle architetture di private cloud, Open Data Center punta a standardizzare una serie di linee guida per definire i requisiti hardware e software che saranno alla base di soluzioni di cloud computing e data center più aperte e interoperabili.

L’obiettivo dell’interoperabilità, sottolinea ancora Boyd Davis, è pienamente in linea con la filosofia che riassume la Cloud 2015 Vision. «Una visione che si può riassumere nei tre concetti della federazione, della automazione e della “awareness” o intelligenza dei client». Federazione perché nella nuvola del prossimo futuro dovrà essere possibile trasferire dati e applicazioni in modo perfettamente sicuro tra infrastrutture interne ed esterne. Automazione perché questa flessibilità dovrà avvenire con un minimo impegno di risorse e in tempi estremamente rapidi. Awareness perché i dispositivi client, Pc desktop, notebook, tablet, smartphone, nella loro crescente diversificazione dovranno partecipare direttamente ai nuovi modelli di informatica, mettendo sul piatto tutta la loro intelligenza.

Il messaggio di Intel a chi credeva che la centralità della nuvola potesse relegare i client, i terminali utente, a un ruolo subalterno è molto preciso: il cloud computing non si esaurisce nei server e nella loro virtualizzazione, anche la spinta verso la virtualizzazione del desktop, delle scrivanie di lavoro, poggia – e lo farà in misura crescente – su client ancora più potenti, su processori ottimizzati per le funzionalità di management avanzati come quelle della piattaforma Intel Vpro, su terminali capaci, al contrario, di alleggerire un peso elaborativo che non può pesare solo sui data center. In questo senso l’azione di Intel è sempre più “a tenaglia”: all’annuncio dell’ultimo processore Xeon 5600 a sei core, Santa Clara risponde sul versante client con la nuova architettura a 32 nm “Sandy Bridge”.

Leggi anche:  Nove aziende europee su dieci ritengono fondamentali le competenze FinOps nella corsa all'innovazione cloud

«Il nostro modo di vedere la nuvola – precisa ancora Davis a Data Manager – non va confuso con il progetto della Open Data Center Alliance, anche se Intel condivide in pieno l’idea di una nuvola basata su linee guida aperte, non proprietarie, e lavorerà per assicurare, con i suoi partner, i prodotti e le soluzioni compatibili con tali aspettative».

Illustrando le attività dell’Alliance nelle sue prime settimane di vita, Mario Müller, vicepresidente alle infrastrutture It del gruppo automobilistico Bmw (una architettura ripartita in nove data center diversi, con 3.300 server, mille server ad alte prestazioni Hpc e mille server virtuali), ha precisato che la nuova iniziativa – articolata in gruppi di lavoro focalizzati su servizi, gestione, aspetti infrastrutturali, sicurezza e governo/ecosistema – intende definire una roadmap che consenta la realizzazione di soluzioni di cloud computing e data center in grado di affrontare le sfide del futuro, supportando uno sviluppo basato su modalità aperte, indipendenti dai vendor e basate su standard industriali. Le aziende che partecipano a questo lavoro avranno a disposizione, a partire dal primo quadrimestre 2011, quando è prevista l’uscita della versione 1.0 della “roadmap”, una serie di “usage models” selezionati dai decine di casi reali. Le linee guida sviluppate faranno da quadro di riferimento, orientando le grandi aziende nei loro investimenti in soluzioni hardware e software per il cloud.

Che cosa succederà tra 5 anni, Mr. Davis, perché Cloud Vision 2015? «La rete di domani è già iniziata. Basta pensare che se nel 2009 l’ammontare del flusso informativo su Internet è stato di 150 exabytes, si prevedono 175 exabytes per il 2010 [un exabyte equivale a un milione di terabyte, ndr]. Tra 5 anni ci saranno un miliardo di utenti Internet in più, avremo qualcosa come 15 miliardi di dispositivi connessi e il traffico sarà di mille exabyte. I progressi che abbiamo fatto con le nostre reti sono tanti, ma ancora non basta. L’inevitabile spinta verso le cloud pubbliche che caratterizzerà il futuro richiede molta sicurezza in più, i consumi devono diminuire e la gestione degli ambienti informatici virtuali necessita di infrastrutture ancora più intelligenti».

Leggi anche:  Il ruolo cruciale dei cloud sovrani nell’equilibrio tra innovazione e sicurezza dei dati nell’economia digitale

Nel mondo reale, però, accanto alle grandissime infrastrutture e alle loro comprensibili priorità in termini di efficienza e ottimizzazione, troviamo anche il fabbisogno tecnologico di milioni di imprese piccole e medie. Non possiamo pensare che queste entrino a far parte della Open Data Center Alliance, che si focalizzino sulle problematiche della “nuvola privata”. «Assolutamente, Intel ha molto ben presenti le necessità delle aziende di dimensioni normali – afferma Davis -. Siamo convinti che la risposta ottimale, nel loro caso, sia un approccio ibrido, la possibilità di dosare di volta in volta servizi di cloud pubblica innestandoli sulla propria rete». L’impegno di Intel come fautore di una forte accelerazione nell’adozione del cloud computing a ogni livello è fatto anche di iniziative come la Intel Hybrid Cloud Program, «un progetto pilota, per ora disponibile solo negli Stati Uniti e in India, che coinvolge i rivenditori di servizi gestiti».

Nel corso dell’evento organizzato al Cern, Boyd Davis si è però soffermato sulla nuova iniziativa Intel Cloud Builders, un piano d’azione che intende gettare le basi per l’avverarsi di Cloud 2015 attraverso soluzioni concrete. «Se l’Alleanza punta a definire i requisiti infrastrutturali della nuvola, Cloud Builders cercherà di dare concretezza a questi requisiti. Già oggi, conclude Davis, il programma comprende 20 architetture di virtualizzazione di riferimento basate sulle tecnologie di fornitori come Cisco, Citrix, EMC, Eucalyptus Systems, HP, IBM, Microsoft, NetApp, Novell, Red Hat, VMware, e molti altri ne seguiranno». Il portale Internet Cloud Builders fungerà da manuale operativo per l’implementazione di soluzioni di cloud computing tagliate su misura delle singole esigenze aziendali.