Il Cloud alla prova delle reti e delle applicazioni

C’è una sorta di condizionamento reciproco tra qualità e performance delle reti e dei servizi su di esse disponibili. Lo scenario ibrido tra public e private Cloud resta il più probabile, mentre si fa strada l’idea di mettere nel Cloud i servizi di comunicazione, aprendo la porta a un più deciso intervento delle telco

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La società digitale, e non solo quella, procede per discontinuità. La relazione, sempre più stringente, tra reti e applicazioni, che sta concorrendo ai record di Wall Street da parte di aziende ben diverse da quelle dell’IT tradizionale (Apple, Google, in previsione Facebook,..) non è nuova, ma ogni tanto segna un cambio di passo. Sono passati 30 anni dalla nascita dell’Ethernet e dalla sua standardizzazione nel gruppo di lavoro IEEE 802.3: il protocollo della rete locale che, novello Re Mida, trasformava i kilobit al secondo nei Megabit. A inventarlo, anche se sono oggi in pochi a ricordarlo, non furono le aziende dei grandi calcolatori, ma la Xerox, con il primo prototipo nel 1974, a 3 Megabit/s. Il motivo era semplice. Per quanto potenti potessero essere, i mainframe di IBM, di Sperry Univac, di Burroughs, alla fine ricevevano e rimandavano le informazioni su uno schermo da 1920 caratteri (80 colonne per 24 righe), o su delle stampanti limitate dalla loro velocità fisica. Nei suoi laboratori di Palo Alto, invece, Xerox aveva inventato le workstation che scambiavano non solo dati, ma anche e soprattutto documenti grafici e immagini e le stampavano su un’altra delle sue invenzioni: la stampante laser. Le tradizionali connessioni a 9.600 bit al secondo non bastavano più. La velocità sarebbe aumentata di mille volte, anche se in molti si domandavano: ma serve davvero tutto questo sprint? Il Cloud sta riproponendo oggi un paradigma applicazioni – infrastruttura con dei punti in comune.

La differenza? La fa la rete

Uno che se ne intende, Stefano Nocentini, che nell’ultimo anno è stato il profeta della “nuvola italiana” di Telecom Italia, è convinto che il Cloud finirà con l’essere un fenomeno di massa. Inoltre, ha un’idea precisa anche se comprensibilmente un po’ di parte (quella di un operatore telefonico) circa il fatto che sia nato prima l’uovo o la gallina. «A caratterizzare il Cloud – dice il manager di Telecom Italia responsabile del business grandi clienti – non sono aspetti come la virtualizzazione o la messa in comune delle risorse tecnologiche. Quelle c’erano anche trent’anni fa sui mainframe. Si tratta piuttosto della disponibilità delle connessioni a banda larga a fare la differenza».

Leggi anche:  AWS lancia il cloud per l’Europa

Così, la qualità dei collegamenti deciderà sul tipo di sviluppo del Cloud e la domanda – che poi vuol dire la disponibilità di spesa – delle applicazioni orienterà quantomeno le politiche di investimento degli operatori, che oggi vedono inesorabilmente calare i ricavi di traffico di tipo tradizionale. Anche (ma non solo) per questo motivo, per parecchio tempo, le formule prevalenti saranno quelle dei Cloud ibridi. Per intenderci, se quel che dovete fare in rete è gestire applicazioni come la posta elettronica di una piccola azienda o tenere le classiche applicazioni gestionali, dall’amministrazione del personale all’amministrazione, tutte applicazioni “data oriented”, allora anche pochi Megabit possono bastarvi. Se ci tenete gli archivi storici, i 5 – 10 Megabit al secondo sono una garanzia. Ma se dovete metterci la gestione documentale e lo storage “di lavoro”, i 100 Megabit/s possono far comodo e non far percepire a voi e ai vostri clienti la differenza. Senza trascurare, come ricorda David Bevilacqua di Cisco, «che la differenza è anche la velocità dell’upload a farla», soprattutto nel mondo enterprise. A complicare, o rendere più interessante il quadro, anche per i soggetti potenzialmente coinvolti, c’è un’altra variante. Finora si è pensato al Cloud come un “pacchetto di opzioni” per il mondo IT. Che cosa mettiamo nel pentolone: le applicazioni nella forma del Software-as-a-Service, i servizi stessi o le stesse piattaforme di computing e di storage? C’è però un’altra variante: la messa nella “nuvola” anche dei servizi di comunicazione, dal centralino virtuale ai servizi di videocomunicazione e magari anche di telepresenza. Uno scenario che rilancia prospettive ovviamente per gli stessi carrier, che non sarebbero più limitati a vendere traffico e ferro con pochi margini e potrebbero mettersi a fare quello che meglio conoscono. Anche se di portata limitata, la decisione di Naguib Sawiris, il magnate egiziano che aveva rilanciato Wind, di acquistare per 85 milioni di dollari la startup californiana Joyent, attiva nel Cloud computing, è un altro segnale in tal senso.

Leggi anche:  Sanità in ritardo nell’adozione del multicloud ibrido ma si prevede una crescita esponenziale nel breve termine

Lo shopping nel gestionale “sulla nuvola”

Lo scenario non ha contorni netti: alcune attività in fondo sono nel Cloud da lungo tempo, anche se non le si chiamava così, altre si stanno trasformando, ma se le aziende stanno facendo le loro esplorazioni, i vendor non stanno con le mani in mano. Solo negli ultimi mesi si è registrata un’escalation impressionante. In campo applicativo, la gestione del personale sta proponendosi come uno dei candidati a questa trasformazione, specie se si considera che i maggiori concorrenti del software gestionale si stanno sfidando a colpi di miliardi. A dicembre, SAP ha annunciato l’accordo per rilevare l’americana SuccessFactors, specializzata in servizi per la gestione HR, per 3,4 miliardi di dollari. Il tema è così sensibile che l’operazione è ancora pending per un’indagine in corso del Cfius, la commissione che indaga sugli investimenti stranieri di aziende Usa considerate di interesse critico. Qualche settimana dopo, a fine gennaio, Oracle, che già possiede PeopleSoft, concludeva l’accordo da 1,9 miliardi di dollari per l’acquisizione dello specialista di Talent Management Taleo.

Il Big Data

È sempre più il momento del Big Data, sulla spinta di un aumento nel 2010 dei dati archiviati (stima IDC) del 48%. La piattaforma Cloud per l’archiviazione ed eventualmente la sincronizzazione dei dati è il terreno di scontro di Apple, Amazon, Google, Microsoft, concorrenti ormai di specialisti come Mozy (EMC) e DropBox. Google Docs è il collante di archiviazione per le applicazioni “Office-like” di Google, così come iCloud è la marcia in più per il mondo di computing e di portatilità di Apple, ma ora, sempre da Google, arriva anche “Drive”, vero e proprio servizio di storage remoto, sganciato da specifiche applicazioni dell’eco-sistema di Google, che a sua volta sta mettendo mani e piedi nel mondo dell’hardware e delle reti. Una Google che collabora con Samsung sugli smartphone, che compra per 12,5 miliardi di dollari Motorola Mobility Solutions, portandosi a casa 17mila brevetti, e che si appresta a varare a Kansas City una rete da 1 Gigabit/s, dice che, in definitiva, attorno al possesso dell’informazione si può ricomporre un nuovo eco-sistema end-to-end.

Leggi anche:  Extreme realizza il primo Networking Cloud Continuum per offrire flessibilità e sovranità del cloud

Tutto questo vuol dire che il Cloud, nelle sue varie forme, ha davanti a sé una strada spianata? Non è detto, anche perché, soprattutto in termini di restrizione dei budget, le aziende hanno sempre davanti a sé la strada dell’outsourcing. Intanto aziende come Cisco e HP puntano su modelli ibridi, anche per una comprensibile proiezione del proprio business. L’ultimo arrivo dei server HP, il Proliant Gen8, frutto di 300 milioni di dollari di investimenti, è un segnale della volontà di sostenere anche la clientela rimasta fedele ai modelli in-house. Il nuovo server punta su tutto ciò che viene magnificato nel Cloud: minori consumi a parità di potenza elaborativa, meno costi di gestione con l’automazione delle funzioni, più elevato uptime grazie a un’affidabilità appositamente studiata. All’altro estremo della Silicon Valley, a Redwood Shores, Cisco saluta i progressi dell’ultimo trimestre annunciando che il suo modello UCS (Unified Computing System) è già stato adottato da 10mila clienti, “3mila dei quali in Europa”. Così, modelli di business, livello di integrazione delle applicazioni, qualità delle reti sono elementi che possono indirizzare i futuri sviluppi del Cloud. Con una speranza: che trent’anni dopo l’apogeo del mainframe di cui parla Nocentini e l’ingresso del personal computer nelle aziende, anche per accelerare il processo di sviluppo dei prodotti e delle applicazioni, non si riproponga il medesimo problema di allora. Delle applicazioni candidate a essere trasferite sulla nuvola, quante richiedono modifiche per adattarle alle specifiche esigenze dei clienti? Lo scenario da “Ritorno al futuro” merita di essere preso in considerazione.