La sola cosa certa: un mondo più virtuale


Se il Cloud computing rappresenta ancora un concetto dai confini incerti, la virtualizzazione è una realtà sempre più concreta e il desktop potrebbe essere la nuova frontiera, saldandosi con un mondo di applicazioni in rete. È il momento di incominciare a mettere i piedi in acqua

 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Capita che mentre si attende con ansia l’avverarsi di uno scenario se ne materializzi un altro. Negli anni 80 ci si aspettava il boom del Teletext, incrocio tra il telex e la macchina per scrivere elettronica. Fu invece l’era del fax. Indispettito, Nicholas Negroponte disse che era colpa dei giapponesi e dei loro ideogrammi. Vent’anni dopo, le comunicazioni mobili 3G dovevano crescere all’insegna del “videofonino”. Bastava considerare le tecnologie e le bande disponibili per nutrire qualche dubbio, e la videochiamata fu l’unica applicazione che non decollò.

Oggi, qualcosa accomuna TLC, IT, elettronica di consumo. No, non è la nuova “Confindustria Digitale”, è lo “shift” verso un mondo sempre più virtuale. Prendiamo le telecomunicazioni: nel 2000, di fronte a un traffico Internet che raddoppiava ogni trimestre, non solo i portafogli ordini dei produttori, ma anche i titoli degli operatori scoppiavano. Da allora le azioni di Deutsche Telekom, Telecom Italia, France Telecom hanno perso l’80-90%. Non è sceso il traffico, ma sono crollati i prezzi. Cosa che ha permesso, di converso, la crescita di altri business che non dovevano preoccuparsi né di fare le reti né di pagare il trasporto dei loro servizi: il fenomeno degli “over the top”, tra social network, advertiser online, proprietari di “app store” come Google, Apple, presto Facebook, che oggi capitalizzano quanto o più delle corazzate dell’IT.

 

Dalle TLC all’IT: dove vanno i soldi?

Sempre nel 2000, in Italia furono vendute all’asta le frequenze del 3G per 13 miliardi di euro (130 in Europa). Oggi, per i ben 300 MHz di nuove frequenze, che apriranno la strada al 4G, l’obiettivo è di 2,4 miliardi, forse 2,7. Se si incasserà di più, ha detto a giugno nella relazione annuale il presidente dell’Agcom, Corrado Calabrò, il 10% dell’eccedenza andrà a contribuire alla rete NGN, la rete ottica, che non sembra scaldare troppo né gli utenti (lo ammette lo stesso Calabrò) né gli operatori. A meno che la facciano i concorrenti, cosa che è il timore generalizzato.

Leggi anche:  Da cloud first a cloud smart. Come pianificare una vera strategia multicloud

Il crollo di Nokia è il segno dei tempi: la casa finlandese sa fare i cellulari come nessuno, ma Apple l’ha spiazzata adottando il modello che ha fatto la fortuna prima dell’iPod poi di iPhone e iPad. Il problema non era più fare il cellulare migliore, ma quello con l’”ambiente” e quindi il mondo di applicazioni più accattivante, e vendere a caro prezzo lo smartphone. Problema simile per la canadese RIM, produttrice del BlackBerry, il cui titolo è precipitato in due mesi da 60 a 27 dollari: ormai surclassata nel mercato consumer, rischia difficoltà anche in quello enterprise. Nell’elettronica di consumo avviene qualcosa di simile. Più del 3D (che richiede occhialini e titoli) il Tv interconnesso sta per diventare il prossimo “must have”. Attaccategli un disco e sarà il centro multimediale di casa, più del Pc, e la sua fortuna dipenderà solo dalla complessità d’uso.

 

Il Pc 30 anni dopo

La grande vittima è il Pc, al suo faticoso trentesimo compleanno. Gli analisti prevedono ancora un 2011 in crescita di volumi, ma tra maggio e giugno hanno incominciato ad abbassare le stime. I mercati maturi sono in flessione (-18% l’Europa occidentale nel primo trimestre). La crisi di Acer è la manifestazione più acuta di questa difficoltà che ha colpito soprattutto la componente consumer e, di conseguenza, i produttori più sbilanciati in questa direzione. Diciotto mesi fa, se avevano in tasca 500 euro, i consumatori guardavano alle novità di Pc e di netbook. Oggi cambiano reparto al centro commerciale e preferiscono guardare a smartphone e iPad.

Le consuete voci sulla “morte” del Pc sono a metà strada tra le esagerazioni e le ripetizioni, visto che si rincorrono da più di dieci anni, ma le cose stanno cambiando. La ragione si chiama “Cloud”. A inizio anno, Merril Lynch parlava di una battaglia per l’industria da 160 miliardi di dollari, ma la scommessa va oltre i numeri. Riguarda gli attori che guideranno ancora questo settore nel 2015 – 2020. Del termine “Cloud” si è abusato – come avveniva dieci anni fa per le dot.com – a volte facendo diventare una “nuvola” tutto ciò che aveva attinenza con la rete (come la pubblicità), altre volte re-impacchettando servizi già da tempo sul mercato, in passato chiamati Asp, outsourcing applicativo.

Leggi anche:  Digitale: le PA centrali migrano sul Polo Strategico Nazionale

 

Virtualizzare il desktop conviene?

Per il mondo consumer, sembra solo una questione di tempo. Per le nuove generazioni di utenti, i nativi digitali, la posta elettronica residente come “client” sul Pc lascia il posto al servizio sul Web, magari entro un social network. La sfida riguarda l’utenza aziendale: quell’utenza da cui la stessa Microsoft ricava gran parte dei propri ricavi e utili. Sotto questo profilo, un sistema operativo per gli smartphone come Android-Google che mettesse fuori gioco contemporaneamente Nokia-Symbian e Windows Mobile sarebbe un pessimo auspicio per gli uomini di Redmond. Microsoft ha creato trent’anni fa la rivoluzione dell’“one fits for all”: un mondo di applicazioni divenuto uno standard de facto. Basterà questo a difenderla in una realtà in cui non conterà più solo il prodotto, ma anche e soprattutto il servizio?

Mentre il mercato dei Pc nel suo complesso mostra segni di appesantimento, la prima parte del 2011 ha riportato dinamiche apprezzabili per server e storage. Il merito è in parte dei processi di virtualizzazione in corso, tanto che, secondo Gartner, nel 2012 più della metà del “computing power” dei server installati verrà da macchine virtualizzate. Virtualizzare (e consolidare) server e storage per le aziende ha voluto dire aumentare l’efficienza nello sfruttamento dei sistemi, “spremere” più potenza utile per ogni dollaro investito e ha permesso di ridurre costi e tempi di “provisioning” per espandere i sistemi o inserire nuove applicazioni. Un nuovo paradigma verrebbe introdotto dalla virtualizzazione dei desktop che da una parte vorrebbe dire utilizzo di thin client a basso costo, dall’altra una semplificazione operativa. Tutto semplice? No, perché occorre ancora valutare l’efficacia di questo modello in ambienti che non si basano solo su poche procedure standard centralizzate, ma che hanno bisogno di flessibilità, qualità grafica, mobilità elevata.

Leggi anche:  Equinix potenzia il portafoglio di reti multicloud con Equinix Fabric Cloud Router

Un indice della partita in gioco si può vedere nell’andamento dei listini azionari. I tradizionali costruttori di hardware sono rimasti fermi o sono arretrati, quelli che meglio interpretano questo corso sono cresciuti. Negli ultimi due anni, il titolo di HP (73 miliardi di dollari di capitalizzazione a metà giugno) è passato da 37 a 35 dollari, dopo essersi arrampicato a 60. Cisco (83 miliardi), è passata da 19 a 14 dollari dopo aver toccato i 27. L’azione di Microsoft (204 miliardi), con alti e bassi, è rimasta ferma attorno ai 24 dollari. Altra musica per i suonatori della virtualizzazione. L’azione di Citrix (14 miliardi) è passata in due anni da 30 a 80 dollari. VMware oggi vale 38 miliardi e in due anni l’azione è salita da 30 a 80 dollari. La sua “casa madre” EMC, che pure continua a inanellare ottime performance anche nel settore hardware e software per lo storage, capitalizza 53 miliardi, solo un quarto in più.

C’è oggi una “bolla” nella virtualizzazione? È possibile. Ma c’è anche un enorme potenziale di cambiamento. Sinora le aziende hanno ricercato soprattutto di introdurre maggiore efficienza nelle loro operazioni, ma il prossimo passo sarà un diverso modo di organizzare domanda e offerta di servizi. La sfida di Google che realizza reti (la prima a Kansas City) da 1 Gigabit e introduce dei notebook pensati per funzionare con le applicazioni sul Web è il segno di un nuovo, ancor instabile, paradigma, orientato ai managed services, che tuttavia deve trovare ancora la risposta a molte domande. Affidabilità, sicurezza, qualità delle reti, interoperabilità, prestazioni, integrazione tra Cloud pubblici e privati sono aspetti che attendono risposte, soprattutto con l’aumentare delle dimensioni e complessità aziendali. Per i Cio, la prudenza è una virtù, ma non un alibi per star fermi, se si vuol creare ancora il vantaggio competitivo per le aziende.