Le previsioni del 2015 di Jay Kidd, SVP e CTO NetApp

Cosa ci riserva il 2024 sul fronte del business

NetApp ha rilasciato alcune previsioni in ambito tecnologico per il 2015 di Jay Kidd, SVP e CTO dell’azienda

“Di fronte a un contesto tecnologico in continuo mutamento, ogni parte dello stack IT è in fase di transizione – dispositivi degli utenti, reti, applicazioni, software server virtuali, server fisici, sistemi storage, supporti di memorizzazione,” ha affermato il manager. “Alcuni di questi cambiamenti sono già iniziati e subiranno un’accelerazione nel corso del 2015, altri invece hanno appena cominciato ad emergere. In entrambi i casi, allacciatevi le cinture! L’IT farà una corsa sfrenata nel 2015”.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

1. Due creature leggendarie – Internet of Things e Big Data Analytics – diverranno realtà

Il sorgere della telemetria integrata per apparecchiature industriali, dispositivi di monitoraggio della salute, sistemi di pagamento mobile, insieme a tanti altri nuovi sensori che misurano una varietà infinita di aspetti delle nostre vite, forniranno una gran quantità di dati rilevanti alla prossima ondata di analisi aziendali. Le aziende che hanno scoperto di non avere dati sufficienti per produrre delle analisi rilevanti, potranno utilizzare set di dati provenienti dal mondo reale per ottimizzare i processi aziendali e cambiare l’esperienza dei propri clienti. La gestione dell’acquisizione di dati da dispositivi collegati a strumenti di analisi in tempo reale e in background cambierà la visione che le aziende hanno del mondo.

2. Il futuro degli array All-Flash non è solo la tecnologia Flash

La tecnologia Flash influenzerà il futuro dell’Enterprise Storage. L’idea di un datacenter all-flash però non è funzionale e almeno l’80% dei dati continuerà a risiedere su disco. Questione di prezzo: almeno fino alla fine del decennio gli SSD più economici costeranno probabilmente 10 volte tanto rispetto ai meno cari dischi SATA. Compressione e deduplica si applicano allo stesso modo sia su disco sia su flash. Ogni architettura storage includerà tecnologia flash per gestire i dati ‘sensibili’. Tuttavia, coloro che sceglieranno di utilizzare soluzioni unicamente flash, senza alcuna integrazione con altri array ibridi di flash e dischi, avranno un datacenter ultra-veloce, ma non la soluzione di archiviazione migliore e più affidabile per le esigenze dell’IT.

Leggi anche:  Sostenibilità: Indra ottiene il miglior punteggio del settore tecnologico nello S&P Yearbook

3. Un cloud ibrido multi-vendor è l’unico cloud ibrido che conta

Ogni cliente utilizzerà il cloud in qualche modo. Proprio come un tempo la maggior parte dei clienti era riluttante ad affidarsi a un unico fornitore per il proprio IT on-premise, anche ora sceglierà di lavorare con più fornitori cloud. Evitare contratti in esclusiva, influenzare il negoziato o semplicemente desiderare di poter scegliere,
saranno i criteri che guideranno i clienti a cercare un cloud ibrido che non li leghi a un singolo provider. I fornitori SaaS che non offrono un modo per estrarre i dati partiranno da una posizione di svantaggio. L’utilizzo dei layer PaaS, che funzionano in un solo cloud, subirà una flessione. Le tecnologie software che possono essere implementate on-premise e in una serie di cloud saranno apprezzate dai clienti che pensano in maniera strategica al proprio modello IT.

4. Il Software Defined Storage collegherà cloud pubblico e privato

Il Software Defined Storage (SDS), con la possibilità di essere installato su una varietà di hardware e supportare importanti funzionalità di automazione, estenderà la sua portata alle implementazioni cloud e costruirà un data fabric che si estenderà su cloud pubblici e privati. Il SDS fornirà alle applicazioni gli strumenti per accedere ai dati in modo uniforme in tutti i cloud e semplificherà gli aspetti di gestione dei dati relativi alla migrazione delle applicazioni esistenti verso il cloud. Il SDS per l’object storage avrà una funzione di collegamento tra object repository on-premise e su cloud. Le efficienze dello storage in alcune offerte di software-defined storage, come Cloud ONTAP, riducono inoltre il costo dello spostamento di dati da e verso il cloud pubblico e della memorizzazione di dati attivi nel cloud pubblico per lunghi periodi di tempo.

Leggi anche:  Dati e sostenibilità: le 7 sfide dell'ESG Reporting

5. Docker sostituirà l’hypervisor come contenitore per applicazioni scale-out

Dal momento che le nuove applicazioni per SaaS o per i casi di utilizzo enterprise su larga scala sono scritte utilizzando un modello scale-out basato su micro-service, i contenitori dell’applicazione Docker si sono dimostrati più efficienti in termini di risorse rispetto alle macchine virtuali con un sistema operativo completo. Tutti i principali sistemi di orchestrazione VM ora supportano Docker e nel 2015 assisteremo alla nascita di un solido ecosistema per la gestione dei dati e altri servizi.

6. L’infrastruttura iper-convergente è il nuovo server di calcolo

I prodotti dell’infrastruttura iper-convergente (Hyper-converged Infrastructure – HCI) stanno diventando il nuovo server di calcolo del direct-attached storage (DAS). Il calcolo nei data center tradizionali consiste in blade o scatole in rack che hanno CPU dedicate, memoria, I/O e connessioni di rete, ed eseguono decine di macchine virtuali. Sia HCI sia EVO di VMware permettono di condividere DAS locali attraverso alcuni server, rendendo l’unità di calcolo più resiliente, mentre ai dati maggiormente condivisi si accede tramite LAN o SAN. A partire dal 2015, la nascita dello storage a stato solido, un utilizzo più diffuso dei protocolli di rete per l’accesso diretto alla memoria a distanza (remote direct memory access – RDMA) e le nuove interconnessioni guideranno un modello di calcolo in cui i core, la memoria e gli IOPS di storage saranno integrati in un fabric a bassa latenza che farà in modo che si comportino come un unico sistema rack.