Un piccolo segreto: sfruttiamo troppo poco i dati sull’esperienza dell’utente finale!

ROI del 209% con Qlik Cloud Analytics: lo rivela lo studio Total Economic Impact

A cura di Gary Kaiser, Expert in Network Performance Analytics di Dynatrace

Molti di noi sono alle prese con le tante incalzanti esigenze del business digitale: sviluppare nuove applicazioni mobile, valutare la sicurezza di fronte all’Internet of Things, gestire il passaggio al cloud ibrido, testare nuovi approcci per passare al network software-defined.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Sono tutti elementi di un trend in costante crescita che vede l’IT sempre più orientato ai servizi, con l’obiettivo primario di offrire all’utente finale un’esperienza di qualità elevata, per tutti gli utenti – interni all’azienda, partner e clienti – con la velocità, la qualità e l’agilità che il business oggi richiede.

Come soddisfare aspettative così elevate? Mentre i data center moderni si evolvono rapidamente verso ambienti più agili, le architetture di rete e le applicazioni diventano sempre più complesse, ostacolando gli sforzi per comprendere la qualità del servizio a partire dal semplice monitoraggio delle infrastrutture e delle applicazioni. La virtualizzazione, ad esempio, può oscurare la visibilità sulle prestazioni critiche e le dipendenze complesse dei servizi mettono alla prova anche i migliori analisti delle prestazioni. Questa potrebbe essere la premessa di un vero disastro nel mondo del monitoraggio e gestione delle prestazioni ma, in realtà, racchiude al suo interno la chiave per raggiungere il successo.

La qualità del servizio è negli occhi di chi lo utilizza

Per capire se un servizio è veramente di qualità, dobbiamo misurare l’esperienza che di esso ha l’utente finale (EUE). Ricordate il detto “la bellezza è negli occhi di chi guarda?” Vale anche nel modo delle applicazioni dove la qualità del servizio non è qualcosa che può definirsi a priori ma è negli occhi dell’utente. Tale visibilità è oggi più che mai fondamentale per l’eccellenza dei servizi IT, perché fornisce un contesto importante per interpretare in modo più efficace le metriche delle prestazioni delle infrastrutture.

Leggi anche:  La Commissione europea sceglie Oracle Cloud Infrastructure

Oggi, i team delle IT operation si concentrano spesso sul monitoraggio delle infrastrutture più accessibili – dispositivi, rete, server, applicazioni, storage – a partire dalla considerazione che il tutto è uguale alla somma delle parti. La teoria prevedeva (e per molti ancora prevede) che, raccogliendo e valutando le metriche delle prestazioni rispetto a tutti questi componenti, si possa mettere insieme una conoscenza ragionevole della qualità del servizio. I più ambiziosi combinano le metriche provenienti dalle tante e diverse soluzioni di monitoraggio in una singola console, magari con una correlazione temporale, o un’analisi programmata di causa ed effetto.

Questo approccio, a cui spesso ci si riferisce come Business Service Management, comporta però la necessità di alimentare in modo continuativo le soluzioni con nuovi dati e controllarne il funzionamento. Anche se molti lo hanno già abbandonato, questo approccio ci ha insegnato qualcosa: l’esperienza dell’utente è fondamentale per l’efficienza dell’IT perché è l’unico modo per sapere se ci sono problemi che si ripercuotono sugli utenti, definire le priorità di risposta ai problemi in base all’impatto sul business, evitare di dare la caccia a problemi che non esistono e affrontare il troubleshooting giungendo a una soluzione con la certezza di sapere se e quando il problema è stato veramente risolto.

La complessità guida l’evoluzione dell’APM

Fornitori e aziende operano insieme per fare crescere le capacità di monitoraggio delle prestazioni; passando dal monitoraggio in tempo reale e dal reporting sullo storico verso un isolamento più sofisticato del dominio di errore e all’analisi delle cause principali, utilizzano analitiche sempre più complesse per prevedere, prevenire e intervenire nel correggere i problemi.

Uno dei driver più interessanti del settore è proprio la crescita della complessità – delle reti di data center, della catena di distribuzione delle applicazioni e delle architetture applicative – e, di conseguenza, il volume crescente di dati che mettono alla prova gli attuali approcci al monitoraggio delle prestazioni delle IT operation. Fondamentalmente si tratta di un problema di big data!

Leggi anche:  PMI e digitalizzazione: da Vicenza al Nord-Est, il piano di Passepartout per la competitività del tessuto produttivo

La risposta sono le soluzioni di IT operations analytics (ITOA), giunte sul mercato come un approccio che consente ricavare intuizioni sui comportamenti del sistema IT (tra cui, ma non solo, le prestazioni) analizzano grandi volumi di dati provenienti dalle fonti più disparate. La visione di Gartner del mercato ITOA è molto interessante: la spesa è raddoppiata dal 2013 al 2014, raggiungendo i 1,6 miliardi di dollari, con una stima che vede oggi solo il 10% delle imprese utilizzare queste soluzioni e quindi un potenziale di crescita enorme!

Non entrerò maggiormente nei dettagli delle soluzioni ITOA ma vorrei sottolineare come il loro valore vada oltre alla questione della gestione dei problemi e degli incidenti.

Ad esempio, possono offrire vantaggi importanti nella gestione dei cambiamenti e delle configurazioni. Dal punto di vista delle prestazioni, le fonti di dati possono includere i log di sistema, informazioni sulla topologia, le metriche prestazionali, gli eventi e altro, a partire dai server, dagli agent e dalle sonde. Le informazioni sono memorizzate, indicizzate e analizzate per raggiungere obiettivi importanti, come l’identificazione dei trend, il rilevamento delle anomalie, l’isolamento dei domini di errore, la definizione della causa principale, e la capacità di prevedere i comportamenti. C’è una certa somiglianza con gli sforzi precedenti del BSM nel combinare i diversi dati di monitoraggio, ma le tante capacità e le promesse che queste analitiche comportano – come ad esempio l’apprendimento automatico – rendono questo approccio notevolmente differente e, infatti, si parla spesso dello ITOA come il futuro dell’APM.

L’esperienza dell’utente finale come chiave per un servizio efficiente

Tornado al tema delle prestazioni delle applicazioni, anche i sistemi ITOA più solidi potranno dire ben poco se non includono le metriche sull’esperienza dell’utente finale. Certo, sarà possibile venire a conoscenza di anomalie di cui non si sapeva l’esistenza e acquisire una conoscenza diretta dei problemi imminenti ma una reale efficienza dell’IT e l’allineamento al business sono fondamentali per l’orientamento efficace del servizio e richiedono il contesto dell’esperienza dell’utente finale; ignorare questo significherebbe non cogliere un passaggio fondamentale verso la maturità.

Leggi anche:  Finance: una roadmap per la piena sostenibilità