I big data secondo Dimension Data

Big Data è tutto quello che concerne l’identificazione di modelli partendo da informazioni “grezze”

Chiunque abbia studiato marketing conosce la connessione tra birra e pannolini. E’ tutta una questione di accettazione di un modello, ovvero di come le informazioni grezze possono diventare utili se interpretate e utilizzate nel giusto modo. Sulla base di quanto espresso da Dimension Data è in questo contesto che i big data entrano in gioco.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Molti si sono fatti interpreti di questo fenomeno affermando che i big data possiedono il potenziale per aiutare le organizzazioni a individuare tendenze utili, per esempio, dal comportamento d’acquisto dei consumatori. Questo potrebbe supportare vendite più mirate, ma, a oggi, gran parte del valore dei big data è stato enfatizzato in modo forse esagerato.

Peter Prowse, General Manager for Data Centre Solutions di Dimension Data Australia, concorda. “Il fenomeno big data è stato “gonfiato” senza comprenderne appieno tutte le implicazioni del caso. E’ stato come per il cloud e, come per il cloud, i principi di base dei big data stanno cambiando radicalmente il modo in cui le aziende saranno in grado di reagire o di anticipare le opportunità di business.”

Prowse avverte che nonostante “big data” sia un termine abusato il suo impatto e valore non deve essere sottovalutato. “Immaginate cosa sia possibile fare con tutti i nuovi dati generati dalla navigazione Web, dalle transazioni on-line o anche dai rilevatori di movimento nei centri commerciali tramite dispositivi mobili. Queste informazioni rappresentano alcune forme di big data e racchiudono un enorme potenziale per riuscire a rispondere o anticipare le opportunità di business.”

In poche parole, il termine “big data” si riferisce a un set di dati che non possono gestiti facilmente attraverso i metodi tradizionali, come server dedicati che guidano un database tradizionale o una struttura di data warehouse (come Oracle o Teradata), e i set di strumenti analitici associati, come Cognos, che potrebbero guidare le interrogazioni e le analisi. I Big data vengono chiamati anche dati non strutturati, che possono essere strutturati in colonne e righe in un database SQL o in altre tipologie di database. Ci sono tre attributi che definiscono ulteriormente l’ambiente dei big data e includono:

Leggi anche:  SB Italia, la digitalizzazione come processo trasversale

• volume: la massiccia quantità di dati generati e raccolti da un’organizzazione;

• varietà: la gamma di differenti tipi di dati raccolti, da quelli di testo a quelli audio, video web logs, social media e altri ancora;

• velocità: la velocità con cui i dati vengono raccolti, analizzati e, come alcuni dicono, ‘anticipati’.

Secondo Kevin Leahy, Group General Manager for Data Centre Solutions di Dimension Data, l’utilizzo dei big data risiede nella capacità di identificare modelli partendo da informazioni grezze – anche chiamate data mining. “Il principio “beer and diapers” rappresenta le aziende che utilizzano le tecniche di data mining per identificare modelli in altre forme di comportamento dei clienti.

Per esempio, nel settore dei servizi finanziari, le organizzazioni bancarie e assicurative utilizzano i big data per identificare eventuali frodi. Questo coinvolge modelli di identificazione che potrebbero contribuire a individuare transazioni fraudolente.”

Leahy cita un altro esempio nel mondo delle telecomunicazioni. “Un grande operatore mobile Americano – che chiamiamo X Telecoms – era tormentato dalla fidelizzazione della sua base clienti. Utilizzando strumenti e processi tradizionali di analisi dei dati era in grado di quantificare il livello di abbandono dei propri clienti in modo abbastanza preciso, ma senza una finalità precisa.

“X Telecoms si è rivolta a un gruppo di data scientists – un’altra parola molto in voga – per identificare le cause dell’abbandono. Usando i volumi di dati non strutturati che X Telecoms raccoglieva ogni giorno e scrivendo un set di algoritmi avanzati sono emersi alcuni risultati interessanti.

“Ogni volta che qualcuno cambiava piano telefonico, scegliendo un competitor, cinque amici lo seguivano, provocando così un effetto a catena se si considera che altri cinque amici di questi ultimi li avrebbero seguiti nella nuova scelta.

Leggi anche:  Gruppo Credem: formazione e innovazione per le sfide del futuro

Questo comportamento era guidato dalle offerte combinate delle altre compagnie telefoniche che offrivano telefonate e messaggi di testo gratuiti a “cinque amici”. X Telecoms ha potuto così rispondere prontamente, introducendo una nuova campagna: nel momento in cui un suo cliente cambiava operatore, inviava immediatamente a cinque dei suoi amici più stretti un’offerta allettante per rinnovare i propri piani telefonici con X Telecoms. Attraverso questa azione, è stata in grado di ridurre la percentuale di abbandono di più del 65%.”

Se i dati non strutturati non possono essere convertiti facilmente in intelligenza operativa dai database tradizionali, questi esempi confermano che gli strumenti per aumentare la conoscenza e la comprensione, partendo da questi dati, si stanno sviluppando velocemente.

Afferma Prowse: ‘In prima linea stanno avanzando rapidamente le tecniche di intelligenza artificiale come l’elaborazione del linguaggio naturale, l’individuazione di modelli e l’apprendimento automatico. Queste tecnologie di intelligenza artificiale possono essere applicate in molteplici campi. Per esempio, la ricerca e la pubblicità aziendale di Google e le sue macchine robot sperimentali – che hanno percorso migliaia di chilometri sulle strade della California – utilizzano un insieme di strumenti di intelligenza artificiale che analizzano grandi quantità di dati e rendono possibile un processo decisionale immediato.

Questi sviluppi stanno creando numerose opportunità per le aziende. A sua volta però, sottopongono i CIO a una maggiore pressione per fornire gli strumenti e i processi necessari per abilitare una strategia di big data, con lo scopo di aggiudicarsi le nuove opportunità di mercato e/o prevenire un eventuale danno in termini di reputazione.

Leahy sottolinea che, nonostante la montatura creata attorno al mondo dei big data, le organizzazioni non hanno bisogno di grandi investimenti in infrastrutture o risorse per cominciare. “Le aziende possono iniziare installando una piattaforma semplice ed economica per la raccolta dei dati e da qui pensare a identificare i modelli utili in grado di garantire un immediato ritorno, se seguiti da azioni proattive. Un piccolo investimento in un’infrastruttura può essere finanziato dai benefici ottenuti proprio dall’utilizzo della piattaforma stessa. Questo è possibile in tutti i settori aziendali, dove una più ampia gamma di modelli potrebbe diventare influente. Questi modelli potrebbero includere quelli per il controllo della qualità nel manufacturing, di riammissione dei pazienti negli ospedali, di prenotazione o cancellazione nel settore dei viaggi e molti altri ancora. Anche i piccoli interventi iniziali stanno mostrando dei ritorni di business che supportano la crescita aziendale e consentono all’IT di crearsi le competenze necessarie per poi passare a un livello successivo,” ha concluso Leahy.

Leggi anche:  Crédit Agricole Italia supporta Davines nella sua mission per la sostenibilità ambientale