Un “superstorm” di informazioni

Gli sviluppi nei big data e in altre tecnologie nel corso degli ultimi anni suggeriscono una crescente convergenza tra business e IT, oltre a una trasformazione fondamentale nel modo di gestire e utilizzare le informazioni

 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Robert DavlinNell’ultimo quarto di secolo, le imprese di ogni forma e dimensione hanno seguito una politica di gestione delle informazioni che potrebbe essere riassunta in una sola frase: “una versione unica della verità” o SVOT, nell’acronimo inglese di “single version of truth”. Come implicato dall’espressione, questo concetto suggerisce che un’azienda può e deve essere descritta e gestita in base al principio che c’è un unico insieme di informazioni che definisce in maniera completa e accurata il modo in cui l’azienda opera. Questa politica si può vedere in azione nelle operazioni, in sostituzione di molteplici applicazioni transazionali di ERP, CRM e sistemi similari integrati. La si vede nella business intelligence, con l’implementazione di ambienti data warehouse omnicomprensivi – oppure – nelle iniziative di data governance integrata e di razionalizzazione dei processi. La speranza è che – se solo si è in grado di allineare tutte le informazioni e le procedure – il business sarà finalmente sotto controllo e andrà avanti con il processo di massimizzazione del profitto, o di qualsiasi altro venga visto come lo scopo fondamentale del business.

Purtroppo, il mondo non funziona così. E stranamente – mentre osserviamo e ammettiamo che il mondo non funziona così – insistiamo invece sul fatto che le imprese dovrebbero farlo. Naturalmente, ci sono parti del business in cui il concetto SVOT è importante. Le comunicazioni sui risultati finanziari per il mercato o sugli utili per il fisco dovrebbero essere accurate, complete e verificabili (la mafia è esclusa, ovviamente). Le attività di ricerca o di marketing, tuttavia, non hanno la stessa esigenza: più versioni della verità sono molto più interessanti. Anche all’interno del finance ci può essere una quantità, anche se limitata, di verità valide nel periodo che precede la chiusura dei libri contabili di un esercizio finanziario. Questo solo concentrandosi su dati numerici. Quando invece si tratta di informazioni meno definite, dalle e-mail alle immagini, la verità è molto più fluida. I primi ad aver adottato le tecniche e gli strumenti relativi ai big data si sono concentrati proprio su tali informazioni meno definite. Che comprendono le informazioni sul sentiment provenienti da Twitter o Facebook, le informazioni sui comportamenti ricavate dai click stream e dai web log, così come il text mining dalle e-mail e dalla trascrizione di conversazioni. Le analisi approfondite creano modelli che predicono i comportamenti futuri: per esempio, se un cliente di telefonia cellulare ha intenzione di passare a un altro operatore, oppure se una certa offerta potrebbe aumentare la propensione all’acquisto, oppure ancora se una determinata operazione può essere fraudolenta. Tali informazioni sono molto lontane dal concetto di SVOT. Tuttavia, l’utilizzo dei big data sta maturando, come abbiamo scoperto in un recente sondaggio (“Big data comes of age”, EMA & 9sight Survey, novembre 2012). Gli utenti stanno combinando tali informazioni con le tradizionali fonti di dati operativi e informativi, dai dettagli sulle chiamate per le telco, agli scontrini per i negozi fino alle informazioni sulle performance finanziarie ricavate dal data warehouse. Per le aziende, questo rappresenta un cambiamento del gioco. E richiede significative trasformazioni tecnologiche da parte dell’IT. Si scopre che i big data sono solo l’anticipazione di quello che verrà. Prendiamo in considerazione solo due aspetti in particolare.

Leggi anche:  SAS Viya, la piattaforma che democratizza l’uso di IA e machine learning

L’operational analytics

 I processi operativi sono stati altamente strutturati e fortemente regolamentati da quando sono stati portati sui mainframe. La flessibilità necessaria per gestire circostanze nuove, caratteristica tipica dell’interazione umana, si notava soprattutto per la sua assenza. E tuttora è così. L’operational analytics, cioè l’analisi approfondita dei dati operativi, cambia tutto radicalmente. Partendo da grandi campioni di dati comportamentali e transazionali, è stato creato un modello predittivo. Fin qui, questo è solo data mining. Ma nell’operational analytics, il modello viene automaticamente applicato nell’ambiente operativo, come per esempio un sito web retail o un call center, per modificare in tempo reale l’offerta fatta al cliente, in base al comportamento effettivo del cliente durante l’interazione in corso. Il risultato viene reimmesso nell’ambiente di modellazione predittiva per ottimizzare ulteriormente il modello stesso.

Questa applicazione spezza la barriera tra i processi operativi e quelli informativi, che è stata una caratteristica tipica del computing fin dai primi giorni. Le procedure operative raggiungono nuovi livelli di flessibilità: anche se forse non si tratta di un servizio personalizzato, è qualcosa di molto più simile all’uomo. L’impatto per l’IT è enorme. Un principio fondamentale dell’architettura è rotto. L’infrastruttura, l’applicazione e il database sono necessari per gestire due tipi molto diversi di elaborazione a braccetto. Ciò richiede l’eliminazione dell’elaborazione in batch e una nuova architettura del database sottostante: caratteristiche implicite nella mossa verso l’in-memory processing, come si è visto per esempio con SAP HANA.

Il mondo mobile

 Quando il commercio al dettaglio si affacciò anche sul web, gli esperti predissero la fine del negozio fatto di mattoni. Ma avevano ragione solo fino a un certo punto. E ora che il web si sposta verso tablet e smartphone, il saldo tra click e i mattoni si è spostato di nuovo. Così come l’operational analytics, l’impatto sul business è dato dall’accelerazione delle attività operative e la loro integrazione più stretta con i processi informativi. Un acquirente dotato di smartphone in negozio può trovare prezzi più bassi dai concorrenti, eventualmente rinviando anche l’acquisto, e questo rende obbligatoria per ogni rivenditore un’analisi in tempo reale sulla concorrenza. D’altra parte, se il rivenditore sa chi è quell’acquirente e in che punto del negozio si trova, può proporre un’offerta speciale personalizzata, il che ci riporta di colpo all’operational analytics. Ma questo non riguarda solo il mondo consumer: anche gli utenti business stanno sperimentando cambiamenti di questo tipo. Per esempio, i manager hanno ora accesso in tempo reale ai cruscotti dei KPI ovunque si trovino, mentre il personale per l’assistenza esterna ha accesso immediato a tutte le applicazioni operative e informative necessarie per svolgere ogni compito. L’operational analytics, il mobile business e la loro estensione, cioè l’Internet of Things, che si ha quando ogni manufatto, ogni animale domestico e – potenzialmente – ogni essere umano è dotato di uno o più sensori ed è permanentemente online, può generare un vero e proprio superstorm di informazioni (come in “The Coming Global Superstorm” del 2000, di A. Bell e W. Strieber, tradotto in italiano nel 2004 col titolo “La tempesta globale”, che ispirò il film apocalittico “The day after tomorrow”). Solo una piccola percentuale di queste informazioni esisterà nel formato altamente strutturato che viene utilizzato oggi nei database relazionali. Gran parte di queste informazioni sarà costituita da molteplici verità transitorie che rappresentano scorci fugaci della realtà che richiedono un’elaborazione parallela massiccia, altamente flessibile e profondamente algoritmica, i cui inizi stiamo vedendo ora con Hadoop. I requisiti necessari in termini di velocità di elaborazione, networking, volumi delle informazioni e flessibilità personale, non possono essere gestiti con le attuali architetture e tecnologie IT. Nuovi strumenti, sia hardware, sia software, sono già disponibili, in molti casi nelle prime versioni. Una nuova architettura IT sta emergendo, evolvendo da data warehousing, service oriented architecture (SOA) e web 2.0, solo per citare alcuni aspetti. Valutare, adattare e applicare queste nuove tecnologie e architetture dovrebbe essere in cima all’agenda di ogni lungimirante reparto IT.  

Leggi anche:  Realtà e miti dell'intelligenza artificiale: le previsioni di SAS per il 2024

—————————————————

Barry Devlin è uno dei più autorevoli esperti mondiali di business insight e data warehousing, oltre a essere consulente, speaker e autore del famoso libro “Data warehouse – from architecture to implementation”. Gli interessi di Barry Devlin, oggi, spaziano verso un business completamente integrato, coprendo ambienti informativi, operativi e collaborativi per offrire una esperienza olistica del business attraverso l’IT. È fondatore di 9sight Consulting, società di consulenza specializzata nel progettare soluzioni ampie di business insight, operando con i principali analisti e vendor in ambito BI e oltre.

Barry Devlin presenterà a Roma per Technology Transfer il seminario “Ricreare la BI e il DW: nuova architettura e tecnologie avanzate dal 17 al 18 giugno 2013