Architettura logica dei dati per essere data-driven

Architettura logica per essere data-driven

La crescita costante del volume dei dati e l’accelerazione multicloud per supportare modelli di business digitali determinano il cambiamento del modello di data integration con il passaggio dall’approccio “fisico” a quello “logico”.

Tutti parlano di utilizzare i dati per essere data-driven company. Molti analisti raccomandano nuove architetture logiche che non richiedono la replica continua dei dati, come unico modo per ottenere l’agilità necessaria agli utenti business. L’architettura logica presenta tutti i dati memorizzati in un insieme eterogeneo di archivi come un singolo database logico che può essere distribuito in modalità as a Service. I consumatori di dati non devono essere consapevoli di dove e come sono archiviati i dati. E non devono preoccuparsi neppure se i dati che stanno utilizzando provengono da un data mart, da un data warehouse o da un database di produzione.

«La parola chiave è integrazione in ottica evolutiva. Il problema non è lo spostamento dei dati – spiega Gabriele Obino, VP Southern Europe & Middle East di Denodo – quanto la trasparenza dello spostamento rispetto al loro utilizzo». In altri termini, la piattaforma Denodo permette, in modo del tutto trasparente rispetto alla loro collocazione geografica e al formato di rappresentazione di concentrarsi sul significato dei dati, nel contesto nel quale debbono essere utilizzati. «Chi utilizza i dati – continua Obino – è interessato a ciò che rappresentano, al loro significato, non ai dettagli tecnico-funzionali che non dovrebbero rappresentare un onere di conoscenza. Dobbiamo pensare al data consumer come il guidatore di un’auto e non come all’ingegnere che l’ha progettata o al meccanico che eventualmente la dovrà riparare. È quindi importante pensare a un livello di disaccoppiamento tra dove sono i dati e chi li utilizza, un livello in grado di assorbire in sé tutte le complessità tecniche, geografiche e di rappresentazione, indipendente dalla tecnologie».

Leggi anche:  Mobility as a Service, vai dove ti trasporta il dato

Elemento differenziante della data virtualization è proprio il disaccoppiamento dei sistemi sorgenti, dove consumatori dei dati e archivi sono disaccoppiati gli uni dagli altri. Questo “middleware” funziona da singolo strato semantico tra applicazioni aziendali e fonti dati, permettendo a ciascuno tipo di utente di avere a disposizione dei “virtual data mart” approntati per le loro esigenze, senza la necessità di replicare i dati in un nuovo repository. «Denodo è pioniere nell’integrazione, correlazione e messa a disposizione delle informazioni agli utilizzatori, decisori e manager in architetture ibride, cloud e multi-cloud, con progetti all’avanguardia, che permettono la fruizione delle informazioni in tempi e costi sostenibili, da molteplici sorgenti dati applicative ed analitiche, residenti in paesi e continenti diversi: «Tali progetti senza l’approccio “logico” di Denodo – sottolinea Obino – non sarebbero fattibili con costi sostenibili e in tempi accettabili. La virtualizzazione dei dati è un “must have” per tutte le aziende che vogliono diventare veramente data-driven».

CONCENTRARSI SUGLI OBIETTIVI

L’Italia è a un bivio. Spetta a noi decidere se fare le riforme solo sulla carta o per davvero. Quali sono i punti chiave per il rilancio strutturale del Paese? Per Obino, bisogna concentrarsi sugli obiettivi. «La ripresa economica, l’occupazione, l’educazione. È un po’ come per i dati. Lo scopo con cui andiamo a cercare le informazioni ci deve guidare. Serve un pensiero per un’azione dotata di senso. Serve l’intenzionalità – come direbbe John Searle – perché prima dell’uso c’è sempre la consapevolezza, ma prima della consapevolezza c’è sempre la conoscibilità. E questa è una responsabilità che deve essere condivisa e percepita da tutti come irrinunciabile. Sono positivo e penso che nelle difficoltà ciascuno abbia compreso l’importanza di fare la propria parte, nessuno escluso. E questo riguarda anche il mondo delle imprese, che devono sentirsi parte di un sistema complesso. Pe noi, partner e clienti costituiscono di fatto il nostro ecosistema di azione. Siamo un sistema a rete che mette al centro il successo dell’iniziativa del cliente, tramite la realizzazione del successo dei nostri partner. Il nostro compito è mantenere l’eccellenza del prodotto e dei servizi, abilitando appunto il successo dell’intero ecosistema che non è chiuso ma aperto, perché il valore delle scelte di business sopravanza il profitto e si riflette anche sulla società».

«Dobbiamo pensare al data consumer come il guidatore di un’auto e non come all’ingegnere che l’ha progettata o al meccanico che eventualmente la dovrà riparare»

NUOVI EQUILIBRI

Quali sono i tre punti fondamentali che determinano il successo di un piano di trasformazione e replatforming? Il primo punto – risponde Obino – è l’equilibrio della trasformazione, che ovviamente non è solo questione tecnica, ma anche organizzativa e culturale. Focalizzarsi solo su una parte significa minare all’origine l’efficacia della trasformazione. Il secondo punto è prendere atto che una strategia che va bene per molti non vuol dire che debba andar bene per tutti, per cui ogni strategia in tal senso deve sempre essere analizzata alla luce delle specifiche esigenze dell’azienda. Il terzo punto è che ogni trasformazione dovrebbe essere armonica con il funzionamento dell’azienda, nel senso che dovrebbe attuarsi senza interruzioni nell’operatività quotidiana e senza implicare la necessità di importanti e traumatiche attività di re-skilling delle persone. Stiamo quindi parlando di un cambiamento, la cui pervasività non deve tradursi in traumaticità, con il rischio che, proprio per tale ragione, venga percepita come un’imposizione o addirittura rifiutata». Abbiamo fatto i conti con la pandemia. Faremo i conti con il cosiddetto ritorno alla “nuova normalità” e l’escalation di minacce alla sicurezza delle infrastrutture critiche.

Leggi anche:  SSG, la rapida ascesa di un gran rompi-scatole (tecnologiche)

Quale è il vantaggio della data virtualization per essere più reattivi a rispondere a nuove interruzioni sistemiche? «Abbiamo resistito un anno in lock-down, non resisteremo un mese senza approvvigionamento energetico e probabilmente non resisteremo una sola settimana, senza dati» – commenta Obino. «La nuova normalità sarà caratterizzata da fenomeni che nascono così velocemente che potremo solo gestirli più che prevederli. Questo incremento di velocità è totalizzante, ma riguarda anche la nostra capacità di studiare, comprendere e gestire questi fenomeni: tutte attività che si fondano sulla possibilità di descrivere, condividere e comunicare ciò che apprendiamo. Insomma, dovremo essere veloci e agili in tutto, anche nella capacità di gestire dati, informazioni e conoscenza. I dati sono ovunque e non si può pensare di poterli integrare solo dopo averli copiati o spostati da qualche altra parte. Pertanto, l’auspicata reattività deve essere sull’intera catena, senza punti di rallentamento o, peggio, di ingorgo. Da questo punto di vista, la virtualizzazione dei dati fa il proprio dovere, rendendo fluido, agile, tempestivo, efficiente e semplice l’uso dei dati, quali essi siano e ovunque risiedano».