Dagli intangible assets ai “digital blueprints”

Intelligenza artificiale programmatically crazy

Perché una economia fondata sul dato potrebbe rappresentare il primo passo di una trasformazione ancora più radicale dei settori industriali, con conseguenze (quasi) impensabili dal punto di vista competitivo

Perché si parla così tanto di dati? Da oltre cinquant’anni gli economisti parlano, talvolta con qualche scettiscismo, talvolta con entusiasmo, di economia dell’informazione, mettendo in evidenza le innumerevoli difficoltà che si affollano sulla strada di coloro che cerchino di creare valore attraverso il dato, istruendo un processo decisionale e organizzativo basato su evidenze fattuali. Dal paradosso dell’informazione di Kenneth Arrow fino ai costi di transazione di Ronald Coase, per decenni si è avvertita con netta intensità la necessità di rafforzare le tutele di quei valori intangibili derivanti dai processi di innovazione aziendale, dai brand fino ai marchi commerciali, dai brevetti ai segreti industriali, dai processi operativi fino ai modelli organizzativi. Finora, la garanzia di questi valori è stata affidata a un dispositivo di tutela legale costituito da norme e regolamenti sempre più complessi, articolati e internazionali, però l’inarrestabile processo di digitalizzazione sempre più capillare che ha contraddistinto soprattutto nell’ultimo decennio le economie più sviluppate ha dissolto senza ombra di dubbio l’efficacia di alcune tutele (si pensi per esempio a quella relativa al diritto d’autore, soprattutto in ambito musicale) e ne ha messe altre seriamente a repentaglio (si pensi ai segreti industriali sempre più insidiati dalla criminalità elettronica e dallo spionaggio industriale). Il motivo per cui si parla così tanto di dati è perché i dati hanno tanto di cui parlare. Tanto i teorici dell’Information Economy quanto gli imprenditori della New Economy hanno un’idea piuttosto chiara di che cosa si può fare con i dati: sanno, come Mark Zuckerberg, che le norme di interazione sociale sono cambiate in modo irreversibile e ormai i dati sensibili sono negoziabili; sanno, come Larry Page, che il dato è equiparabile a una riserva naturale inesauribile e dal valore universale; sanno, come Elon Musk, che soltanto attraverso la conoscenza più approfondita dei dati di processo è possibile fare automazione e rafforzare il proprio vantaggio competitivo; sanno, come Jeff Bezos, che soltanto possedendo i dati è possibile ridurre al minimo il rischio di qualsiasi esperimento sul mercato. Dunque le infrastrutture IT si collocano al centro del vantaggio competitivo di un numero sempre più grande di imprese.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Intelligenza artificiale per il business: smeup racconta il caso di successo di Namirial in un evento online

LA CRESCITA DI DATI E INFORMAZIONI

Durante tanti eventi e convegni sul tema dei Big Data, lo tsunami è la metafora che ricorre più spesso per descrivere la crescita esponenziale di dati e informazioni nelle società post-industriali. Negli ultimi anni, abbiamo assistito alla progressiva moltiplicazione delle infrastrutture di data center, quasi tutti i principali leader del web e dell’IT hanno investito massicciamente nella creazione di hyperscale data center sempre più grandi (quello costruito qualche tempo fa da SuperNAP a Reno è grande quasi quanto il Pentagono). Da almeno un quinquennio, è partita una corsa rocambolesca tra operatori per contendersi lo scettro di prima grande utility del dato e dell’informazione: se guardiamo alle comunicazioni ufficiali, Google dispone di almeno quindici siti di grandissima dimensione, Amazon di oltre 40 “zone di disponibilità”, Microsoft oltre 30 aree infrastrutturate, IBM quasi una cinquantina di cloud data center, e così via, con infrastrutture in continua crescita e aggiornamento, di anno in anno. Pur apprezzando il carattere evocativo della metafora dello tsunami, tuttavia è indispensabile fare un po’ di chiarezza per comprenderne al meglio l’effettivo contenuto euristico. Se guardiamo alla progressione della base installata dei principali dispositivi, come smartphone, tablet, connected tv e pc, comprendiamo facilmente quanto rapidamente il volume dei dati possa crescere nel giro dei prossimi cinque-dieci anni: se nel 2020 la capacità di storage a livello globale potrebbe attestarsi attorno ai 10 zettabyte, IDC stima che la quantità di dati raccolti e custoditi nei database aziendali e non, ovvero la quantità di dati persistenti, potrebbe attestarsi a circa la metà, 5 zettabyte, ma la quantità di dati transitori prodotti a livello globale – ovviamente ci riferiamo a tutti quei dati prodotti da sensori e dispositivi che non sono immagazzinati alla fine delle sessioni di lavoro – potrebbe superare oltre i 40 zettabyte. È in questo spazio inesplorato di informazioni “effimere” che si giocheranno molte delle sfide competitive dei prossimi decenni.

LO SPAZIO INESPLORATO DEI DATI

La tesi principale che vorremmo argomentare è che le piattaforme di Big Data Analytics possono consentire di reificare in modo sostanziale i valori intangibili presenti in molte aziende. Tutte le aziende che dispongono di capitale umano, di proprietà intellettuale, di processi allo stato dell’arte oppure ancora di una reputazione consolidata sul mercato possono impiegare le piattaforme di Big Data per misurare e consolidare tali valori: per esempio, per verificare con precisione quanto la propria brand equity contribuisca in misura differenziale al risultato aziendale rispetto ai concorrenti, come stanno sperimentando ormai da qualche tempo alcuni operatori internazionali nell’ambito del Food & Beverage. Come ben sappiamo, nel momento in cui un oggetto diventa misurabile, soltanto allora diventa gestibile e quindi diventa possibile estrarne il massimo valore possibile per l’azienda. È possibile teorizzare in questa sede che l’altro aspetto interessante dell’applicazione delle nuove tecnologie di analytics ai valori intangibili sia quello di consentire a qualsiasi azienda di scoprire eventualmente “capitali” che non erano considerati oppure erano addirittura del tutto trascurati. L’obiettivo delle nuove piattaforme di analytics non sarà più soltanto la data discovery in senso stretto, che viene ormai data per consolidata, ma l’asset discovery, ovvero la capacità di mostrare una intelligenza superiore ai propri concorrenti, un vantaggio “cognitivo” che non dipende soltanto da nuovi livelli di automazione ma dalla capacità di reinventare il proprio business con grande lucidità. Per esempio: cosa succede quando l’impresa che fa mobili scopre che può investire nella superiore “intimacy” con i suoi clienti, diventando una piattaforma per qualsiasi altro concorrente? Quanto si trasforma il suo modello di business se decide di affittare gli elementi di arredo anziché venderli tout court? Queste trasformazioni sono possibili soltanto a quanti conoscono i propri clienti e i propri processi meglio di qualsiasi concorrente.

Leggi anche:  Facchini: efficienza e continuità operativa in tempi brevi

LE NUOVE REGOLE DELLA COMPETIZIONE

La capacità di una azienda di muoversi da un approccio data-driven a un approccio knowledge-driven va ovviamente ben al di là della capacità di impiegare l’IT per automatizzare il core business oppure ancora per creare nuovi prodotti e servizi, che a ben considerare sono soltanto il risultato più evidente di una trasformazione più profonda che si nasconde dietro le apparenze. Il punto centrale sta nel riconoscere che qualsiasi problema di business è in primo luogo un problema di dati, una questione di “logistica digitale”, e così facendo il livello della competizione si sposta, per così dire, un passo indietro, dal confronto sul mercato reale, dove i processi di imitazione e omologazione sono così forti che qualsiasi follower dopo qualche tempo riesce a imitare le soluzioni più sofisticate messe in campo dai leader di mercato, a una sorta di meta-mercato virtuale dove i contendenti si confrontano sulla capacità di sviluppare una conoscenza sempre più sofisticata delle esigenze del mercato e dei processi di produzione, e dove si compete sulle immagini digitali di processi, prodotti e soluzioni (i “digital twins”). Nel momento in cui le imprese cominciano a competere sul terreno di quella che potremmo chiamare “logistica digitale” le regole della competizione assumono una nuova forma, e cominciano a trascendere i tradizionali confini tra settori industriali. Se dalla produzione materiale di beni e di servizi, affidata alle macchine sempre più intelligenti dell’Industry 4.0, la competizione si sposta sulla digitalizzazione dei modelli di business, affidata agli “architetti del dato” che intervengono sui digital twin dei processi, allora potrebbe arrivare molto presto un momento in cui la determinante più importante del valore delle imprese saranno questi “blueprint digitali”, ovvero aggregati di valori intangibili perfettamente coerenti, integrati e coordinati nelle loro componenti elementari, reificati in dati e infrastrutture sempre più liquide, capaci di essere trasferiti agevolmente da una matrice di fattori produttivi a un’altra, da un settore a un altro. In uno scenario così futuribile, esisterebbero soltanto due settori industriali: l’industria della produzione (in senso lato), e l’industria del dato.

Leggi anche:  I vantaggi strategici del B2B digital commerce: ottimizzazione dei processi e miglioramento dell'esperienza cliente

Giancarlo Vercellino, Research & Consulting Manager, IDC Italia