Standardizzazione e integrazione. Le nuove sfide dell’automazione industriale sull’orizzonte della convergenza tra IT e OT che potenzia l’intelligenza delle cose on-the-edge come leva di flessibilità, efficienza, personalizzazione e organizzazione

La smart industry ancora nella tempesta della pandemia. L’esperienza sul campo di Marcegaglia, Officine Maccaferri, Saipem, Acqua Minerale San Benedetto, Gruppo Siram e Vimar per capire come la “smartification” dei processi produttivi sia legata a doppio filo alla capacità di raccogliere i dati, leggere le informazioni e distribuire intelligenza, protezione e continuity. Da tempo, il mondo dell’innovazione industriale ha superato lo stretto ambito dell’informatica della fabbrica.

La virtualizzazione che separa i substrati hardware dal software e la definitiva affermazione dei protocolli di Internet guidano la convergenza tra Information Technology e Operational Technology. Questo ha rafforzato molto la percezione di quanto possa essere vantaggioso, in una azienda di produzione, stabilire un dialogo diretto tra controllo digitale della fabbrica e gestione delle attività di business, integrando i processi di fabbricazione e gli aspetti dell’ideazione, logistica, vendita di beni e servizi materiali. La cronaca degli ultimi mesi ha inevitabilmente condizionato la fase preparatoria di questo nuovo confronto dedicata ai temi dell’IoT e della smart factory, costringendoci ancora una volta a rinunciare a un evento “in presenza” per ripiegare sulla già sperimentata formula virtuale. La discussione non è stata per questo meno ricca di spunti di interesse, offrendone anzi uno in più: ragionare sulla possibilità di applicare anche ai luoghi della produzione industriale la nuova ottica di “smartizzazione” del lavoro che l’emergenza sanitaria globale ha reso drammaticamente urgente.

Il Covid impone certe regole di distanziamento e limitazione degli spazi e queste a loro volta impongono un approccio diverso, fortemente digitalizzato, remotizzato, a tutte le modalità di lavoro. Lo abbiamo visto negli uffici, nella mobilità naturale di certe professioni e forse stiamo cominciando a vederlo anche in ambito manifatturiero, addirittura nell’industria pesante. L’incapacità di presidiare fisicamente i luoghi della produzione e l’obbligo di occupare tali spazi solo nel rispetto di regole di sicurezza, ancora più stringenti di quelle già in vigore, inducono a ripensare le strategie di smart working riconsiderando – con un approccio sempre più olistico – tutti gli spazi del lavoro: il lavoro svolto alla scrivania sulla “conoscenza” e quello che coinvolge la fisicità delle materie prime e del trasporto dell’energia. In una parola, l’intero territorio dell’Industry 4.0.

L’IOT NELL’EMERGENZA

Ancora una volta, il nostro panel è stato coinvolto in una discussione interattiva e aperta su alcuni temi volutamente generali della IoT manifatturiera. L’interesse primario ha riguardato le rispettive storie di trasformazione digitale della fabbrica e la misura in cui tale progettualità ha subito l’impatto dell’emergenza sanitaria. Data Manager ha chiesto ai suoi interlocutori di valutare, anche alla luce delle proprie esperienze, la possibilità di ripensare, attraverso l’IoT il concetto di presidio di impianti, cantieri, siti manifatturieri, magari riducendo la necessità di dispiegare gli stessi numeri di persone “sul campo”.

La nuova cultura del dato in fabbrica è un secondo argomento molto collaterale al primo. L’obiettivo è misurare lo stato dell’arte di concetti come il “digital twin” di impianti e componenti. O capire come, e con quali strumenti, è diventato possibile valorizzare i dati generati a livello di singolo pezzo prodotto, di macchina utensile, di linea produttiva, proprio per influire positivamente sulla qualità e la continuità dei processi di produzione; o per inventare, fuori dalla fabbrica, nuove strategie di servizio abilitate dall’intelligenza dei prodotti. Non sono mancate – nel complicato contesto generato dall’avvento del Covid in un vasto campo di convergenza di tecnologie IT/OT – le considerazioni sulla natura sempre più integrata della sicurezza delle informazioni e delle persone e del loro spazio di lavoro. E infine, c’è stato spazio anche per diverse considerazioni di natura più filosofica, sui cambiamenti che dobbiamo aspettarci, a livello individuale e sociale, dal nuovo tipo di relazione che il lavoratore deve stabilire con una tecnologia sempre più pervasiva e autonoma sul piano decisionale.

CONTROLLO E PREVISIONE

L’intervento di apertura verte sull’esperienza di Siram, l’energy service company italiana confluita a inizio anni 2000 nel gruppo francese Veolia (ex Compagnie Générale des Eaux). Siram non è una realtà manifatturiera in senso stretto – spiega il suo CIO Fabrizio Locchetta – ma i servizi erogati –efficienza energetica, raccolta e smaltimento dei rifiuti, controllo della qualità e dell’erogazione dell’acqua – riguardano il monitoraggio e l’intervento su impianti di categoria industriale. Il gruppo opera nei cinque continenti, ma il mercato italiano verte soprattutto sull’efficienza energetica, oltre che sulla gestione dei rifiuti ospedalieri e la qualità dell’acqua. Una parte significativa della clientela è costituita proprio dai grandi ospedali e il lavoro si suddivide quindi tra ufficio e presenza sugli impianti per l’energia e il condizionamento dell’aria. Negli ultimi cinque anni – continua Locchetta – è cresciuto l’interesse nelle attività basate sul monitoraggio costante di una serie di parametri ambientali e finalizzate al maggior efficientamento di energia. «Questo ci ha indotto a sperimentare l’uso della sensoristica remota, attraverso infrastrutture IoT aperte come Sigfox e più recentemente con tecnologie LoRaWAN».

Da questi esperimenti, Siram ha tratto una lezione positiva sui potenziali di una gestione smart degli impianti. Potenziale che comincia lentamente a riflettersi anche nelle gare commissionate dai clienti. Ma che ha anche individuato diversi limiti. Oltre agli aspetti legati ai sensori, come la scarsa durata delle batterie, le mille problematiche di sicurezza e i costi elevati dell’integrazione – secondo Locchetta – manca un vero sistema su cui fare esperienza tutti insieme. «Senza standard non ci possono essere riuso e condivisione delle soluzioni». Certi limiti non hanno impedito a Siram di affrontare anche gli aspetti analitici della valorizzazione del dato, con un avanzato progetto avviato 18 mesi fa.

«Nell’ambito di un piano di trasformazione digitale che riguarda tutto il gruppo Veolia, ci stiamo orientando verso un approccio sempre più data driven» – precisa Locchetta. Il data lake implementato dal suo team alimenta già algoritmi di analisi avanzati, in grado di formulare previsioni sul funzionamento degli impianti energetici gestiti per conto dei clienti e in prospettiva di incrementare la parte di gestione remotizzata che potrebbe contribuire a ridurre la presenza fisica dei tecnici Siram, venendo incontro alla necessità di dare maggior sicurezza ai lavoratori. «Con l’emergenza sanitaria – avverte Locchetta – si è creato un gap tra chi può operare in smart working e chi deve presidiare gli impianti». L’IoT potrebbe dare una grossa mano a ridurlo.

SICUREZZA INTERDISCIPLINARE

Nella descrizione fatta da Locchetta, emergono chiari almeno tre tematiche ricorrenti. «Un primo punto è la convergenza di competenze diverse: da un lato l’IT classica, dall’altro gli aspetti più ingegneristici del governo di macchine e sensori» – spiega Alessandro Rani, business development manager specializzato in cybersecurity di Axians. Secondo Rani, occorre una modalità condivisa che la nuova figura del data scientist potrebbe agevolare, ma che impegna anche l’esperto di sicurezza che deve proteggere gli enormi volumi di dati generati da sorgenti nuove, ancora poco conosciute. Poi c’è la grande sfida della gestione e manutenzione remota. «La possibilità di interagire a distanza con gli impianti – sottolinea Rani – è sempre una spina nel fianco per il security manager, perché oltre alle difficoltà di natura “linguistica”, scopriamo presto che i sistemi di remotizzazione, di connettività, di supervisione sono estremamente variegati e diversificati, creando così problematiche di sicurezza ancora maggiori». Negli studi preliminari che sottendono ogni progetto di messa in sicurezza, i consulenti di Axians si trovano davanti a sistemi che sono molto aperti ai rischi provenienti dall’esterno più di quanto non si immagini. «Le tecnologie legacy che collegano le linee produttive convivono con tecnologie innovative, che proprio a fronte della pervasività dei nuovi dispositivi IoT – che devono interagire tra loro e connettersi sul cloud – aumentano notevolmente la superficie di attacco e possono creare situazioni di rischio». Certamente – concorda Rani – anche la scarsa unitarietà di protocolli di comunicazione e standard di funzionamento non facilita il raggiungimento di un obiettivo che non si può aggirare: «Proteggere e dare continuità e accessibilità alle informazioni generate dalla fabbrica intelligente».

Leggi anche:  SSG, alleanza strategica con Proofpoint

Forse il campo operativo più impervio qui rappresentato è quello in cui opera Saipem, l’azienda di impiantistica “oil & gas” presente nei mari, nei deserti e tra i ghiacci di settanta nazioni. Tra le sue attività Saipem – nell’affascinante racconto di Mario Attubato, corporate head of Digital Transformation – gestisce pozzi petroliferi e una flotta di navi per la posa sottomarina di tubature. Come Siram – afferma Attubato – anche Saipem lavora per conto di grandi clienti. E al giorno d’oggi, nell’industria petrolifera, questo significa paradossalmente che i margini di manovra si riducono. Rispetto al passato, i prezzi del petrolio non si traducono più in gigantesche commesse: anche in un segmento di industria così pregiato efficienza e ottimizzazione sono una necessità.

DATI ESTREMI, ESTREMI VANTAGGI

Questo non impedisce a Saipem di “macinare” tecnologie sempre più avanzate che consentono di gestire impianti sempre più digitalizzati e intelligenti. In una certa misura, si può dire che i dati digitali sono diventati il “petrolio” dell’industria del petrolio. «Una delle situazioni più notevoli affrontate è la tecnologia sviluppata da Sonsub, una società del gruppo specializzata in automazione, droni e soluzioni basate su intelligenza artificiale montate a bordo delle navi posatubi. A bordo, operazioni come la saldatura al plasma dei tubi avvengono ormai in modo automatico. Il vero problema in queste situazioni è riportare i dati al centro perché non possiamo fare troppo affidamento sui sistemi satellitari». Per questo Saipem, si focalizza in misura importante sull’edge computing, abilitando sul campo funzionalità smart che non si potrebbero gestire altrimenti. La missione di Attubato è gestire un tale livello di automazione remota e farlo all’interno di gusci di protezione delle risorse tecnologiche e delle informazioni che non sono affatto banali, affrontando molte altre tematiche riferibili alla digitalizzazione degli asset di Saipem.

Un altro tema fondamentale da indirizzare è quello delle competenze – prosegue Attubato. «Sono convinto che chi possiede determinati contenuti debba focalizzarsi su determinati temi e non è scontato riuscirci. Anche tra i fornitori di tecnologia non è facile individuare un “one size fits all” e capire quando fare insourcing di competenze e quando esternalizzare, arrivando al giusto mix». E quando si raggiunge un equilibrio soddisfacente – osserva il “capo-digitalizzatore” di Saipem – inizia il problema dell’orchestrazione. «L’ecosistema è estremamente variegato. Cambiano le metodologie. Ci sono molti più specialisti e più tecnologie da integrare». Il presupposto più importante per affrontare un tale livello di complessità – conclude Attubato, riferendosi alle sue precedenti esperienze nell’ambito utility – è sicuramente architetturale. «Ecco, anche questa è un grandissima sfida in un ambiente così stratificato e denso di tecnologie legacy che in qualche modo si devono governare. È necessario evolvere verso architetture più flessibili per poter colmare dei gap o cogliere dei lead che possono essere molto variegati». Lo scenario cambia ancora una volta quando Raffaele Frattini, Group IT director di Officine Maccaferri racconta il percorso di cambiamento affrontato dalla sua azienda fondata a Bologna nel 1880. Anch’essa è presente a livello globale con soluzioni che vengono impiegate per opere civili legate al mondo della preservazione del territorio o alla costruzione di grandi infrastrutture: strade, ponti, viadotti. Il ciclo di produzione in Officine Maccaferri – spiega Frattini – è molto particolare perché la lavorazione, a basso contenuto tecnologico, non prevede una lavorazione particolarmente smart. L’azienda realizza i cosiddetti “gabbioni”, le tipiche strutture di rafforzamento e sostegno di argini, ponti, terrapieni nonché le reti metalliche e le “grondaie” di protezione che, montate sul bordo delle strade, servono a stabilizzare i terreni franosi o a impedire la caduta di pericolosi massi sulle carreggiate. «Siamo soprattutto una azienda che progetta soluzioni» – afferma Frattini. «Oltre a commercializzare i nostri prodotti, li accompagniamo con lo studio del loro dimensionamento e messa in opera».

CADUTA (CONTROLLATA) MASSI

Grazie ai passati investimenti in trasformazione digitale, Maccaferri non ha avuto particolari problemi nel riorganizzare la gestione delle informazioni e dello smart working durante la pandemia. Un cambiamento significativo riguarda il mix del lavoro interno e sul campo, che ha spinto a ripensare anche l’aspetto della sicurezza. L’impresa bolognese ha sviluppato una attività strategica che mira a estende il perimetro di sicurezza dal vecchio concetto di “fortino aziendale” ai singoli endpoint degli operatori fuori sede sia nel loro domicilio sia sul campo, nei vari cantieri.

Sul fronte dei prodotti veri e propri, ancora prima dell’emergenza sanitaria, Frattini ha avviato una serie di ragionamenti sulla “smartification” delle soluzioni, facendo leva sui dati. «Non è in fabbrica che i dati assumono valore per noi, bensì nei cantieri, sul territorio». Tecnologicamente, la prima difficoltà – come nel caso di Saipem – è l’interconnessione. Gli ingegneri della Maccaferri devono innanzitutto assicurare la corretta raccolta delle informazioni generate da una sensoristica che non sempre viene impiantata in aree coperte dalle infrastrutture di comunicazione. Un secondo aspetto importante, inoltre, è l’autonomia dei sensori stessi, per analoghi motivi di complessità degli interventi di manutenzione e servizio. In compenso, è facile immaginare diversi casi d’uso interessanti per una IoT che può davvero aiutare a estendere i margini della protezione meccanica fornita dalle strutture. «Uno dei progetti pilota implementati impiega i sensori per segnalare in tempo praticamente reale il momento in cui un masso colpisce un nostro sistema di protezione. Incidenti che finora potevamo rilevare solo successivamente, ma che ora possiamo controllare subito, coinvolgendo e attivando anche gli enti preposti agli interventi». Per la criticità di certe situazioni, questo potenziale di telerilevamento può rivelarsi prezioso in sede di manutenzione preventiva delle infrastrutture che utilizzano queste soluzioni.

Leggi anche:  Marcegaglia, l’acciaio 4.0

L’intelligenza che Officine Maccaferri cerca di inoculare “sul campo” torna prepotentemente nell’ambizioso progetto di digitalizzazione e integrazione delle fabbriche di componenti per la domotica e la building automation di Vimar, un’altra azienda di antica tradizione (nel 2020 ha compiuto 75 anni) rappresentata al nostro tavolo virtuale dal CIO Francesco Pezzutto. Fondata nel 1945, Vimar è un’azienda italiana leader nel comparto elettrico ed elettronico che progetta e sviluppa prodotti e soluzioni di home and building automation per gestire l’energia elettrica sia in ambito residenziale che terziario. Caratterizzata da una forte propensione all’innovazione, l’azienda ha sempre saputo evolvere assieme agli stili abitativi e ai rapidi mutamenti tecnologici che caratterizzano il mercato proponendo un’offerta in linea con i più elevati standard di qualità e sicurezza che da sempre rappresentano un caposaldo dell’azienda di Marostica. Ciò ha portato Vimar ad essere riconosciuta sul mercato come un’azienda qualitativamente superiore, che sa coniugare tecnologia e design, non scordando la propria identità. E’ rilevante sottolineare che tutto il workflow produttivo avviene nelle sedi di Marostica, dalla progettazione alla produzione, dallo stoccaggio alla logistica, elemento questo che ha determinato un approccio inclusivo alla digitalizzazione.

«Essere eccellenti nell’automazione e nei processi produttivi è un fattore competitivo che ci permette di avere continuità e crescita sui mercati» – afferma Pezzutto. «Per questo abbiamo dato vita a un progetto di smart manufacturing che ci ha permesso di integrare digitalmente i processi produttivi con tecnologie Industry 4.0 e IoT». L’intelligenza della fabbrica – sottolinea Pezzutto – si riflette in quella embedded dei prodotti e stabilisce un legame essenziale per un insieme di dispositivi utilizzati per definizione in configurazioni connesse, la cui piena tracciabilità diventa un fattore abilitante anche di una quantità di servizi post-vendita.

DOMOTICA, L’INTEGRAZIONE È SERVITA

Il CIO di Vimar sottolinea anche l’importanza dell’aspetto culturale di un progetto che ha trasformato non solo il modo di relazionarsi con una fabbricazione che un tempo era molto basata sulla carta, ma anche le azioni che l’operatore umano doveva eseguire. Con l’automazione spinta, è arrivata anche una diversa modalità di interlocuzione con gli impianti in fabbrica ed un impegno in termini di formazione del personale.

«Tornando all’impatto che il Covid ha avuto su persone e processi produttivi – prosegue Pezzutto – le tecnologie implementate sono sicuramente abilitanti per un concetto di smart manufacturing ma la fabbrica può essere solo parzialmente esternalizzata.  In ogni caso, Vimar ha compiuto diversi primi passi in questa direzione, mettendo per esempio in pista, all’esplodere della crisi, un sistema di pianificazione delle risorse umane presenti nei reparti produttivi che accanto agli elementi “classici” tenga conto di parametri come skill, competenze, abilitazioni e soprattutto aspetti riferiti alla presenza. Parallelamente, Vimar sta affrontando il problema della valorizzazione dei grandi volumi di dati generati dai suoi impianti smart. «Abbiamo due leve da sfruttare» – spiega Pezzutto. «Il dato di fabbrica e i dati generati dai prodotti connessi. Attraverso i parametri di produzione, possiamo contare su un controllo in tempo reale della qualità e stiamo sperimentando algoritmi di tipo predittivo per essere in grado di anticipare difetti di produzione e di processo. Lato prodotto, raccogliamo le informazioni che arrivano dal funzionamento dei nostri dispositivi, mettendole in relazione con i sistemi CRM per offrire un migliore servizio post-vendita». Alcuni prodotti Vimar saranno in grado di “escalare” autonomamente un ticket di servizio, in pratica chiedendo l’intervento di un riparatore nell’imminenza di un guasto. L’ultimo passo, conclude il CIO di Vimar, consiste nel chiudere il cerchio, correlando processi di fabbricazione e comportamento dei prodotti.

Il merito della testimonianza di Claudio Basso, direttore dei sistemi informativi di Acqua Minerale San Benedetto è di far emergere l’importanza della digitalizzazione anche in contesti produttivi più tradizionali o dove il contenuto tecnologico dei beni prodotti sembra essere meno vincolante. Come vedremo, le tecniche adottate nel percorso di trasformazione digitale vissuto da San Benedetto, per esempio nella messa a punto delle soluzioni analitiche applicate ai processi, sono tra le più avanzate fin qui descritte. Dagli undici stabilimenti del Gruppo (quattro dei quali in Europa) per un totale di 40 linee di imbottigliamento oltre alle stazioni di stampaggio delle etichette, escono ogni anno quattro miliardi di “pezzi” di diversa capacità. Stiamo parlando di acqua minerale e vitaminizzata, bibite, produzioni in private label e su licenza. In alta stagione – precisa Basso – dagli impianti del gruppo escono ogni giorno 550 camion carichi di bottiglie. La parte di produzione e logistica è lo spazio più strategico dal punto di vista dell’efficientamento. Ma il monitoraggio del flusso, per gli obiettivi di tracciamento fissati dalle normative dell’industria alimentare, deve necessariamente partire dai cosiddetti punti di “emungimento” delle acque fino a comprendere le vasche di stoccaggio che fanno da buffer per la produzione, il magazzino e la consegna verso il cliente.

NON PERDERE L’INFORMAZIONE (IN UN BICCHIERE D’ACQUA)

«Ben prima che l’IoT diventasse una moda – spiega il direttore dei Sistemi Informativi di Acqua Minerale San Benedetto – abbiamo introdotto avanzate tecnologie di monitoraggio, in particolare per quanto riguarda le linee di imbottigliamento. Su questo fronte San Benedetto ha agito inserendo dei sistemi che attualmente constano di duecento sensori per ogni linea di imbottigliamento e che raccolgono dati ogni 5 secondi, per tutte le quaranta linee di produzione». Che tipo di trattamento viene effettuato su questa massa di dati? Le informazioni estratte sono di tipo real-time, per esempio tutta l’allarmistica relativa a eventuali disservizi o a valori fuori norma. «Il dato assume una doppia valenza» – precisa Basso. «L’informazione serve sia per il continuo tracciamento della linea di produzione sia, in forma aggregata, per le analisi del pregresso e la predizione di determinati fenomeni».

Per fare chiarezza in una massa di dati grezzi comunque molto cospicua, il team guidato da Basso ha scelto di servirsi di avanzati strumenti open source e open hardware. I collettori dei dati installati localmente sugli impianti utilizzano schede Raspberry. Il software di controllo è stato sviluppato in un ambiente low code Node-RED e va ad alimentare database specializzati per lo storage di serie temporali programmati su InfluxDB. Il supporto grafico delle analisi si avvale di un piattaforma di visualizzazione Grafana. Con questi tool, San Benedetto ha realizzato un sistema di governo dell’informazione che alimenta di dati real-time e statistiche una rete di pc e dispositivi mobili, attraverso semplici interfacce Web. «Un approccio – spiega Basso – che ci permette di far arrivare l’informazione giusta alla persona giusta, in qualunque punto critico, anche remotamente».

Big Data a parte, il gruppo ha lavorato sui protocolli Industry 4.0 per integrare l’ambiente OT con il gestionale centrale SAP, in particolare sulla parte di scheduling della produzione e l’emissione degli ordini verso le fabbrica. Ordini che giungono direttamente sui pc operativi a bordo-macchina, agli addetti che li controllano. In prospettiva – osserva Basso – sarà possibile aumentare ulteriormente il grado di autonomia delle linee produttive eliminando la necessità dell’intervento diretto degli operatori. La strategia di digitalizzazione adottata ha ovviamente comportato un opportuno adeguamento delle procedure di sicurezza logica: strumentazioni e software sono stati confinati in reti industriali ben protette da firewall e le singole postazioni di lavoro utilizzano al posto degli antivirus convenzionali configurazioni basate su whitelist. Dall’acqua all’acciaio il passo è meno lungo di quanto ci si possa immaginare, almeno sul piano dell’automazione in fabbrica. La siderurgia – riconosce Marco Campi, Group IT director di Marcegaglia – si identifica nell’industria pesante per definizione ma al tempo stesso può essere annoverata tra i pionieri dell’Industry 4.0. «I primi calcolatori real-time sono stati introdotti in Italia a Genova Cornigliano a metà anni 60 e venivano usati per controllare gli altiforni delle colate continue». Tutta la siderurgia italiana vanta una tradizione di informatica in fabbrica rivolta all’automazione, al controllo di processo, al supporto della movimentazione e della logistica e i problemi di cui si discute oggi riguardano anche Marcegaglia, sicurezza digitale inclusa. «Con una piccola aggravante» – sorride Campi. «L’OT è responsabilità dei singoli stabilimenti e la priorità semmai è proteggere l’IT di gruppo, segregando opportunamente le reti in modo da proteggere i sistemi di elaborazione senza però impedire gli interventi di manutenzione remota, realizzati attraverso l’uso di VPN».

Leggi anche:  L’AI nel digital DNA di Gruppo Filippetti

CAPIRE IL TUBO

Parte dei sistemi IT di Marcegaglia è del resto fisicamente presente in fabbrica sia per la raccolta dei dati in tempo reale sia per alimentare i sistemi di controllo OT con gli ordini di processo che devono essere eseguiti. Anche in questo contesto, il tema dello sfruttamento del dato e della costruzione di moderni data lake è più recente. «Meno di “primo pelo” sono le applicazioni, considerando che la manutenzione predittiva era un argomento già affrontato all’Ilva negli anni 90». Soprattutto nella siderurgia primaria –  osserva Campi – «la complessità dei processi ha sempre richiesto modellazioni altrettanto complesse e oggetto di continui miglioramenti».

Per quanto riguarda il valore del dato in senso più ampio, Marcegaglia ha realizzato un importante progetto pilota, intervenendo con una architettura di edge computing. Un approccio inevitabile se si considera che un impianto di media complessità oggi può generare fino a 10 terabyte di dati al giorno e non si può pensare di trasportare e trattare questi volumi di dati grezzi (assicurando oltretutto una perfetta sincronia tra dati e processi di lavorazione) senza applicare in periferia potenti filtri tra i sensori e gli algoritmi centrali. «Il progetto pilota che abbiamo realizzato mirava alla supervisione di un impianto con una serie di EPLC disgiunti l’uno dall’altro, in assenza di un sistema SCADA che realizzasse questa integrazione. Integrazione che è avvenuta con un sistema di informatica condizionale che ha dato un eccellente risultato». Il team IT di Marcegaglia ha in pratica realizzato un gemello digitale di una linea produttiva – in questo caso un impianto di produzione di tubi in acciaio inox in funzione nello stabilimento di Forlì – e ora può intervenire in tempo reale per correggere i parametri di processo prima che un piccolo malfunzionamento diventi un grosso problema. Ora si tratta di scalare questo progetto a decine di linee di questo tipo. «In termini più generali – conclude Campi – vogliamo realizzare un modello di raccolta dati, di creazione di data lake e di analisi, standardizzabile su tutto il gruppo». E la manutenzione predittiva è solo uno degli esempi di applicazione. Solo da una efficace integrazione dei dati possono scaturire informazioni utili.

E le tematiche trattate ci aiutano a tracciare una roadmap dell’evoluzione della trasformazione digitale all’interno della fabbrica. Denodo ha un approccio unico al mondo per favorire questa integrazione. «Lo facciamo su un piano squisitamente logico» – spiega Gabriele Obino, regional VP Southern Europe & Middle East dell’azienda ibero-americana. «In altre parole, lasciamo i dati dove sono, senza creare copie e sottoinsiemi e li mettiamo insieme per ottenere l’informazione». Obino passa brevemente in rassegna gli interventi di Marcegaglia, Acqua San Benedetto, Vimar su una progettualità che può essere definita pionieristica e che ha un obiettivo comune: l’automazione di una fabbrica integrata digitalmente. «È questo il fondamento per avere tutto sotto controllo e poter eventualmente esternalizzare una parte delle persone, che rappresenta uno degli obiettivi in questa fase di emergenza».

UNA FABBRICA DIVERSA

La fabbrica digitalizzata può essere una fabbrica molto diversa. L’esempio fatto da Obino a sostegno di questa ipotesi riguarda un grande cliente di Denodo, il gruppo americano Caterpillar. «Non si potrebbe immaginare un’azienda più analogica di un produttore di gigantesche macchine per l’edilizia e l’agricoltura. Eppure, questa azienda realizza un terzo del suo fatturato in servizi digitali, riempendo di sensori le sue fabbriche e i suoi prodotti». I dati generati da questi sensori si traducono in informazioni che hanno rivoluzionato i servizi di post-vendita di Caterpillar. Oggi, la diagnostica di bordo può riconoscere i segni di un problema imminente, coinvolgendo l’intero sistema di consegna e installazione dei ricambi per accorciare drasticamente i tempi delle riparazioni. Per chi usa trattori o escavatori, si tratta di un sacco di soldi risparmiati, evitando lunghi periodi di fermo delle macchine guaste. I servizi intelligenti di Caterpillar funzionano tanto bene da spingere i vertici dell’azienda a offrire queste modalità as a Service, anche ai concorrenti. «Tutto passa per i concetti di innovazione data driven, abilitati dalle tecnologie Denodo per consentire ai data scientist di focalizzarsi sulla logica dell’integrazione» – conclude Obino.

Le tecnologie della smart factory possono avere grande impatto in sfere diverse dalla mera efficienza al miglioramento della marginalità economica. Mentre Fabrizio Locchetta di Siram rileva il gap che l’emergenza ha creato tra colletti bianchi e colletti blu, Francesco Pezzutto di Vimar invoca una discussione collettiva sulle regole e i diritti da applicare nei nuovi scenari aperti da questa automazione di “nuova generazione”. Al tempo stesso, Mario Attubato di Saipem richiama l’attenzione sulla crescente sensibilità nei confronti della questione della “Environmental, social and corporate governance” (ESG) e sul contributo che proprio le tecnologie IoT possono dare a una modalità di produzione industriale più sostenibile e rispettosa dell’ambiente e delle persone. Ma forse, il richiamo più semplice e ricco di significato è quello proposto da Gabriele Obino nel ricordare che la tecnologia applicata alla fabbrica deve essere un mezzo per realizzare un progresso più a misura d’uomo e di ambiente.


Point of view

Intervista ad Alessandro Rani, business development manager di Axians: La sicurezza alla convergenza tra IT e OT

Intervista a Gabriele Obino, regional VP Southern Europe & ME di DenodoLa smart factory a 360 gradi