Guadagnano slancio gli investimenti in Edge computing e intelligenza artificiale a supporto di CIO e CTO per lo smart manufacturing. Un potenziale ancora da realizzare. Tecnologia, architettura e intelligenza più vicina all’origine dei dati. Ma come superare colli di bottiglia della velocità e della sicurezza?

Nella fabbrica del futuro – dove individui, macchine e sensori sono interconnessi – è la circolazione delle informazioni che abilita l’innovazione e la sostenibilità. Il processo di transizione digitale in corso e la crescita dell’IoT comportano un aumento esponenziale dei dati in ambito smart manufacturing, ponendo la tecnologia al centro di tutte le strategie aziendali. Roberto Dolci, VP of Software Engineering di Enel X in North America, nella sua rubrica settimanale sul think-tank Zafferano News in luglio rapportava così la situazione del nostro Paese a quella statunitense. “L’Italia è tra i leader mondiali nelle tecnologie legate alla progettazione rapida e produzione smart, un settore dove l’export del nostro Paese produce risultati importanti. L’alta spinta inflazionistica USA di queste settimane è principalmente dovuta alla mancanza di un numero sufficiente di fabbriche domestiche, e la fila di portacontainer cinesi ai porti rende felice Xi e triste Biden, mentre l’inflazione galoppa. È un momento propizio per aziende produttive italiane che volessero fare il passo in America, specialmente nel campo dell’automazione di produzione e logistica. Di recente, il NIST (l’Istituto americano per la ricerca nelle scienze e tecnologie) ha annunciato un programma interessante per agevolare lo sviluppo tecnologico nel campo della produzione. Si tratta di una competizione per aziende che sviluppino prodotti e tecnologie innovative di interesse per la strategia americana. Il programma Manufacturing USA Technology Roadmaps darà premi di 300mila dollari per progetti di un anno e mezzo che portino a sviluppi importanti in queste aree: 1) Barriere all’innovazione della produzione in America; 2) Definizione di standard per lo sviluppo e manutenzione dell’infrastruttura tecnologica; 3) Esempi di ecosistemi che mettano assieme esperienze nella gestione di fabbriche, logistica (supply chain) e macchinari specializzati”.

Se ci spostiamo nel contesto italiano – dove il progresso tecnologico è al servizio delle strategie di recovery e resilienza – ricoprono un ruolo sempre più importante la business continuity e la gestione efficiente delle infrastrutture critiche, la possibilità di implementare facilmente soluzioni micro-datacenter e le piattaforme di monitoraggio con analytics. Quest’ultime, oltre a verificare continuamente il corretto funzionamento delle apparecchiature e dell’infrastruttura, permettono di anticipare guasti e fuori servizio, per garantire la disponibilità dei dati: elemento sempre più critico e indispensabile in ambito produttivo. Da qui, evinciamo subito come la transizione digitale in azienda passi sempre più spesso attraverso investimenti e progetti di smart manufacturing.

AUTOMAZIONE E FLESSIBILITÀ

Dai nostri scambi con i responsabili smart manufacturing a livello C-suite e responsabili aziendali di servizi IT, è scaturito come denominatore comune che gli investimenti nella produzione intelligente si stanno intensificando. Le tecnologie di produzione intelligente semplificano le operations, rendono le catene di approvvigionamento più resistenti e consentono una migliore esperienza del cliente. I produttori si rendono conto che devono bilanciare la riduzione dei costi con un investimento mirato in tecnologie per migliorare tempi di ordine e consegna, qualità dei prodotti e sicurezza dei lavoratori. L’uso dei modelli digitali o Digital Twin è in aumento. Queste rappresentazioni digitali del processo di produzione fisica creano modelli di simulazione per ottimizzare il ciclo di vita del prodotto. La realtà aumentata e la tecnologia della realtà virtuale stanno spuntando in una serie di casi d’uso, in particolare per la manutenzione delle attrezzature e la formazione dei dipendenti dello stabilimento.

Particolarmente interessante è il caso dell’automazione di stesura del software, argomento che ci ha portato a confrontarci ancora con Dolci proprio rispetto al tema aperto di come si evolverà il ruolo del developer in futuro: più “business & citizen” o più “iperspecializzato augmented” dall’AI? Secondo Dolci, non c’è dualità, nel senso che sicuramente aumenta la specializzazione all’insegna della produttività dello sviluppatore, ma questo nulla toglie, anzi facilita la presa da parte di business & citizen developer. Inoltre, le reti 4G, LTE e 5G sono in fase di allestimento per ospitare le comunicazioni a bassa latenza necessarie per le comunicazioni da macchina a macchina e l’edge computing all’interno degli impianti. Le tre tecnologie che vedono il più alto tasso di adozione sono la cybersecurity, il cloud e l’Internet delle Cose. La sicurezza informatica sta diventando una fra le preoccupazioni maggiori proprio nella attuale fase in cui il numero di dispositivi IoT sta crescendo a tassi che presto lo renderanno veramente senza confini. E ogni dispositivo presenta un’opportunità di esposizione per i cybercriminali. Allo stesso tempo, i produttori multinazionali devono rimanere aggiornati con i requisiti normativi e di conformità specifici del paese. Le aziende del manifatturiero stanno rispondendo alla domanda dei consumatori per prodotti sempre più connessi: si parla praticamente di tutto ciò che può avere intelligenza incorporata. Le aziende stanno usando i business analytics per studiare quella domanda, e per passare dalla vendita di prodotti alla vendita di servizi che siano sempre meglio personalizzati in base alle preferenze dei clienti.

Lo smart manufacturing permette una produzione più flessibile e on demand, in molti casi sfruttando soluzioni di produzione additiva per fornire prodotti personalizzati e migliorare l’esperienza del cliente. Al centro di queste capacità, ci sono le piattaforme digitali. La spina dorsale è costituita da diverse cose come la tecnologia di rete 5G, l’Internet of Things, applicazioni e sistemi basati sul cloud, e l’automazione e l’intelligenza artificiale, che formeranno le basi dell’analisi utilizzata per ottimizzare le operazioni di produzione. Anche le funzioni organizzative interne risultano ogni giorno più connesse fra loro, con la tecnologia delle operations (OT) e l’IT in particolare che convergono e diventano più collegate che mai.

Leggi anche:  Aci lancia "Luceverde", nuova skill di Alexa per aggiornamenti traffico e mobilità

L’IT da tempo non è più esclusiva della funzione CIO, e si sta unendo allo sviluppo del prodotto e alle operations. C’è un enorme potenziale di consolidamento tra l’ingegneria e la produzione, che porta a una maggiore velocità e agilità e a nuovi modelli di impegno dell’ecosistema. Cosa significa tutto questo nella seconda metà del 2021? Iniziamo con un fattore emerso chiaramente e di cui i fornitori di servizi dovranno prendere buona nota. Le aziende manifatturiere avranno bisogno di partner che possano aiutarle a implementare e a scalare rapidamente la tecnologia di produzione intelligente per raccogliere i benefici. Più i fornitori possono aiutare le imprese a ottenere il massimo dalle loro attuali strutture di costo per finanziare questo nuovo investimento digitale, maggiore sarà il valore aggiunto dei fornitori.

L’attenzione è focalizzata sul fronte dell’automazione e della flessibilità delle infrastrutture distribuite in un ambiente IT/OT sempre più interconnesso dove emerge un trend di crescita degli investimenti in smart manufacturing che sta portando molte aziende a optare per un nuovo modello di infrastruttura IT, orientata all’elaborazione dei dati in prossimità dei sistemi in cui vengono generati: è il modello noto come edge computing. Due le sfide progettuali che emergono con più frequenza, tra quelle messe in evidenza dai CIO interpellati: 1) come creare all’edge un’infrastruttura di alimentazione e gestione ambientale che garantisca alta resilienza attraverso la capacità di acquisire e analizzare i dati; 2) come scegliere una soluzione di protezione per edge computing completa di analytics predittivi e ottenere benefici tangibili e immediati.

DATI E PROCESSI

L’analisi degli esperti IDC Italy, frutto del confronto con CIO ed esperti impegnati in progetti di produzione smart orientati al futuro, ci guida nel comprendere meglio casi ed effetti dei riscontri che abbiamo raccolto. Lorenzo Veronesi, research manager d IDC Manufacturing Insights, conferma che la digitalizzazione di processi, prodotti e servizi prosegue incessantemente per cui IDC prevede che, già entro la fine dell’anno prossimo, mediamente il 46% del portafoglio di un’azienda sarà interamente digitale, o veicolato su canali e piattaforme digitali. «Il 2020 ha dimostrato come i processi “fisici”, quali fabbrica e supply chain, siano essenziali per garantire la resilienza operativa di fronte a shock globali di offerta e di domanda» – spiega Veronesi. «Aziende nei diversi segmenti del manifatturiero hanno investito per evitare che la fabbrica si trasformasse in un collo di bottiglia. In questa prospettiva, l’automazione è centrale in tempi in cui la presenza fisica del personale, in ufficio e in fabbrica, diventa difficile da gestire.

Una maggiore automazione – dall’RPA e lavoratori digitali all’automazione di fabbrica e robot – consente maggiore velocità, flessibilità, qualità e innovazione in tutti i processi aziendali. L’abilitazione di iniziative di eccellenza operativa di successo è legata però in modo sostanziale all’eccellenza dei dati. Le aziende che non prenderanno sul serio questa questione e non saranno in grado di scalare rapidamente la tecnologia attraverso le implementazioni industriali rischiano di essere messe fuori gioco. Dall’altro canto, le opportunità derivanti da un’integrazione ottimale dei dati possono contribuire a creare un vantaggio differenziante per ogni azienda. Purtroppo, l’integrazione tra dati e processi in tempo reale è molto complessa da realizzare. Come spiega Veronesi, i limiti sono diversi: «Qualità dei dati insufficiente e mancanza di standard universali a causa di sistemi legacy diversi, obsoleti e poco flessibili di più fornitori; mancanza di integrazione dei dati e proliferazione di silos di dati; poca prontezza organizzativa e ampia variazione nella visione di smart manufacturing tra funzioni e organizzazioni; mancanza di competenze digitali dei dipendenti.

LA SFIDA DELLA COMPLESSITÀ

È necessario pertanto ridurre questa super-complessità affinché i produttori possano essere in grado di integrare le soluzioni aziendali in modo sempre più “vicino” a dove si trovano i dati operativi«Le tecnologie Edge – riprende Veronesi – consentono di ridurre questa complessità e aggiungono vantaggi come una maggiore automazione IT, maggiori opportunità di collaborazione ma anche mantenere bassa la latenza nello scambio dei dati. L’Edge crea enormi opportunità per creare un tessuto di dati che può essere utilizzato dalle applicazioni aziendali. Molti fornitori stanno cercando di raggiungere questo continuum di capacità di elaborazione dalla macchina all’edge, al data lake e al cloud. Le applicazioni cloud, in particolare, devono essere sempre disponibili e affidabili, e in questo senso la continuità aziendale può essere ottenuta attraverso l’edge». Secondo i dati IDC, l’Europa occidentale generalmente conferma un’implementazione significativamente maggiore di tecnologie Edge rispetto agli anni passati. Circa il 50% delle aziende industriali ha investito o è in fase di investimento, con una fortissima predominanza delle aziende di maggiori dimensioni. A riprova di ciò, un’analisi di IDC sulla programmazione della recente fiera di automazione industriale Hannover Messe 2021, mostra come i temi cloud/edge siano stati tra i più frequentemente trattati (6% del totale degli interventi a fronte di un 10% dedicati al tema dell’automazione tout-court).

Leggi anche:  Da Selda arriva Registry: per le imprese, uno strumento contro la crisi

«Le applicazioni Edge – spiega Veronesi – come il calcolo a bassa potenza e le piattaforme integrate (Light Edge) e convergenti (Heavy Edge) sono generalmente adottate nei principali segmenti dell’industria manifatturiera, sebbene diverse catene del valore mostrino uno stile di distribuzione diverso».  Le aziende nei settori high-tech, per esempio, sembrano essere più focalizzate su “Heavy Edge”, che garantisce velocità e bassa latenza e apre la strada a processi di produzione software-defined. Aziende nel manifatturiero continuo di processo sono più focalizzate sul “Light Edge”, per garantire la visibilità degli asset e la pervasività del monitoraggio. Aziende nei settori del manifatturiero discreto e beni di largo consumo confezionati (CPG) mostrano un approccio equilibrato tra le due applicazioni. È interessante sottolineare ai lettori che le applicazioni – come il calcolo a bassa potenza (Light Edge) e le piattaforme integrate/convergenti (Heavy Edge) – presentino sfide diverse.

«Il primo richiede una scala di implementazione e un coordinamento organizzativo per passare dalla distribuzione pilota a quella pervasiva e far sì che i casi d’uso possano essere rilevanti per tutta l’organizzazione» – spiega Veronesi. «Al contrario, Heavy Edge richiede competenze tecniche approfondite e specifiche per i casi d’uso». Proprio da essi si ha la dimostrazione del potenziale molto significativo per investire ulteriormente in entrambe queste tecnologie per consentire casi d’uso trasformativi, quali il controllo della produzione in tempo reale, dalla visibilità fino alle fabbriche “zero touch” al monitoraggio e reporting di qualità avanzati, basati su un’ispezione visiva autonoma e l’abilitazione di modelli di business basati sui risultati e sulla raccolta di flussi di dati per l’esecuzione del servizio e la manutenzione predittiva.

RETI, DATI E CONNETTIVITÀ

L’edge computing è un paradigma di calcolo distribuito che porta il calcolo e lo storage più vicino al dispositivo stesso, invece di aumentare la densità all’interno di un data center. Ma non si tratta solo di questo. Il modello edge computing non vuole semplicemente spostare il problema dal centro verso la periferia, ma rendere più intelligente la gestione della rete e del dato. Ciò significa che ciascuna applicazione può essere scritta in maniera da tenere i dati che richiedono poca elaborazione sui nodi periferici, e invece mandare sul sistema centrale quelli che hanno bisogno di capacità elaborative elevate. Il rapido sviluppo dell’edge computing in Europa è ad oggi guidato da architetture/impianti combinati edge-cloud, che consentono un continuum di capacità di elaborazione e archiviazione dei dati dal cloud alle parti più remote delle reti dove si trovano gli endpoint. E all’interno di questo continuum un vasto spettro di attori sta diventando fondamentale facendo leva sulle proprie proposte o su alleanze e partnership, dai fornitori di infrastrutture agli attori del cloud ai fornitori di connettività e servizi. A questo proposito Dario Pagan, executive VP Global Digital & IT di Eni chiarisce come la cloud adoption non è in conflitto con gli obiettivi strategici dell’Edge. Al contrario, in linea con l’apertura al cloud la strategia ICT di Eni prevede l’adozione di tecnologie di edge computing, abilitate anche da nuovi scenari di connettività come il 5G, che sono ad oggi in fase di studio su diversi campi. Non solo. «Ci interessano – continua Pagan – varie applicazioni quali la sicurezza degli operatori in ambito Health Safety Environment (HSE), il supporto all’operatività di campo tramite VR/AR, la fraud detection attraverso computer visioning e lo smart building».

VELOCITÀ E SICUREZZA

Ma come le imprese devono affrontare e superare le principali sfide nei progetti di edge computing per lo smart manufacturing? Secondo Frank Murray, chief technology officer di Klas, le sfide da affrontare sono cinque: 1) l’uso inefficiente della larghezza di banda; 2) i colli di bottiglia della velocità; 3) i controlli limitati dei dati; 4) sicurezza/privacy inefficace; 5) nessun supporto per container/microservizi. Cominciamo dal primo. Se un’organizzazione ha un certo numero di dispositivi che producono collettivamente molti dati, l’organizzazione probabilmente vorrà archiviare quei dati nel cloud, ma inviare i dati grezzi al cloud direttamente dai dispositivi edge può essere difficile. In genere, le aziende concedono una maggiore larghezza di banda ai data center e una minore larghezza di banda agli endpoint, ma l’edge computing sta portando alla necessità di una maggiore larghezza di banda in tutta la rete.

E veniamo alla velocità. Le organizzazioni preferiscono le reti di connettività, come 5G, DSL o satellite, che danno priorità al throughput dal cloud all’edge, poiché la maggior parte delle applicazioni funziona in questo modo, mentre le reti edge vogliono spingere i dati nell’altra direzione. Di conseguenza, la velocità di uplink può causare un collo di bottiglia. Se si utilizza un cloud centralizzato per archiviare i dati e il cloud va giù, i dati diventano irraggiungibili fino a quando non vengono ripristinati i collegamenti, con conseguente potenziale perdita sul piano del business. Inoltre, poiché l’edge computing elabora e analizza solo insiemi parziali di informazioni, molte imprese tendono a perdere informazioni preziose. E sul fronte della sicurezza, il 66% dei team IT vede l’edge computing come una minaccia per le loro organizzazioni. Quando i dati vengono gestiti da diversi dispositivi, potrebbero non essere sicuri come in un sistema centralizzato o basato sul cloud, rendendo cruciale la comprensione delle potenziali vulnerabilità di sicurezza intorno a questi dispositivi, e assicurando che i sistemi possano essere completamente protetti. Per quanto riguarda container e microservizi, a differenza di un container cloud tradizionale, i container edge possono essere distribuiti in parallelo a punti di presenza (PoP) geograficamente diversi, ma con molti container sparsi in molte regioni, è necessaria un’attenta attività di pianificazione e monitoraggio. La soluzione edge più efficiente – nella visione di Murray – integra i tre componenti, costituiti da calcolo, connettività e storage, come una singola scatola. Attualmente, le soluzioni edge si concentrano su casi d’uso specifici dell’applicazione, che sono ideali quando non ci sono altri sistemi. Affinché l’edge diventi il nuovo standard, deve offrire la flessibilità necessaria per supportare nuovi sistemi e inglobare i sistemi legacy.

Leggi anche:  Al via il sistema per il monitoraggio delle infrastrutture di Autostrade per l’Italia basato su AI e IoT

ARCHITETTURE APERTE

Secondo Murray, il modo migliore per superare questi ostacoli è quello di impiegare una piattaforma ad architettura aperta in grado di ridurre lo sprawl tecnologico, le potenziali debolezze ed esposizioni di sicurezza, così come i costi. Minimizzare la complessità dell’architettura del sistema è la chiave. I fondamenti di un’architettura open edge sono la modularità e l’apertura. È imperativo avere la capacità di connettersi a qualsiasi interfaccia di rete o dispositivo di comunicazione, come cellulare, Wi-Fi, LoRA o GPS, così come avere la capacità di eseguire più stack software unici come un’entità omogenea, compresi firewall, apprendimento automatico, telemetria o analisi dei dati. La vision di Murray si completa con le funzionalità chiave di un’architettura aperta: virtualizzazione, ruggedization, supporto multi-carrier, connettività privata, principio del minimo privilegio. Cominciamo dalla virtualizzazione per rimuovere la necessità di risorse di calcolo disparate. Una singola piattaforma di calcolo può essere condivisa e segmentata per l’esecuzione sicura di tutte le applicazioni, sia nuove che legacy. Le applicazioni legacy in particolare fanno risparmiare tempo e denaro per lo sviluppo e forniscono uniformità tra le reti, quindi la virtualizzazione è fondamentale. Scegliere un partner hardware che offra le necessarie certificazioni di conformità e sicurezza, e che possa funzionare bene in qualsiasi ambiente, diventa quindi fondamentale.

Inoltre occorre minimizzare l’esposizione alla perdita di connettività, lavorando con più operatori di rete mobile pubblici e privati, provider Wi-Fi e provider satellitari. Inoltre occorre implementare una rete overlay. Indipendentemente, dal fornitore di backhaul, un percorso sicuro per le applicazioni cloud e SaaS è sempre disponibile. Infine, è necessario implementare protocolli di sicurezza che segmentano i dati, il controllo e i piani di amministrazione. Per esempio, un data scientist ha accesso all’intelligenza della macchina, l’IT può gestire la sicurezza e il CIO può gestire il nodo edge.

L’ALLEANZA TRA EDGE E AI

Quello tra Edge e intelligenza artificiale è un matrimonio di estrema convenienza per lo Smart Manufacturing. Il nostro viaggio ideale si chiude con uno sguardo alla tecnologia Edge-AI. Ne abbiamo trovato un esempio interessante nel progetto “AI SPRINT: An EU perspective on the future af AI and Edge computing” coordinato dal Politecnico di Milano. AI-SPRINT va oltre il supporto allo sviluppo di applicazioni AI, consentendo la progettazione e la partizione senza soluzione di continuità di applicazioni AI, fornendo garanzie di sicurezza e privacy dal punto di vista dei sistemi e delle infrastrutture.

Matteo Matteucci, professore ordinario del Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano spiega come e dove l’infrastruttura del progetto supera il vecchio modo di lavorare, e dove IoT e dati risultano separati l’uno dall’altro. Questo approccio non è più fattibile a causa della maggiore complessità dei sistemi. Non è possibile pensare allo sviluppo di ingegneria e AI come compiti totalmente separati, e diventa cruciale la necessità di centralizzare i dati. Sfide come queste possono essere superate usando un approccio di apprendimento federato. In questo modo, nuovi modelli di progettazione automatica dell’AI possono progettare nuove architetture ottimizzate per il continuum del cloud computing, riducendo la domanda di risorse per la messa a punto di iper-parametri. Inoltre, il continuum del cloud computing supporta la distribuzione degli algoritmi di formazione, sfrutta le risorse di edge computing che sono vicine ai dati e aumenta la privacy dei dati.

Danilo Ardagna, professore associato del Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano, e coordinatore scientifico del medesimo progetto, spiega inoltre come i sistemi di intelligenza artificiale possono essere eseguiti nell’edge computing per consentire l’analisi di un’enorme quantità di dati. Quando si elaborano grandi volumi, la capacità dell’infrastruttura di calcolo sostenuta da sistemi cloud e IoT diventa più complessa a causa dell’eterogeneità dei dati, della mancanza di competenze ingegneristiche e dei processi di sviluppo non strutturati. Per superare questi problemi, AI-SPRINT prevede di sviluppare un framework runtime di progettazione integrata con l’obiettivo di fornire modelli di programmazione semplificati per abbassare il tempo necessario per lo sviluppo di nuove applicazioni AI. Il matrimonio fra AI ed Edge computing è celebrato e pronto a dare innumerevoli frutti.