Pipeline orchestra la gestione della produzione

Pipeline, l’intelligenza gestionale per l’Industry 4.0

L’innovazione tecnologica a supporto dei processi in settori strategici ma molto controllati. Grazie alla piattaforma Parcel, Pipeline coniuga il potenziale dei dati e l’agilità del cloud

Da quasi trent’anni, Pipeline lavora per portare innovazione a enti e aziende, attraverso tecnologie in grado di generare valore e dare un contributo misurabile in termini di crescita e trasformazione. Una sfida che diventa ancora più importante quando si parla di un settore industriale come quello farmaceutico e chimico, in cui i processi sono certificati e convalidati. Infatti, ogni singolo aspetto del processo che si va a ottimizzare e innovare deve seguire le good practices (GPM) specifiche dall’inserimento degli ordini di vendita fino al magazzino, passando per la logistica, la produzione, l’analisi di laboratorio, la tracciabilità, la gestione lotti e la fatturazione. Problematiche che Pipeline conosce bene e che Giuseppe Nocita, amministratore delegato di Pipeline, ci spiega nel dettaglio.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

«Abbiamo registrato un incredibile impulso all’evoluzione digitale delle imprese che hanno potuto accedere, con investimenti mirati e modulabili, a capacità di calcolo e archiviazione, fino a pochi anni prima esclusivo appannaggio di poche realtà di livello enterprise. Un cambiamento di paradigmi e di distribuzione delle risorse tecnologiche – commenta l’AD –trova uno dei fattori principali di sviluppo nell’uso di piattaforme cloud ibride, private e, dove possibile, pubbliche che ci mettono a disposizione strumenti di crescita a grande potenziale». Un percorso iniziato in tempi quasi pioneristici con la scelta del cloud di Microsoft di cui Pipeline è Gold Partner. «L’opportunità era gigantesca: spazi per basi dati e scalabilità di calcolo fino a quel momento sostanzialmente inaccessibili. Oggi, la sfida è di orchestrare le varie funzionalità con un’attenzione particolare alla integrità dei dati».

NUOVA LOGICA APPLICATIVA

La domanda che sorge spontanea e che poniamo quindi a Nocita è in che modo le aziende farmaceutiche e chimiche possono utilizzare queste innovazioni tecnologiche. La risposta è immediata: «In Pipeline, tramite la piattaforma standardizzata Parcel Enterprise Orchestrator, nata per limitare i costi operativi, utilizziamo gli strumenti presenti in Microsoft Azure e con Power BI, per rendere accessibili a un vasto insieme di utenti i dati che aggreghiamo». Dati provenienti da database di vario tipo, da quelli di utilizzo di principi attivi con indicazioni geografiche, a quelli con statistiche di vendita, alle informazioni socio-demografiche sempre nel rispetto dell’anonimato tipico dei data set Big Data. Lo sviluppo della piattaforma applicativa è passato dalla logica ERP a quella più estesa di “enterprise orchestrator” in grado di armonizzare tutti i flussi operativi. Grazie alle possibilità di Azure, con criteri specifici di valutazione delle fonti utilizzate – sia interne che eventualmente pubbliche – Pipeline gestisce il dato grezzo per ottenere aggregazioni dinamiche di qualità. Ecco allora che – «il cloud consente di collezionare, per esempio, dati provenienti dalla produzione e dal controllo di qualità, valutando le performance produttive per trovare aree di miglioramento e di risparmio».

Leggi anche:  Hitachi Vantara presenta Pentaho+

NUOVE FUNZIONI DI MACHINE LEARNING

L’IoT nella sua declinazione industrial sta determinando un arricchimento enorme nella quantità e qualità di dati di fabbrica, che permette di trasformare un obbligo di rendicontazione del processo in una collezione di dati, confrontabili e relazionabili» – spiega Nocita. Su questo insieme di dati, utilizzando le funzioni di machine learning, anch’esse mutuabili da Microsoft Azure, è possibile determinare percorsi di risposta intelligenti, creando scenari teorici di possibili produzioni alternative. «Anche in questo caso, Parcel Enterprise Orchestrator serve da base logica e da consolidamento dei dati generati dagli scenari AI, costituendo dei modelli di possibili scenari confrontabili con record fattuali, attraverso una connessione back-to-back con i sistemi presenti in azienda».