Portare la GenAI in azienda richiede pianificazione accurata, approccio strategico, framework e strumenti adeguati e, soprattutto, dati di qualità e protetti. Chi riesce a integrare con successo questa tecnologia nei processi può beneficiare di un importante vantaggio competitivo

La fotografia è nitida, per quanto soggetta ai cambiamenti e alle dimensioni del fenomeno: la spesa per le soluzioni di AI generativa supererà quest’anno i 40 miliardi di dollari in tutto il mondo ed è destinata a superare i 150 miliardi entro il 2027, con un tasso di crescita annuo dell’86% a partire dal 2022. Lo dicono le previsioni più recenti di IDC, che eleggono il mondo bancario a locomotiva degli investimenti in strumenti per l’automazione di attività e processi, il miglioramento della customer experience e l’aumento della redditività attraverso la riduzione dei costi e la generazione di ricavi in tutte le funzioni aziendali. Campagne di marketing personalizzate e gestione dinamica dei prezzi dei servizi offerti sono solo due degli esempi di applicazione dell’intelligenza artificiale generativa, a cui si affianca l’impiego dei modelli linguistici di grandi dimensioni (LLM) per rendere più fluido ed efficace il reperimento delle informazioni, il processo decisionale e l’assistenza clienti. Tornando ai numeri, il giro d’affari delle tecnologie generative rappresenterà da qui a tre anni il 29% della spesa complessiva in soluzioni di intelligenza artificiale, con un aumento significativo rispetto al 10,8% rilevato a fine 2023.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

I SETTORI PIÙ IMPATTATI

L’AI generativa può contribuire a un significativo miglioramento della produttività delle imprese italiane lungo tutta la catena del valore, arrivando a generare un valore aggiunto incrementale (potenziale) stimato in circa 50 miliardi di euro entro il 2030, cifra che potrebbe incrementarsi di ulteriori 30 miliardi grazie all’estensione del “Made in Italy” a settori come la meccatronica, la farmaceutica e la chimica e che si riflette nella possibile creazione, nei settori manifatturieri interessati, di circa 300 mila nuovi posti di lavoro.

Quelle appena descritte sono alcune delle principali evidenze emerse dallo studio di Accenture in collaborazione con Agenzia ICE e Confindustria, intitolato “Strategie per la valorizzazione del brand Italia e del Sistema Paese”, che ha analizzato i comparti più importanti dell’economia tricolore anche in chiave export, vale a dire tessile-abbigliamento, alimentari-bevande, legno-arredo, nautica, ceramica e oreficeria. La posta in gioco derivante dall’incremento della produttività e il conseguente positivo impatto sul PIL – come si legge nel rapporto – sarebbe in buona parte assicurato dalla messa a sistema dell’adozione dell’intelligenza artificiale generativa e da contestuali ed opportune politiche di sviluppo delle competenze necessarie. Gli investimenti in tecnologia, e in particolare quelli destinati all’AI, saranno quindi essenziali per colmare i gap accumulati in alcuni settori e potenziare il “genio italico” in ogni fase della catena del valore: l’apporto delle nuove tecnologie degli algoritmi potrebbe risultare determinante in ambiti quali il design di collezioni e prodotti – dove la GenAI può facilitare in modo esponenziale il lavoro creativo, grazie alla capacità di aggregare e combinare dati – oppure la manifattura a livello di piccole e medie imprese, che risulterebbe più facilmente ottimizzata grazie a ”gemelli digitali” in grado di offrire una rappresentazione dello stato dei macchinari per monitorarne in tempo reale il funzionamento. Gli operatori del commercio al dettaglio, a loro volta, stanno progressivamente sposando i dettami del paradigma data-driven attraverso iniziative che si focalizzano su nuove opportunità di guadagno e sulla creazione di valore dal coinvolgimento in tempo reale e contestualizzato del cliente.

Se i vantaggi e i benefici derivanti dall’adozione della GenAI sono molteplici e trasversali a tutti i settori e a tutte le industry (PA compresa), i macro-ambiti aziendali più sensibili e maggiormente impattati sono il customer care e le customer operations, l’area HR e il marketing, l’IT e il back office in genere. Alcune grandi aziende italiane stanno infatti già applicando la GenAI per attività di reporting e di business intelligence, ottenendo un livello di accuratezza dei risultati prodotti e tempi di esecuzione decisamente migliorativi rispetto al recente passato. Altre stanno automatizzando i processi di marketing, creando i presupposti per ottenere efficienze di costo nell’ordine del 30% nel giro di tre anni.

Altrettanto significativi sono i benefici nell’ambito dell’assistenza clienti derivanti dall’utilizzo di un assistente vocale telefonico in grado di gestire in completa autonomia il 40-50% delle conversazioni o di chatbot virtuali da affiancare agli operatori del customer care per ridurre le chiamate in ingresso a basso valore. Nel campo delle risorse umane, invece, la GenAI può migliorare in modo sostanziale il matching fra domanda e offerta di competenze e aiutare a definire percorsi formativi e di carriera personalizzati.

Non mancano, infine, progetti relativi alla sfera normativa in ambito pubblico, dove portare l’AI a scala può generare un impatto enorme in termini di miglior servizio ai cittadini. La natura trasformativa delle tecnologie dell’intelligenza artificiale e l’impatto che esse possono esercitare sui vari settori verticali trovano ulteriore riscontro anche in uno studio condotto su scala internazionale da Dell Technologies. Le risposte fornite da 6.600 responsabili IT e decisori di business di aziende di 40 diversi paesi suggeriscono che, sebbene vi sia un diffuso ottimismo nei confronti dell’AI e della GenAI, il grado di preparazione delle imprese varia notevolmente rispetto al rapido ritmo del cambiamento. Tra le sfide che i manager devono affrontare per promuovere l’innovazione all’insegna di machine learning e modelli LLM, spiccano la mancanza di talenti e quindi di competenze, insieme alle preoccupazioni riguardanti la privacy, la sicurezza dei dati, la proprietà intellettuale e le limitazioni di budget. Considerato lo scenario di rifermento, le aziende stanno vivendo la fase iniziale di questa rivoluzione annunciata e affrontando gli aspetti pratici legati al passaggio fra ideazione e implementazione della tecnologia.

Leggi anche:  Più di un racconto, un’esperienza

Man mano che aumenta il livello di adozione, i dubbi si concentrano sempre più sulla comprensione dei rischi specifici e su chi debba assumersi la responsabilità di eventuali malfunzionamenti o comportamenti indesiderati dell’AI. Cogliere l’opportunità di generare valore e competitività attraverso le soluzioni che sfruttano l’AI e i LLM è dunque possibile, ma richiede tassativamente basi tecnologiche sicure, scalabili e progettate tenendo conto della sostenibilità.

INFRASTRUTTURE IT DA RIPENSARE

Secondo un’altra recente indagine di IDC, quasi otto aziende su dieci hanno dichiarato di ritenere le infrastrutture digitali una componente “importante” o “mission critical” per il successo delle proprie iniziative di business. La stessa indagine ha rivelato che i principali driver delle attuali strategie aziendali in ambito infrastrutturale sono l’adozione dell’intelligenza artificiale generativa, il miglioramento della produttività e della fidelizzazione dei dipendenti, e l’ottimizzazione dei budget e dei ricavi.

Il messaggio che arriva dagli esperti è dunque ancora una volta abbastanza esplicito: nei prossimi 18 mesi, la GenAI sarà il principale motore della spesa per l’aggiornamento e il potenziamento degli apparati che costituiscono i pilastri dell’azienda agile e resiliente e gestiscono i grandi carichi di lavoro e le applicazioni che richiedono elevate capacità di elaborazione di enormi volumi di datI. Più nel dettaglio, gli investimenti nelle infrastrutture digitali per l’AI generativa supereranno i 18 miliardi di dollari nel 2024 e cresceranno fino a quasi 50 miliardi entro il 2027.

Il fattore real-time delle applicazioni dell’intelligenza artificiale generativa costringerà dunque molte aziende a rivalutare le priorità relative alle proprie piattaforme digitali, tanto che entro i prossimi tre anni il 40% delle imprese si affiderà ad architetture IT interconnesse tra cloud, core ed edge per assicurarsi priorità di flusso di lavoro dinamiche ed indipendenti dalla posizione geografica.

Molte imprese – conferma il rapporto di IDC – stanno già esplorando attivamente soluzioni per integrare le tecnologie generative nelle proprie attività e operazioni IT. Tuttavia, la maggior parte di queste aziende deve fare i conti con un’infrastruttura esistente non ancora pronta a supportare la quantità di dati e le risorse necessarie – cloud, data center e postazioni edge – per gestirli e organizzarli adeguatamente.

Per avere successo con l’AI generativa e sfruttarne appieno le potenzialità – avvertono gli analisti – è necessario che le diverse componenti dell’infrastruttura funzionino ai massimi livelli di orchestrazione e sincronizzazione. La rapidità di sviluppo e adozione di questa tecnologia richiede infatti architetture di nuova generazione ottimizzate per il flusso di lavoro, piuttosto che focalizzate sul carico di lavoro.

Gli ambienti IT di nuova generazione saranno altamente automatizzati, dinamicamente scalabili e governati sulla base di metriche prestazionali e dell’utilizzo (e relativi costi) delle applicazioni end-to-end in tempo reale. Questi ambienti, inoltre, saranno soprattutto interconnessi, abilitando l’utilizzo senza soluzione di continuità di più piattaforme e traendo maggior beneficio dalle tecnologie AI di nuova generazione.

L’infrastruttura dati rappresenta un asset altrettanto cruciale sin d’ora, e lo sarà sempre di più in futuro: in relazione allo sviluppo delle soluzioni di GenAI in azienda, dovrà essere scalabile come mai in passato per poter dare continuità al processo di innovazione. Al di là dei modelli (on premise o ibrido) eletti a preferiti per affrontare le sfide imposte dall’utilizzo sistemico dell’intelligenza artificiale generativa, i dati sono considerati pressoché da tutti gli IT manager il fattore di differenziazione, e per questo vanno adeguatamente protetti.

DATI OMOGENEI PER UN’AI SICURA

La cybersecurity riveste del resto un’importanza di grande rilievo sulle direttrici di spesa in tecnologie a supporto dei processi di trasformazione digitale. L’accelerazione di tali processi, sulla quale si è innestata la corsa all’adozione degli strumenti di intelligenza artificiale generativa, hanno reso la sicurezza dei dati un requisito assolutamente essenziale per operare in modo affidabile ed efficiente. Ed è la natura stessa dell’innovazione tecnologica, per definizione estremamente dinamica, che impone un approccio alla cybersecurity orientato alla continua revisione ed al continuo adattamento, al fine di mantenere un equilibrio ottimale tra la protezione di dati, sistemi e applicazioni e l’usabilità degli stessi.

Se guardiamo alla componente economica, recenti rilevazioni sempre di IDC ci dicono che l’impatto sui budget per la sicurezza informatica dell’intelligenza artificiale alimentata dai modelli LLM è strettamente correlato alle dimensioni dell’azienda (arrivando fino al 30% nelle organizzazioni con oltre 5000 dipendenti) e porterà il livello della spesa in Europa a crescere di oltre il 12% nel 2024, continuando ad aumentare a due cifre anche negli anni a venire per toccare quota 84 miliardi di dollari entro il 2027. Una tendenza molto chiara, che sottolinea – secondo degli esperti – la duplice pressione che le organizzazioni aziendali devono oggi affrontare: da un lato l’obbligo di proteggere l’utilizzo e lo sviluppo di applicazioni GenAI e dall’altro sfruttare la stessa tecnologia come componente di valore integrata nelle soluzioni di sicurezza informatica.

«Le AI generative stanno rivoluzionando il modo in cui le aziende cercano e producono le proprie informazioni» – spiega Alberto Leporati, professore associato dell’Università degli Studi di Milano-Bicocca e membro del comitato scientifico di CLUSIT con delega per l’intelligenza artificiale. «Sia nel caso delle grandi imprese sia in quello delle piccole che operano nei settori tecnologici e di avanguardia, è importante utilizzare tutti gli strumenti che queste tecnologie ci offrono per non rischiare di rimanere indietro, tuttavia, occorre essere coscienti del fatto che la loro adozione porta con sé, oltre agli innegabili vantaggi, anche alcune sfide e rischi da affrontare». Andando per ordine, il primo passo è comprendere le finalità d’uso delle GenAI in azienda. Attualmente – come conferma il docente di UNIMIB – vengono utilizzate soprattutto per produrre riassunti di testi, presentazioni aziendali e per effettuare ricerche bibliografiche. In un prossimo futuro, invece, è lecito aspettarsi che verranno impiegate sempre di più al posto dei motori di ricerca, per sostituire gli esseri umani nell’esecuzione di compiti semplici e ripetitivi, e per rendere più veloce la scrittura di applicativi software. Un elemento che accelera l’utilizzo di questi strumenti è la possibilità di interagire con essi tramite la voce, parlando in modo fluido e naturale.

Leggi anche:  L'IA e il futuro del contact center secondo Minsait

«I problemi principali legati all’utilizzo delle intelligenze artificiali generative – continua Leporati – riguardano la protezione dei dati e della proprietà intellettuale, la tutela della privacy delle persone, l’affidabilità e l’esplicabilità delle risposte ottenute dagli algoritmi e il pregiudizio. Il tutto calato in un ambito legale che è in costante divenire». Quando si tratta di salvaguardare l’integrità delle informazioni e del copyright aziendale, è necessario tener presente che per addestrare i Large Language Models serve un’enorme quantità di dati e difficilmente un’azienda, anche se di grandi dimensioni, potrà crearsi un proprio modello LLM a partire da zero, avvalendosi quindi di modelli addestrati con contenuti presi da Internet. Ed è questo – secondo l’esperto – il punto chiave. «Poiché i modelli aggiornano continuamente le proprie informazioni mentre vengono utilizzati, è essenziale che dal momento in cui si inizia ad alimentare il modello con le informazioni della propria organizzazione tale modello non sia più accessibile da altri».

Le AI generative tendono a includere nelle loro risposte dati che sono stati loro forniti in precedenza e il problema si pone quando le informazioni fornite da un’azienda durante un’interrogazione all’AI generativa vengono riproposte all’interno della risposta data a un’altra azienda. La stessa situazione si presenta per quanto riguarda la privacy dei dipendenti: tutti devono essere coscienti del fatto di non fornire mai dati o informazioni personali in fase di interrogazione dell’AI generativa e nel caso in cui il modello LLM utilizzato fosse ospitato in un ambiente cloud, diventa necessario prestare attenzione alla connettività di rete per evitare l’indisponibilità del servizi e i conseguenti danni economici, esattamente come avviene nel caso di un ERP in cloud.

LA RICETTA DELL’AFFIDABILITÀ

L’affidabilità (anzi la non affidabilità) delle risposte restituite dalle AI generative sono l’altra faccia della sicurezza associata a questa tecnologia. Le cosiddette “allucinazioni”, che consistono in risposte generalmente false o addirittura assurde per le quali non è possibile risalire alle fonti, sono un problema a cui porre rimedio. A questo proposito deve essere chiaro al management che un’intelligenza artificiale generativa va intesa come uno strumento che affianca le persone e le aiuta a prendere decisioni ma non le va a sostituire. E vi sono espliciti motivi che lo confermano. «Anzitutto – spiega ancora Leporati – una decisione presa su informazioni sbagliate potrebbe creare dei danni all’azienda, anche solo di natura reputazionale. Deresponsabilizzare le persone nel prendere le decisioni, inoltre, può portare a un degrado delle loro competenze, e a una conseguente perdita di valore del capitale umano dell’azienda. D’altra parte, numerose ricerche dimostrano che abbinare l’AI alle persone produce risultati migliori rispetto all’utilizzo delle sole persone o della sola intelligenza artificiale». Nell’interazione con una GenAI, inoltre, è possibile chiedere di verificare le fonti relative alle risposte fornite e di ripercorrere i passi logici che hanno portato a suggerire una certa decisione: ecco dunque spiegata perché l’esplicabilità sia una componente imprescindibile, perché in assenza di essa ogni risposta fornita dall’intelligenza artificiale deve essere considerata sospetta. Non va dimenticato, infine, che le risposte potrebbero essere soggette a pregiudizio, e questo dipende da come l’AI è stata addestrata e di conseguenza da quali dati sono stati utilizzati per alimentare modelli LLM che potrebbero replicare i bias esistenti nei dati di partenza, portando ad output distorti o inappropriati.

La ricetta per ovviare a questi ostacoli – secondo Leporati – è ben definita. «È necessario diversificare i dati di addestramento, assicurandosi che siano rappresentativi di diverse categorie e tipologie di argomenti, ed è altrettanto necessario definire linee guida etiche nello sviluppo dell’AI, in particolare nella raccolta dei dati e nella creazione o nel fine tuning dei modelli, per evitare il rischio di perpetuare gli stereotipi». Infine c’è un ulteriore aspetto di sicurezza di cui tenere conto ed è la robustezza dei modelli rispetto ai cosiddetti “adversarial prompt”, ossia la capacità di resistere a input volontariamente fuorvianti. Per curare tutti questi aspetti, è buona cosa che ogni azienda si doti di un team di esperti di cybersecurity specializzati nell’utilizzo di strumenti di intelligenza artificiale.

Per cogliere i vantaggi delle intelligenze artificiale generative e prevenirne gli effetti dannosi è dunque essenziale che il loro utilizzo avvenga in maniera consapevole e responsabile. E c’è un aspetto, alla base di questo approccio virtuoso, che – secondo Leporati – risulta fondamentale: la formazione di tutto il personale, a partire dal management che prende le decisioni fino agli utenti (sia regolari che occasionali) degli strumenti di GenAI. «Qualsiasi impresa deve sempre mettere al centro l’uomo nei processi decisionali sia come responsabilità che come elemento di controllo sulle risposte date dall’AI generativa, e deve rimanere aggiornata e conforme rispetto a una regolamentazione in continua evoluzione. Per questo motivo, è essenziale avere a disposizione anche un team legale esperto nelle tematiche relative all’intelligenza artificiale, così da poter affrontare anche da questo punto di vista i rischi legati alla privacy, alla proprietà intellettuale e alla tutela della reputazione».

Leggi anche:  Samsung, Galaxy IA in Cina sostituisce Google con Baidu

I GAP DA COLMARE

Molte aziende che ancora non hanno compiuto il primo deciso passo verso le tecnologie GenAI si stanno probabilmente chiedendo come si progetta e si sviluppa (e come si integra nei sistemi esistenti) l’intelligenza artificiale. A tale domanda non c’è una risposta univoca e buona per tutte le occasione ma un insieme di risposte. Un white paper realizzato da Cefriel, il centro di innovazione digitale fondato dal Politecnico di Milano, può essere una valida guida del percorso da seguire per assicurarsi una transizione di successo da una fase sperimentale dell’uso dell’intelligenza artificiale all’industrializzazione di soluzioni basate su AI. Disporre di una chiara metodologia di approccio alla progettazione di soluzioni di questo tipo, e tenendo in debita considerazione la compliance con quanto stabilito di recente dell’AI Act, è il primo tassello su cui fare leva per passare da una fase di sperimentazione a una di rilascio in produzione di applicazioni basate sulle tecnologie dell’intelligenza artificiale.

Le imprese che desiderano sfruttare al massimo le opportunità offerte dall’AI devono quindi comprenderne il ciclo di sviluppo e fare proprie alcune importanti distinzioni rispetto alle pratiche tradizionali di sviluppo del software. Il punto focale della questione – come spiegano gli autori del white paper – è comprendere l’importanza che assumono i dati: lo sviluppo di un modello basato su apprendimento automatico non richiede allo sviluppatore di programmare un algoritmo per risolvere un determinato problema, ma di definire le modalità di apprendimento del modello di AI fornendo dati opportunamente selezionati e verificando i risultati ottenuti mediante una severa fase di test. Mentre lo sviluppo software tradizionale tende a privilegiare metodologie strutturate e pianificate, la creazione dei modelli di machine learning è caratterizzato da un approccio maggiormente iterativo e sperimentale, intrinsecamente fatto di tentativi ed errori come parte integrante del processo di apprendimento e di ottimizzazione. E se, infine, la scrittura di software convenzionale è basato su algoritmi e regole che producono risposte in linea di principio prevedibili e ripetibili, i modelli di intelligenza artificiale generano una risposta probabilistica e richiedono la formazione degli utenti finali per aumentare la consapevolezza e la confidenza nell’utilizzo di questi sistemi. Ci sono quindi altri elementi da considerare attentamente nel ciclo di vita dell’AI. Secondo gli esperti di Cefriel, il ciclo di vita può essere definito come “un processo iterativo che parte da un problema di business e arriva a una soluzione basata su intelligenza artificiale, capace di risolvere quel problema”.

Lo sviluppo di applicazioni complesse, per esempio, necessita di una preventiva valutazione generale del rischio, fase che assume ancor più importanza alla luce della normativa europea sull’AI, mentre per quanto riguarda la fase di analisi diventa fondamentale la selezione delle fonti dati. Senza una chiara comprensione dei dati richiesti e della loro composizione, in altre parole, non è possibile realizzare nulla: l’approccio più efficace per ridurre le percentuali di insuccesso prevede una stretta collaborazione fra i rappresentanti del business e quelli dell’IT con l’obiettivo non solo di identificare i dati, ma anche di strutturarli in un modello che evidenzi le relazioni fra la base informativa esistente e le esigenze del business rispetto al caso d’uso preso in esame. Quanto alle linee guida in fatto di architettura applicativa, l’indicazione da seguire guarda alle buone pratiche di ingegneria del software: un’architettura “a strati” ben pensata, che prevede l’isolamento del modello di AI dagli altri componenti applicativi, renderà più semplice la manutenzione in esercizio, facilitando la determinazione della causa degli eventuali problemi e l’evoluzione applicativa.

Un aspetto specifico delle applicazioni basate sull’intelligenza artificiale riguarda l’ambiente di sperimentazione e sviluppo. L’addestramento dei modelli di AI richiede notevoli risorse di memoria e calcolo, e presenta requisiti tecnici distinti rispetto all’ambiente di produzione dove verrà effettivamente installata l’applicazione finale. La linea che demarca i progetti di intelligenza artificiale di successo da quelli che possono finire male è dunque molto sottile, e conferma un paradigma a cui tutte le aziende devono tendere: lo sviluppo responsabile dell’AI deve diventare un obiettivo primario, dove il processo di verifica assume un ruolo centrale.


Dati non strutturati? Altilia ha la soluzione

EOS Solutions: Portare l’AI in azienda. Strategie, opportunità e sfide

smeup: L’intelligenza artificiale, algoritmi, produttività e competenze per il futuro