L’intelligenza artificiale per il business

L’intelligenza artificiale per il business

L’informatica cognitiva è uno spostamento tettonico che scuote il mondo del lavoro e i modelli di sviluppo, fuori e dentro le imprese. Governi e aziende si stanno preparando per affrontare la sfida dell’intelligenza artificiale. In Italia, tutti ne parlano, ma il Paese è ancora indietro e non esiste una strategia chiara e condivisa

Ecco ci siamo. L’informatica cognitiva è una realtà per il business delle imprese. Machine learning e deep learning ridefiniscono le logiche mainfraime, server e storage. Dopo aver costruito i data lake, sviluppato analytics real-time e on-demand che poggiano su cloud ibridi, l’intelligenza artificiale (AI) scarica a terra il potenziale di applicazioni dalle infinite possibilità e con conseguenze difficili da prevedere. Potenza e storage sono le condizioni necessarie, però da sole non bastano. Ci vuole anche una data strategy efficace per fare circolare i dati, renderli accessibili e utilizzabili da tutti come le matite sulla scrivania. L’IT deve fare sempre i conti con le strategie che cambiano. E l’infrastruttura deve essere agile, in quanto fattore abilitante, altro che commodity. Elementare, Watson ! Verrebbe da dire, se non si corresse il rischio di cadere nell’equivoco. Del resto, da più di vent’anni si parla di intelligenza artificiale applicata al business. Oggi, l’intelligenza artificiale è seminata in centinaia di applicazioni, dalle più semplici a quelle più complesse, che vengono utilizzate ogni giorno dalle persone in tutto il mondo. Alcuni vendor IT le hanno cambiato nome per renderla più sexy, spaventare meno gli apocalittici, e tenere a bada gli scettici.

Dall’occhio di HAL 9000 del capolavoro di Stanley Kubrick o dal bullonato e minaccioso Terminator anni Ottanta di James Cameron, siamo passati alle più seducenti curve di Scarlett Johansson, agente-cyborg nel film di Rupert Sanders. Anche questo significa qualcosa. Bisogna dire però che rispetto a venti anni fa, le condizioni sono cambiate sia in termini di ecosistema operativo sia di costi. L’intera IT sta evolvendo verso frontiere completamente nuove, dove ogni cosa è connessa, e dove l’intelligenza artificiale sarà sempre più distribuita, superando la logica del centro di comando e mettendo a sistema la potenza dei microprocessori, quella dei dispositivi di memoria e la forza del networking.

UNA ROAD MAP PER LO SVILUPPO

Iniziamo dal Piano Nazionale Industria 4.0 del ministero dello Sviluppo economico con cui sono stati annunciati 13 miliardi di euro in tre anni a sostegno dell’innovazione digitale. Il piano prevede misure di incentivazione fiscale degli investimenti su tutti i “nove pilastri” della quarta rivoluzione industriale, compresa “l’adozione di macchine intelligenti, interconnesse e collegate a Internet”. Nell’elenco delle misure, non si parla però in modo esplicito di intelligenza artificiale né sono previste raccomandazioni su come affrontare questo paradigma tecnologico nella fase di transizione. A San Francisco, nel 2015, Elon Musk (fondatore di Paypal, Solar City, Tesla Motors, SpaceX), Sam Altman (presidente di YCombinator), Peter Thiel (fondatore di Paypal, Palantir e primo investitore di Facebook) insieme ad alcuni altri soci, hanno fondato la società non-profit Open AI con l’obiettivo di comprendere gli effetti del potere delle macchine e di prevenire le conseguenze negative per la società. Nello stesso anno, è stato pubblicato il manifesto dell’intelligenza artificiale con una lista di 23 principi fondamentali che dovranno guidare la crescita e lo sviluppo nei decenni a venire. Tra i firmatari ci sono Demis Hassabis (fondatore e CEO di DeepMind), Ray Kurzweil (direttore della ricerca di Google), Nils Nilsson (presidente dell’AAAI e professore di Stanford), Francesca Rossi (Università di Padova), Tomaso Poggio (MIT), insieme a una task force di cervelli, ricercatori, scienziati e leader del settore tecnologico, del calibro di Stephen Hawking, Gill Pratt, Jaan Tallinn e lo stesso Elon Musk. Nel 2016, il Governo degli Stati Uniti ha pubblicato un rapporto di 55 pagine che ha dettato le linee guida per prepararsi al futuro dell’intelligenza artificiale. Di fatto, i progressi del cognitive computing stanno aprendo nuovi mercati e nuove opportunità. Nel rapporto, si legge che l’automazione AI-driven contribuirà a far espandere l’economia. La crescita però non sarà a costo zero e sarà accompagnata da forti cambiamenti strutturali. Insomma, bisogna essere pronti. Intanto, l’annuncio dell’investimento di 150 milioni di dollari da parte di IBM per soluzioni di cognitive health che finiranno allo Human Technopole di Milano è sicuramente una buona notizia. Nella speranza finalmente che l’Italia possa «parlare con una voce sola» – come ha dichiarato il sottosegretario allo Sviluppo Economico, Ivan Scalfarotto.

LAVORI IN CORSO

Qualcuno invece di parlare di intelligenza artificiale preferisce posizionarsi in modo diverso, concentrandosi sull’intelligence degli algoritmi di deep learning o su quelli di analisi predittiva. In tutti i casi, l’intelligenza artificiale applicata al business sta già cambiando molte cose in tutti i settori, con un’accelerazione crescente ed effetti non ancora prevedibili. Ricerca scientifica, sanità, sicurezza, applicazioni consumer, finanza, telecomunicazioni, manufacturing, marketing. In tutti questi campi di applicazione, l’intelligenza artificiale sta dimostrando che le macchine possono comportarsi intelligentemente pur non essendo (ancora) veramente intelligenti. Ma la trasformazione è in corso sotto gli occhi di tutti. Dalle automobili a guida autonoma all’e-commerce, con le tecniche di deep learning si addestrano algoritmi su enormi archivi di dati, consigliando all’utente il percorso più breve o il prodotto che desidera in base alla storia di navigazione. Ci sono computer cognitivi capaci di analizzare il linguaggio delle persone in modo da diagnosticare e monitorare disturbi come depressione, schizofrenia, autismo, Alzheimer e Parkinson. Combinata con i sensori ambientali, l’intelligenza artificiale consente di evitare i pericoli, di monitorare la qualità dell’aria e dell’acqua, tenere sotto controllo le immissioni dei gas di scarico delle auto o quelle nelle acciaierie (il pensiero corre subito all’ILVA di Taranto). Integrata nei device mobili, permette di riconoscere un alimento, un farmaco o un assegno contraffatto. L’intelligenza artificiale applicata a un sistema di geolocalizzazione può guidare veicoli automatici in sicurezza anche in caso di nebbia e pioggia. Ma questo rivoluzionerà il mondo delle assicurazioni, la previsione del rischio, la responsabilità personale e anche il modo in cui prendiamo le decisioni. La questione è delicata, di fronte a incidenti o decisioni sbagliate non potremo ridurre tutto a un semplice incidente “tecnico”. Anche se la tentazione è forte. E qualcuno lo ha già fatto in passato. Dal 2006 a oggi, ci sono stati almeno sei flash crash che hanno rischiato di far saltare i mercati finanziari di mezzo mondo, tutti riconducibili ad algoritmi fuori controllo. Due cose non dobbiamo dimenticare. Un algoritmo è il prodotto di una programmazione. E la realtà non è uguale alla somma delle singole parti.

RELAZIONI COMPLESSE

Il punto di arrivo del cognitive computing è di riprodurre i processi cognitivi del pensiero umano trasformandoli in un modello computerizzato automatico. Utilizzando algoritmi di auto-apprendimento, data mining, pattern recognition e linguaggio naturale, il computer può imitare il modo in cui funziona il cervello umano. In questo modo, software e algoritmi di deep learning possono organizzare le informazioni raccolte da miliardi di dispositivi collegati in rete fra loro. Un semplice bracciale smart può controllare le nostre emozioni oppure il nostro stato di salute e ci aiuterà a prevenire le malattie. E con un palmare, il tecnico di un impianto di estrazione di gas naturale sarà in grado di tenere sotto controllo anche a distanza i livelli di produzione, consentendo di rilevare eventuali perdite nel giro di pochi minuti.

Attualmente, aziende come TIM lavorano su applicazioni di cognitive computing per realizzare nuovi servizi nell’ambito del caring e dell’assistenza tecnica. Con il cognitive banking, UniCredit e Intesa Sanpaolo stanno innovando e potenziando l’esperienza digitale dei propri clienti. Mentre Mediobanca è la prima in Italia che ha lanciato un servizio di roboadvisor. Ma quando si parla di deep learning e apprendimento automatico, non si può non pensare agli algoritmi di Google. L’intelligenza artificiale è un campo di vitale importanza anche per Apple che ha rafforzato il suo team di ricerca, con l’acquisizione di startup del settore. Apple sfrutta da tempo l’intelligenza artificiale per Siri ma anche per il riconoscimento delle immagini, la personalizzazione delle playlist e anche per la gestione delle attività domestiche. Lo stesso fanno Uber, Airbnb, Facebook, Amazon, integrando il machine learning in numerosi servizi. I ricercatori del Computer Science and Artificial Laboratory del MIT lavorano sull’apprendimento profondo in campo diagnostico. Pfizer ha annunciato l’applicazione di cognitive computing per accelerare la ricerca contro il cancro. In un futuro molto prossimo, l’intelligenza artificiale permetterà anche di comprendere fenomeni sociali complessi come l’immigrazione, i conflitti e perfino le crisi economiche. All’Università di Bristol, con l’aiuto degli storici e della British Library, i ricercatori sono riusciti non solo a cogliere, ma anche a misurare con esattezza tendenze storiche, sociali e culturali. Oggi, l’intelligenza artificiale sta rivoluzionando l’intero processo di produzione, ma anche di relazione con i clienti. Il cognitive computing permette già di selezionare in modo automatico la produzione di annunci su misura per l’interesse e le esigenze di ogni cliente. Quando chiameremo un numero e dall’altra parte non sapremo più distinguere se a risponderci è una macchina o una persona, la transizione sarà completata. Ma ci vorrà sempre il tocco umano per trasformare tutto questo in un’esperienza di valore. La vera sfida – come ha detto David Shing, digital prophet di AOL – è trovare «l’interazione giusta e l’equilibrio corretto».

LE CARTE IN TAVOLA

Nel “Manuale per manager nell’era digitale” (Edizioni IPSOA, 2016), Alberto Giusti e Massimo Calabrese hanno messo in evidenza come il machine learning e il deep learning stanno già cambiando le carte in tavola. Pensiamo agli osservatori radioastronomici o ai rivelatori di onde gravitazionali che ne fanno uso per identificare ed eliminare le più piccole fonti di rumore o a Google che setaccia e indicizza tutto il sapere del web. Il colosso di Mountain View, dopo aver dichiarato guerra alle notizie false, con Perspective promette di sguinzagliare i suoi potenti algoritmi per disarmare l’esercito di haters e ripulire le conversazioni da insulti e attacchi. Fra qualche anno, secondo Jean-Roch Vlimant, fisico al California Institute of Technology di Pasadena, butteremo badilate di dati in pasto alle macchine – come si faceva con il carbone nelle locomotive a vapore – e queste ci restituiranno formule e leggi fondamentali che spiegano tutti i fenomeni dell’universo. Per il momento ci sono ancora molte domande senza risposta. Parliamo di intelligenza artificiale, ma non abbiamo compreso come fa la macchina a trovare i segnali utili, come si può essere sicuri che non sbagli, oppure fino a che punto possiamo fidarci di un algoritmo o di una scatola nera. Ma soprattutto non abbiamo ancora capito che cosa è veramente l’intelligenza. Le reti neurali artificiali sono un approccio computazionale per imitare il cervello umano. Un tipo di algoritmo di apprendimento automatico in cui i nodi simulano i neuroni che calcolano e distribuiscono le informazioni. Nel ricostruire le traiettorie delle tracce subatomiche prodotte dalle collisioni di particelle al Large Hadron Collider del CERN diretto da Fabiola Gianotti, le reti neurali artificiali hanno dato un contributo enorme. Usiamo le reti neurali come usiamo continuamente il cervello. Ci fidiamo delle reti neurali come ci fidiamo del nostro cervello. Ma non abbiamo idea di come funzioni. Il cervello umano è un’unità di elaborazione centrale che ha bisogno di molta energia e di condizioni particolari per funzionare bene. Siamo sicuri che questo sia il modello computazionale giusto per sviluppare l’intelligenza artificiale del futuro? Per Stefano Mancuso, direttore del LINV, il Laboratorio Internazionale di Neurobiologia Vegetale dell’Università di Firenze, l’intelligenza «è la capacità di risolvere un problema». Se accettiamo questa definizione allora potremo nel futuro progettare reti, computer e robot, ispirandoci anche alle radici delle piante.

MERCATO IN CRESCITA

Negli ultimi anni, come ha chiarito Giancarlo Vercellino, research & consulting manager di IDC Italia, stiamo registrando un significativo contributo da parte dell’intelligenza artificiale soprattutto nel service management. In realtà, le applicazioni di cognitive computing potrebbero rivelarsi un potente catalizzatore per l’introduzione di logiche self-service nei più disparati comparti aziendali, ben oltre le sole esigenze di automazione dell’IT. Proprio secondo le ultime previsioni di IDC, entro il 2018, il 75% delle aziende e degli sviluppatori software includerà funzionalità cognitive e di intelligenza artificiale in almeno un’applicazione aziendale, comprendendo tra queste tutti i tool di business analytics. E ancora, entro il 2019, il 40% delle iniziative aziendali di digital transformation sarà supportato proprio da capacità cognitive. IDC evidenzia non solo la crescita delle tecnologie cognitive sul mercato, crescita che per altro IDC calcola mediamente pari al 55% all’anno da qui al 2020 in termini di spesa, ma anche la loro diffusione in termini di utilizzo in seno alle stesse aziende. «Queste funzionalità – ha spiegato Vercellino – non saranno limitate ai data scientist e ai nuovi modelli analitici, ma saranno a disposizione di tutti gli utenti e di molte applicazioni aziendali, dalla customer experience alla supply chain, dalla collaboration alle risorse umane e via dicendo». Calcolando i trend R&D dell’industria del software, IDC si aspetta che questa nuova intelligenza fornita dalle tecnologie cognitive sarà disponibile a tutte quelle aziende che abbiano pianificato di aggiornare le proprie applicazioni enterprise nel corso dei prossimi tre anni. In più, sostiene IDC, alle aziende sarà anche dato accesso a un numero sempre maggiore di piattaforme cognitive su cui sviluppare le proprie applicazioni custom. Dal punto di vista dell’impatto sull’IT, la maggior parte dei CXO saranno chiamati a comprendere la sofisticazione e la complessità del funzionamento di assistenti intelligenti, in termini di configurazione, formazione, e disponibilità dei dati. Questo è un settore in cui i CIO possono fare un passo avanti fino a trasformarsi come leader digitali all’interno dell’azienda. Si sottolinea, inoltre, il motivo per cui sarà importante la ricerca di nuovi talenti che hanno familiarità con tecnologie quali l’apprendimento automatico e AI.

Il BICCHIERE MEZZO PIENO O MEZZO VUOTO?

L’intelligenza artificiale è una grande opportunità per innovare il modo di fare impresa ma anche di essere impresa. Non si tratta soltanto di sostituire le attività ripetitive. Dobbiamo puntare a cambiare il modello di sviluppo, mettendo le persone al centro. Se pensiamo che le macchine prenderanno il posto delle persone, l’intelligenza artificiale sarà percepita come una minaccia. Se pensiamo che le macchine potenzieranno le capacità delle persone, allora l’intelligenza artificiale rappresenta un acceleratore dello sviluppo umano non solo della crescita economica. Per Domenico De Masi, siamo in presenza di una mutazione epocale per cui riusciamo a produrre sempre più beni e servizi con sempre meno lavoro umano. Nel suo nuovo libro, “Lavorare gratis, lavorare tutti” (Rizzoli, 2017), il sociologo spiega che in Europa le cifre dei disoccupati oscillano intorno ai 26 milioni. Ma la sostanza non cambia: «Le nuove tecnologie distruggono più posti di lavoro di quanti ne creino e questa situazione è destinata ad aggravarsi. Se ieri le macchine sostituivano solo gli operai alla catena di montaggio, domani sostituiranno i chirurghi, i radiologi e anche i manager. Quando le macchine erano meccaniche o elettromeccaniche, finivano per creare più posti di lavoro di quanti ne distruggevano: l’automobile sostituì i cavalli e creò lavoro per i gommisti. Poi le macchine divennero digitali e si cominciò a capire che i rapporti erano cambiati: il bancomat, per esempio, ha soppiantato 3.500 cassieri solo in Italia». Secondo gli analisti di IDC, entro il 2019, la percezione negativa e la mancanza di trasparenza nelle soluzioni cognitive produrrà preoccupazione nell’opinione pubblica europea con riflessi negativi anche sulla reputazione dei vendor IT. Per Maria Chiara Carrozza, professore di bioingegneria industriale, ex rettore della Scuola Superiore Sant’Anna di Pisa ed ex ministro dell’Istruzione, dell’Università e della Ricerca, attualmente al lavoro sul progetto europeo Human Brain, ci sono cinque priorità che l’Italia deve affrontare subito. E la prima è rappresentata proprio dagli investimenti in ricerca sull’intelligenza artificiale. La seconda priorità è lo sviluppo di robot in grado di rilanciare il comparto manifatturiero. La terza chiama in causa direttamente la politica che deve trovare misure per fare in modo che l’adozione sempre più pervasiva dell’intelligenza artificiale nelle aziende non si traduca in un impatto distruttivo in termini di costi sociali. La quarta priorità riguarda il metodo di lavoro che deve favorire la collaborazione tra pubblico e privato e un approccio più interdisciplinare. L’ultima è quella che guarda al futuro: «Bisogna aiutare i giovani a capire l’automazione, preparando professionalità in grado di resistere e affrontare il cambiamento».

LA STORIA CONTINUA

È certo che non siamo al capolinea della storia, ma la transizione non può essere governata in due modi. Guardando al passato e adottando misure protezionistiche. Oppure, guardando al futuro e puntando sulla formazione. Senz’altro non possiamo permetterci di fare finta che le cose si sistemeranno da sole. Dobbiamo affrontare il problema di accompagnare la trasformazione del lavoro. Sicuramente ci saranno banche senza cassieri, e fabbriche senza operai. Ma ci saranno anche nuove professioni. Avvocati virtuali per controversie online. Responsabili per lo smaltimento dei dati personali. Sviluppatori di avatar. Tecnici di protesi neurali. Ma ci sarà lavoro per tutti? Il saldo tra nuovi e vecchi lavori sarà negativo? E come si regolerà il diritto di consumare senza produrre? Immaginare un futuro completamente nuovo è difficile, e troppo spesso si finisce per guardare al passato nel tentativo di trovare le risposte. Se la macchina a vapore è stata l’emblema della prima rivoluzione industriale, il futuro ha bisogno di una nuova energia: non il “vapore” che alimentava le locomotive, ma quell’altro “steam”, mix di saperi fatto di scienza, tecnologia, ingegneria, arte e manifattura. E l’Italia, che in questo scenario potrebbe giocare un ruolo da protagonista, almeno sulla carta, nella realtà deve correre per recuperare tempo e posizioni. Per recuperare terreno, bisogna scendere dalla locomotiva a vapore e salire su una macchina da rally.

Bill Gates ha proposto di tassare i robot per estrarre “una modica di quantità” di profitto da utilizzare in forma di welfare. Un’idea bocciata dal Parlamento europeo e buona solo all’apparenza, perché non si può tassare l’innovazione e neppure pensare che un’altra imposta sulle imprese possa cambiare le cose. In passato non abbiamo tassato né i bancomat e neppure i pacchetti Microsoft. Non è sull’innovazione che bisogna pagare le tasse, ma sugli utili che un’impresa produce grazie all’innovazione. Se dietro questo tipo di proposte, solo apparentemente rivoluzionarie, c’è più una volontà di conservazione che di governance del cambiamento, in altri casi manca proprio la comprensione dei fenomeni da parte dei decisori politici, ed è evidente che un’implementazione di intelligenza artificiale non è solo necessaria, ma auspicabile. Forse, sarebbe più rivoluzionario far pagare le tasse una tantum sulla base del market share, ma questo significherebbe scatenare tra i governi una guerra sulla proprietà dell’imponibile delle grandi multinazionali, bloccando gli investimenti.

Un bel dilemma per gli economisti che fra qualche anno saranno superati da qualche applicazione di cognitive computing. Buona o cattiva notizia? Ironia a parte, come ogni ondata tecnologica, anche la sfida dell’intelligenza artificiale è soprattutto una sfida culturale: passa attraverso la comprensione dei problemi, lo studio degli effetti economici e sociali, il rispetto delle normative, della privacy e dei diritti delle persone. L’intelligenza artificiale pone interrogativi etici e tecnologici. Imprese, università e politica devono preparare la strada offrendo soluzioni, formando le prossime generazioni di lavoratori, e governando la fase di transizione da un paradigma all’altro. Ci vuole capacità di leadership e capacità di guardare avanti, oltre i facili obiettivi di breve termine. E per fare tutto questo occorre una classe nuova di manager, pure loro “cognitivi”, capaci cioè di utilizzare la conoscenza per decidere attraverso percorsi fra loro interconnessi. In questo senso, occorre una conoscenza veramente “deep” della realtà, capace di produrre una visione ampia e aperta dello sviluppo. Una visione compiutamente umana e che forse per questo ha bisogno dell’intelligenza di una macchina per essere realizzata.