Salute e intelligenza artificiale, ecco i sette fattori chiave

Il Leatherhead Football Club sale in classifica grazie all’AI di IBM

Imaging digitale, digitalizzazione dei record, adattabilità del deep learning, ricerca, semplificazione, open source, apprendimento costante. Ecco i driver che rivoluzioneranno la ricerca medica e non solo

Ci metto la mano sul fuoco. O Quasi. La prossima rivoluzione guidata dall’intelligenza artificiale impatterà in maniera dirompente il settore sanitario. Con l’aiuto di Nicola Marino, specializzato in Tecniche Ortopediche presso l’Università Cattolica del Sacro Cuore, ho conosciuto il lavoro di un importante ricercatore dell’Università di Toronto: David Naylor. In estrema sintesi, secondo il Dr. Naylor, i fattori che guideranno l’uso dell’intelligenza artificiale nel mondo della sanità sono sette.

Il primo è l’imaging digitale. In tutte le sue varie forme, il digital imaging sta diventando più potente e più integrato nella medicina e nell’assistenza sanitaria. Diversamente dall’apprendimento profondo, infatti, l’interpretazione umana esperta non riesce a memorizzare e a comprendere tutti gli schemi, o “regolarità”, che possono essere estratti da insiemi di dati molto grandi e usati per l’interpretazione di immagini fisse e in movimento. Il deep learning e i relativi metodi di apprendimento automatico hanno la capacità di analizzare e studiare da un numero sempre maggiore di immagini rispetto a qualsiasi esperto umano (medici, prima di tutti), continuare ad apprendere e adattarsi nel tempo, mitigare la variabilità interosservatore e facilitare un migliore processo decisionale e una terapia più guidata dall’immagine.

Il secondo è la digitalizzazione dei record. La conservazione su supporti digitali di dati relativi alla salute sta accelerando, così come la condivisione di set di dati altamente etichettati e specializzati di alta qualità. Queste fonti di dati offrono nuove opportunità per l’applicazione di estrazione delle informazioni e il perfezionamento degli algoritmi.

Il terzo è la versatilità o adattabilità del deep learning per l’analisi integrativa di insiemi di dati eterogenei raccolti da fonti diverse. Dati eterogenei derivanti dallo studio in comune di quelli demografici, clinici e sanitari temporali, segnali e immagini biomediche, genetici, biomolecolari, di percorsi clinici e di reti sociali. Questi record possono essere aggregati a più livelli: attraverso gruppi di pazienti per la ricerca scientifica e lo sviluppo tecnologico; attraverso team di professionisti sanitari per la gestione della sicurezza, della qualità e della produttività; attraverso le istituzioni per la profilazione comparativa delle prestazioni; e attraverso i sistemi di assistenza sanitaria per l’elaborazione delle politiche pubbliche.

Leggi anche:  Dalla carta al digitale con HR DIG&DEM Zucchetti

Il quarto fattore racchiude l’esaltazione e la facilitazione di fare ricerca. Il deep learning ha un’enorme capacità di esaltare il processo di scoperta nella ricerca sanitaria e di facilitare la generazione di ipotesi identificando nuove associazioni. Le aziende affermate e start-up, infatti, stanno utilizzando algoritmi di deep learning per selezionare o progettare nuove molecole da testare come prodotti farmaceutici o biologici, con l’esplorazione in silicio che precede l’esame in vitro e la sperimentazione in vivo.

I ricercatori di tutte le discipline hanno anche trovato cluster inaspettati all’interno di insiemi di dati confrontando l’intensità di attivazione dei rivelatori di caratteristiche negli strati nascosti di reti neurali profonde. La semplificazione è il quinto fattore. Laddove il deep learning mostra la promessa di semplificare il lavoro di routine degli operatori sanitari e di responsabilizzare i pazienti, promuovendo in tal modo un paradigma più sicuro, più umano e partecipativo per l’assistenza sanitaria. Diverse fonti offrono stime diverse della quantità di tempo sprecato dagli operatori sanitari in compiti che possono essere sottoposti ad alcune automazioni (per esempio, lo screening di immagini di alta qualità).

In combinazione con dispositivi indossabili, monitoraggio remoto e consultazioni digitali, le tecniche di apprendimento automatico possono aggirare l’antico modello di raccolta e interpretazione intermittente e saltuaria dei dati durante l’esame clinico. Questi progressi possono promuovere un’auto-cura più efficace e consapevole da parte dei pazienti e delle famiglie. A lungo termine, l’intelligenza artificiale può mettere in relazione tali caratteristiche personalizzate con il corso clinico di pazienti simili, utilizzando i dati di milioni di cartelle cliniche contenenti miliardi di eventi medici. Questi studi potrebbero fornire a professionisti e pazienti informazioni notevolmente migliori, più specifiche e con il tempo in più a disposizione dare l’opportunità di svolgere compiti esclusivamente umani: costruire relazioni, sviluppare empatia e usare il giudizio umano per guidare e consigliare.

Leggi anche:  Zucchetti, l’innovazione tra IoT e Big Data

Il sesto fattore è l’open source del deep learning. I giganti della tecnologia stanno facendo massicci investimenti nello sviluppo di librerie software per l’apprendimento approfondito, molte delle quali sono open source. Queste multinazionali, come le startup, stanno applicando strumenti di deep learning sull’assistenza sanitaria di tutto il mondo. Inoltre, molti team accademici e non profit pubblicano e condividono algoritmi liberamente, e lo sviluppo locale è ormai diffuso.

L’ultimo fattore è il l’apprendimento costante. Indipendentemente dai perfezionamenti tecnici, le prestazioni del deep learning miglioreranno non appena i set di dati diventeranno più grandi, meglio collegati ed etichettati.

SCENARI E INVESTIMENTI

Questi sette driver di sviluppo tracciano diversi scenari evolutivi. In tutti i casi, si tratta di fattori potenziali. Non certi. Futuristici. Basti pensare all’uso che è stato fatto del primo fattore (Imaging digitale) integrato a Google Maps. In un recente studio dell’Università di Washington, due ricercatori hanno usato il deep learning (Convolutional Neural Network) e Google Maps per stimare i livelli di obesità in sei città degli Stati Uniti. La ricerca afferma che il potere predittivo riguardo i tassi di obesità (circa il 60%) deriva dalla presenza di laghi e parchi rilevati dalla rete neurale ovvero dalle immagini satellitari di Google Maps. Non è abbastanza futuristico? Ad ogni modo gli USA – se questo è il futuro – ci stanno già investendo una montagna di soldi. Le più grandi multinazionali di consulenza statunitensi stanno facendo a gara per appropriarsi – o meglio – acquisire i dati, che siano numeri o anche immagini, dei pazienti negli ospedali. E lo fanno soprattutto attraverso l’investimento indiretto in startup bio-tech.

Leggi anche:  Talend Fall ’18, semplificazione e ottimizzazione su larga scala

Questo perché con quei dati si possono studiare sfumature che passano inosservate ai medici e che l’intelligenza artificiale riesce a cogliere. Pattern usati non meramente per uso diagnostico ma soprattutto previsionale in ottica assicurativa. Sapete cosa significherebbe per un’assicurazione? Riuscire a prevedere gli incidenti, i pattern ricorrenti, le malattie di tanti suoi clienti? E studiare il comportamento di questi ultimi alla guida o a lavoro? Centina e centinaia di dati si nascondono e noi non li andiamo a cercare. Continuiamo a rincorrere la prossima criptovaluta o la nuova ICO. Miopia. Perché la nuova ricchezza è celata dietro pochi semplici dati. Chi ha accesso alla nostra storia clinica – e spero che sia una macchina – ci aprirà le porte verso un nuovo mondo. Immaginate una piattaforma open source di scienziati di dati che cercano soluzioni alle malattie da tutto il mondo, e che passano in rassegna i numeri anonimi e li studiano con l’IA. Si passerebbe così da un sistema centralizzato e riservato (ospedali, governi, etc.) a uno dove le informazioni sono a disposizione di tutti, decentralizzate e completamente anonime. Ricorda il bitcoin. Ma non inquina.