Computer sempre più simile al cervello umano

A Portland (Oregon, USA), in occasione della conferenza di supercomputing SC 09, IBM ha annunciato un significativo passo avanti verso la creazione di un sistema di calcolo che simula ed emula le capacità cerebrali legate a sensazione, percezione, azione, interazione e cognizione, eguagliando il basso consumo di energia e le compatte dimensioni del cervello.

Il team di “cognitive computing”, guidato da IBM Research, ha conseguito progressi significativi nella simulazione corticale su grande scala e ha sviluppato un nuovo algoritmo che sintetizza i dati neurologici: due tappe importanti che indicano la fattibilità della costruzione di un chip per il calcolo cognitivo.

Gli scienziati di IBM Research di Almaden, in collaborazione con i colleghi del Lawrence Berkeley National Lab, hanno eseguito la prima simulazione corticale del cervello in tempo quasi reale che supera la scala di una corteccia cerebrale di gatto e contiene 1 miliardo di neuroni e 10 trilioni di singole sinapsi di apprendimento.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Inoltre, in collaborazione con i ricercatori della Stanford University, gli scienziati IBM hanno sviluppato un algoritmo che sfrutta l’architettura di supercomputing di Blue Gene per misurare e mappare in modo non invasivo le connessioni tra tutti i siti corticali e subcorticali all’interno del cervello umano, utilizzando immagini a diffusione pesata di risonanza magnetica.

Fare una mappa dello schema delle connessioni cerebrali è cruciale per districare la vasta rete di comunicazione e comprendere come vengono rappresentate ed elaborate le informazioni.

Questi progressi forniranno un banco di lavoro unico per esplorare le dinamiche elaborative del cervello e avvicineranno il team al raggiungimento dell’obiettivo di costruire un chip "sinaptronico" compatto e a bassa potenza, che sfrutta la nanotecnologia e i progressi nella memoria a cambiamento di fase e le giunzioni a effetto tunnel magnetico (MTJ).

Leggi anche:  IBM migliora l'AI geospaziale per combattere le sfide climatiche

Il lavoro svolto dal team è destinato a rompere gli schemi dell’architettura informatica tradizionale di von Neumann.

Nel momento in cui la quantità di dati digitali che creiamo continua a crescere in maniera esponenziale e il mondo diventa sempre più dotato di strumenti e interconnesso, servono nuovi tipi di sistemi informatici, con una nuova intelligenza, in grado di individuare modelli difficilmente rilevabili in un’enorme varietà di tipologie di dati, sia digitali che sensoriali; analizzare e integrare le informazioni in tempo reale in modo dipendente dal contesto; e gestire l’ambiguità tipica degli ambienti complessi del mondo reale.

Le aziende avranno al contempo la necessità di monitorare, prioritizzare, adattare e prendere rapide decisioni sulla base di un flusso sempre crescente di dati e informazioni critiche.

Un computer cognitivo potrebbe ricomporre con rapidità e accuratezza i diversi pezzi di questo puzzle complesso, tenendo conto anche del contesto e di esperienza precedentemente accumulata, per aiutare i responsabili aziendali a giungere ad una risposta logica.

Per eseguire la prima simulazione corticale del cervello in tempo quasi reale che supera la scala di una corteccia cerebrale di gatto, il team ha costruito un simulatore corticale che incorpora una serie di innovazioni nel calcolo, nella memoria e nella comunicazione, nonché dettagli biologici sofisticati derivati dalla neurofisiologia e dalla neuroanatomia.

Questo strumento scientifico, simile a un acceleratore lineare o a un microscopio elettronico, è essenziale per verificare le ipotesi della struttura, della dinamica e della funzione del cervello. La simulazione è stata eseguita utilizzando il simulatore corticale sul supercomputer Dawn Blue Gene/P del Lawrence Livermore National Lab, con 147.456 processori e 144 terabyte di memoria.

L’algoritmo, se associato al simulatore corticale, consente agli scienziati di sperimentare varie ipotesi matematiche sulla funzione, sulla struttura cerebrale e su come la struttura influisce sulla funzione, mentre si lavora alla scoperta dei micro- e macro-circuiti computazionali di base del cervello.

Leggi anche:  Epson Climate Reality Barometer 2023: cosa preoccupa di più gli italiani?

Dopo il positivo completamento della Fase 0, IBM e i suoi partner universitari hanno ricevuto recentemente 16,1 milioni di dollari di finanziamenti supplementari, da parte della Defense Advanced Research Projects Agency (DARPA), per la Fase 1 dell’iniziativa Systems of Neuromorphic Adaptive Plastic Scalable Electronics (SyNAPSE) della DARPA.

Questa fase di ricerca sarà incentrata sui componenti, sull’architettura simil-cerebrale e sulle simulazioni per costruire un prototipo di chip.

La missione a lungo termine dell’iniziativa di cognitive computing di IBM è scoprire e dimostrare gli algoritmi del cervello e fornire computer cognitivi compatti e a basso consumo, in grado di avvicinarsi all’intelligenza dei mammiferi e di utilizzare una quantità significativamente minore di energia rispetto ai sistemi di calcolo attuali.

Il team di eccellenza comprende ricercatori di diversi laboratori IBM di tutto il mondo e scienziati della Stanford University, University of Wisconsin-Madison, Cornell University, Columbia University Medical Center e University of California- Merced.

“L’obiettivo del programma SyNAPSE è creare nuovi componenti elettronici, hardware e architettura in grado di comprendere, adattarsi e rispondere a un ambiente informativo in modi che estendono il calcolo tradizionale, per comprendere le capacità fondamentalmente differenti presenti nei cervelli biologici”, ha spiegato il program manager della DARPA Todd Hylton, Ph.D.

L’informatica moderna si basa su un modello a programma memorizzato (stored program), tradizionalmente realizzato con circuiti di tipo “general-purpose” digitali, sincroni, seriali, centralizzati, veloci, cablati, con indirizzamento di memoria esplicita, che riscrivono sempre i dati e impongono una dicotomia tra calcolo e dati.

In netto contrasto, il cognitive computing – come il cervello – utilizzerà unità computazionali replicate, neuroni e sinapsi implementati in substrati biologici a modalità mista analogica-digitale, asincroni, paralleli, distribuiti, lenti, riconfigurabili, specialistici e fault tolerant, con indirizzamento di memoria implicita che aggiorna lo stato solo quando le informazioni cambiano, rendendo meno netto il confine tra calcolo e dati.

Leggi anche:  Schneider Electric: la sostenibilità batte il tempo