SUPERCOMPUTING 2011: INNOVAZIONE E OPPORTUNITÀ

Per la prima volta le proposte relative al calcolo diventano più leggere e democratiche, accessibili anche a chi ne ha bisogno in modo saltuario

di Antonio Calabrese

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Seattle (Washington, Usa) – Ci sono 5 statunitensi, 2 giapponesi, 2 cinesi, 1 francese… Purtroppo questo non è l’inizio della solita barzelletta che parla delle diversità di approccio alla vita di differenti culture. Queste sono le nazionalità delle prime dieci realizzazioni nella classifica aggiornata dei primi 500 computer più potenti della terra (www.top500.org/lists/2011/11). L’Italia nei primi dieci non c’è. In questa classifica la capacità italiana di generare innovazione attraverso il calcolo si posiziona ai posti 82 e 87. Le “piccole” Danimarca e Austria sono rispettivamente al 70o e al 77o posto e con installazioni che servono per la progettazione e la realizzazione di sistemi per generare energie rinnovabili e per favorire le ricerche di una università.

Il futuro, l’innovazione e lo sviluppo non possono essere realizzati e basta, per arrivarci servono risorse e strumenti di calcolo. Strumenti sempre più potenti e raffinati per capire se l’idea è realizzabile e per evitare cantonate tanto più frequenti e costose quanto più il terreno che si affronta è sconosciuto e le soluzioni sono innovative. Il colpo di genio non sempre arriva.

I sistemi di calcolo massivi sono necessari per capire il mondo attuale e per generare nuove soluzioni e prodotti in grado di creare innovazione e competitività.

Si potrebbe obiettare che non tutti hanno le risorse economiche e le conoscenze tecniche per realizzare architetture di calcolo che però già da un po’ di tempo non corrispondono più soltanto a monolitici, enormi sistemi con costi di acquisto e di manutenzione insostenibili per la maggior parte delle imprese. Proprio in questo sta la novità della “Supercomputing Conference” tenutasi quest’anno a Seattle. Per la prima volta le proposte relative al calcolo diventano più leggere e democratiche, accessibili anche a chi ne ha bisogno in modo saltuario o non vuole e non può allestire grossi data center. Le risorse di calcolo cominciano a essere erogate nel Cloud e vengono sviluppate piattaforme per la configurazione e il provisioning che mascherano non solo la complessità delle architetture, ma anche quella ancora presente nelle piattaforme di Cloud computing.

Leggi anche:  Prysmian Group, Giancarlo Pedote e Centro Euro-Mediterraneo sui Cambiamenti Climatici presentano "Sailing4Ocean"

Durante SC11 abbiamo notato offerte per l’utilizzo di 10 ore di 30mila core o, se vi piace di più, di 30 ore di 10mila core al prezzo di 12.500 dollari. 30mila core corrispondono a 1.875 server a 16 core, 10mila a 625. Grandi potenze di calcolo a costi accessibili. Per scienziati, ricercatori e imprenditori si aprono nuove opportunità, prima riservate solo a grandi organizzazioni, nei settori della bioinformatica, biologia molecolare, ingegneria dei materiali, medicina e analisi dei rischi, solo per citarne alcuni. La ricerca e la realizzazione di prodotti più competitivi sono maggiormente disponibili anche agli individui e a quelle Pmi che sono tanto importanti per l’economia italiana e devono puntare all’innovazione di prodotto per competere in un mercato globalizzato.

Resta ancora una grossa criticità costituita dall’inadeguatezza delle reti di comunicazione dati che non favoriscono la diffusione del calcolo. Spesso queste simulazioni usano e generano grosse quantità di dati che devono essere efficientemente movimentate in una sorta di catena logistica dei dati. Lo sviluppo delle infrastrutture informatiche, delle velocità di comunicazione dalle nostre case e dalle nostre aziende sono dunque un passo necessario per utilizzare le enormi opportunità offerte dall’utilizzo di preziose risorse di calcolo.

Le strade, si sa, vanno costruite prima delle abitazioni.