L’IT da centro di costo a centro di efficientamento

L’HPC come risposta alle nuove sfide di storage e analisi dei dati: l’esempio di Maticmind con Dell Technologies

Con il significativo aumento del volume e delle origini dei dati, le tecniche tradizionali di archiviazione e analisi si sono dimostrate troppo dispendiose e lente per poter trattare gli enormi volumi di informazioni prodotti e gestiti dalle aziende moderne. In questo contesto, la più grande sfida di oggi per gli IT manager è quella di gestire in modo semplice, conveniente, scalabile e automatizzato il data center, così che possa rispondere alle sfide attuali ma soprattutto a quelle di domani.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il mondo dell’High Performance Computing è in via di consolidamento. Da sistema per pochi, oggi con i centri condivisi, l’approccio HPC si sta rivelando come essenziale nella capacità di elaborare grandi quantità di dati. «Un esempio ci è arrivato proprio dal Covid-19» ci dice Daniele Carmelo Salpietro, Maticmind Technical Advisor. «Testare milioni di codici legati alle molecole per individuare una corretta combinazione e dunque una cura sarebbe stato impossibile anni fa, almeno in tempi brevi. Parliamo di milioni di calcoli al secondo e di un contesto che già dietro l’angolo vede ottimizzazioni maggiori». Il system integrator Maticmind, Titanium Partner di Dell Technologies, lavora sugli HPC da tempo, tanto da riuscire a posizionare HPC5 al nono posto della classifica Top500 degli High Performance Computer più potenti al mondo. L’impegno in tale campo è fondamentale sia per il business delle singole imprese che come sistema paese, vista l’opportunità di far evolvere le funzionalità che interessano diversi settori, una sorta di volano per ciò che altri scenari possono compiere.

Leggi anche:  Building automation tramite i tasti del telefono

Le soluzioni High Performance Computing, AI e Data Analytics di Dell Technologies, basate sui server PowerEdge con processori AMD Epyc ed accelleratori NVIDIA Ampere, promettono di rispondere alle nuove necessità di storage e di tenere il passo con le sfide del mercato. Grazie alle soluzioni storage PowerScale è possibile creare un semplice data lake aziendale per gestire carichi di lavoro diversi e impegnativi on-premise e su public cloud. Con l’attenzione di Dell Technologies alla semplicità, scalabilità, flessibilità e sicurezza, lo storage non è più un problema e tutte le aziende hanno gli strumenti per innovare sul fronte dei dati e ne sfruttano il vero potenziale.

A fine 2019, Maticmind ha realizzato un grosso centro di ricerca a Milano, basato sull’intero stack modulare HPC di Dell Technologies. «La nostra Partnership e collaborazione ha consentito di offrire ai clienti una tecnologia moderna e di pre-collaudare e testare gli impianti prima che venissero consegnati ai clienti, con un concreto risparmio di tempo e costi».

L’importanza della progettazione

Il processo di progettazione è una parte fondamentale dell’integrazione di una piattaforma HPC. Continua Salpietro: «Ogni ambito di riferimento richiede approcci differenti. Oggi gli algoritmi sono in grado di lavorare in modalità ibrida, in parallelo. La fase di design precedente consente di cucire addosso al cliente la soluzione migliore. Insieme a Dell Technologies abbiamo strumenti capaci non solo di far raggiungere i risultati sperati ma anche capaci di aprire nuove strade e dunque nuove opportunità di business».

L’impegno e l’attenzione sono rivolti a guidare i clienti da tecniche tradizionali di storage e analisi a tecniche più moderne, dotate di intelligenza artificiale e algoritmi avanzati. In questo segmento, le applicazioni sono quasi infinite. «Dal retail alla medicina, l’HPC sta già cambiando le carte in tavola» ci dice Maurizio Mercuri, Senior Partner Sales Specialist, Unstructured Data Solutions Southern Europe di Dell Technologies. «Il primo vantaggio, tangibile, dall’adozione dell’HPC è quello di poter estrarre da grandi quantità di dati informazioni preziose, accurate e tempestive. L’High Performance Computing ci restituisce un ambiente in cui i dati diventano più gestibili, soprattutto quando si tratta di informazioni non strutturate. Nel corso dell’ultimo anno abbiamo assistito ad un’accelerazione della quantità di elementi presenti nei data center perché, per vari motivi, industrie differenti hanno avuto la necessità di accedere alle informazioni in maniera più veloce, da qualunque luogo. Abbiamo quindi cominciato a riempire questi contenitori di elementi grezzi, da analizzare e da cui estrarre valore. In un mondo che necessita di data analyst e di data scientist, poter contare su una infrastruttura HPC è già adesso determinante, a livello globale. Detto ciò, la tecnologia non potrà mai sostituire l’intervento umano, anzi, l’High Performance Computing rende ancora più centrale il ruolo di professionalità capaci di interfacciarsi e di gestire i sistemi di nuova generazione».

Leggi anche:  iPhone 15, c’è una novità per la realtà mista di cui Apple non ha parlato

Per Dell Technologies, l’HPC è lo strumento che permette di rimuovere le barriere all’innovazione. Secondo IDC, oltre il 90% delle app in uso da aziende enterprise integrerà l’IA entro il 2025[1]. Questo comporterà un monte di lavoro, in qualità di workload di dati, che ancora oggi non è raggiunto per quantità e qualità. «Dal manufacturing, all’oil & gas, i servizi finanziari, l’healthcare e la ricerca accademica, accelerare il business a un costo minore è un’esigenza di tutti. Farlo appoggiandosi a un sistema collaudato, sicuro e scalabile, è un vantaggio ulteriore» conclude Mercuri.

[1] IDC, “IDC FutureScape: Worldwide IT Industry 2020 Predictions,” October 2019. Doc #US45599219.