IBM, il cognitive computing conquista nuovi spazi

Le tecnologie di Watson entrano nei mainframe e in server e storage, per abilitare anche nei data center le nuove frontiere del cognitive business

Ridefinire server e storage in chiave machine learning e deep learning. Perché gli sviluppi del Cognitive Computing di IBM Watson possono dare molti vantaggi entrando sempre più nei data center aziendali, proprio là dove i dati risiedono. È Marco Utili, Director of Systems Hardware sales di IBM Italia, a introdurre le novità e a posizionarle nel contesto attuale, avvertendo subito che “è in atto una rifocalizzazione sull’infrastruttura, visto che nell’era della digital disruption non pochi hanno finalmente preso coscienza che l’infrastruttura non va considerata una commodity, come volevano alcune idee sbagliate”. Per questo, Utili vede come “area di attenzione gli investimenti in ambito infrastrutturale evoluto, verso la frontiera dell’Intelligenza Artificiale: oggi, big data e analytics avanzati costituiscono il gradino prima dell’Intelligenza Artificiale, cioè il cognitive business, che rappresenta l’obiettivo finale”. In questo senso, l’infrastruttura che oggi è dedicata ai dati transazionali può diventare l’abilitatore della trasformazione passando ai sistemi di Cognitive Insight, che rendono possibile gli insight sui dati che risiedono nell’infrastruttura stessa, in un ambiente di cloud ibrido che abilita l’evoluzione verso l’Intelligenza Artificiale.

Nuova Divisione Cognitive Systems

Le novità annunciate da IBM riguardano quindi l’evoluzione in chiave machine learning dei mainframe z Systems e dei Power AI, oltre che nello storage, dove l’idea di base è quella di memorizzare e rendere disponibili i dati a seconda di dove è più conveniente nell’infrastruttura. Non solo: da pochi giorni è stata anche annunciata la creazione della nuova divisione Cognitive Systems, con l’obiettivo di mettere il deep learning e l’intelligenza artificiale a disposizione di tutte le aziende che intendano approfondirne le possibilità, anche utilizzando la famiglia dei processori Power combinata con una serie di funzionalità hardware e software di tipo aperto. A quest’ultimo riguardo, IBM ha da tempo costituito il consorzio Open Power Foundation, che se all’inizio riuniva cinque aziende oggi ne conta almeno 300, con l’obiettivo di sviluppare hardware in modalità open allo stesso modo in cui si fa con il software. Oggi la tecnologia sviluppata in modalità open è proprio Power AI, che combina il design del processore Power con le GPU di Nvidia, attraverso link molto performanti tra CPU e GPU denominati NV Link.

Leggi anche:  Nasce l’Innovation Patent Index

Tra machine learning e deep learning

Nel mondo mainframe l’annuncio di metà febbraio è quello della disponibilità di IBM Machine Learning per z/OS, che ha appunto lo scopo di “portare il machine learning di Watson, che oggi risiede in un cloud pubblico, dentro i data center dei nostri clienti, cioè nel loro cloud privato”, spiega Andrea Negro, Server Solutions Sales Manager di IBM Italia, sottolineando come “la combinazione della Divisione Cognitive Systems e del Machine Learning sui sistemi z/OS fa vedere come nel mondo dei server si stia abilitando l’infrastruttura a effettuare il salto verso l’intelligenza artificiale”. Per il deep learning, l’annuncio è quello di PowerAI, che consiste in sostanza in una soluzione che “pacchettizza per le aziende i vari framework di deep learning, mettendoli a disposizione pre-compilati, in modo che non ci voglia più un mese un mese e mezzo come prima per farne il setup: basta scaricarli dal sito IBM e in 40 minuti si è pronti a utilizzarli”, prosegue Negro. Ma questo porta a nuove sfide anche verso i partner: “abbiamo bisogno di un canale nuovo con cui interloquire su queste proposte avanzate”, fa notare Andrea Negro, spiegando che “alcuni dei partner tradizionali si devono reinventare, mentre altri dovremo andare a trovarli, magari nel mondo delle startup o della ricerca”.

Quattro elementi per lo storage

Lo storage è invece appannaggio di Francesco Casa, Manager of Storage Solutions di IBM Italia, che ricorda come “siamo passati da un decennio, quello di inizio millennio, in cui il mantra era consolidare e aggregare i sistemi, mentre oggi si è capito che il dato deve essere trattato in base al suo valore: cioè, dopo aver consolidato, in questo decennio tendiamo a distribuire il dato su più sistemi, a seconda del valore del dato stesso, perché non si può memorizzare tutto nello stesso dispositivo, ma bisogna differenziare”. Anche per questo, oggi la strategia storage di IBM poggia su tre elementi: Software Defined, Flash e Cloud, oltre a “una quarta caratteristica tipica di IBM: quella di non dare alcun lock-in al cliente, con una flessibilità di scelta che rimane un elemento qualificante della nostra proposta, che tramite l’offerta Spectrum comprende soluzioni che permettono alle aziende di tutte le dimensioni di affrontare al meglio tutte le sfide poste l’attuale contesto competitivo”, conclude Francesco Casa.

Leggi anche:  EcoStruxure IT, l'evoluzione Datacenter Management as a Service