Google Cloud Platform presenta due nuove API di machine learning

Google Cloud Platform

Le API Cloud Natural Language e Cloud Speech sono disponibili da oggi in open beta

A seguito degli annunci in occasione di GCP NEXT a Marzo, siamo felici di condividere nuovi aggiornamenti su Cloud Platform Expansion e Machine Learning. Oggi lanciamo infatti due nuove API di machine learning in versione open beta: le API Cloud Natural Language e Cloud Speech.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Google Cloud Platform permette alle aziende di processare dati non strutturati grazie al machine learning. Dedichiamo molto tempo a pensare come i computer possano leggere, processare e interpretare il linguaggio umano in modi intelligenti. Per esempio, recentemente abbiamo reso open source SyntaxNet (che include Parsey McParseface), un modello di linguaggio naturale che analizza la struttura grammaticale del testo con la migliore accuratezza, velocità e scalabilità.

La nuova API Google Cloud Natural Language in open beta si basa sulle nostre ricerche per comprendere il linguaggio naturale. Cloud Natural Language permette di interpretare facilmente la struttura e il significato di un testo in numerose lingue, con il supporto iniziale di inglese, spagnolo e giapponese.

L’API include:

●   Sentiment Analysis: comprensione del sentiment complessivo di un testo;

●   Entity Recognition: identifica gli elementi più rilevanti di un testo e li classifica con diverse etichette, per esempio persone, aziende, luoghi, eventi, prodotti e media;

  Syntax Analysis: identifica le parti del discorso e crea una struttura ad albero che mette in relazione le frasi per ottenere la struttura e il significato di un testo.

La nuova API è ottimizzata per soddisfare le esigenze di scalabilità e performance degli sviluppatori e delle organizzazioni per un ampio numero di settori. Per esempio, chi si occupa di marketing digitale potrà analizzare le recensioni di un prodotto, mentre le agenzie di servizi potranno determinare il sentiment dalla trascrizione delle telefonate dei clienti. Abbiamo riscontrato ottimi risultati dai clienti che hanno già testato la versione alfa, il marketplace online Ocado Technology ne è un esempio.

Leggi anche:  Pure Storage amplia la partnership strategica con Microsoft per accelerare l'adozione dei cloud enterprise

Per vedere l’API Cloud Natural Language in azione, potete provare la nostra demo che sfrutta Cloud Natural Language per analizzare gli articoli più importanti del New York Times.

[blockquote style=”4″]“L’API Cloud Natural Language di Google ci ha permesso di accelerare la nostra offerta nell’ambito della comprensione del linguaggio naturale e rappresenta una valida alternativa al modello personalizzato che ci eravamo costruiti in fase iniziale”. Dan Nelson, Head of Data, Ocado Technology[/blockquote]

Sempre oggi entra in fase open beta l’API Cloud Speech. Aziende e sviluppatori hanno ora accesso a una conversione speech-to-text (da voce a testo) in oltre 80 lingue, sia per app che per dispositivi IoT. L’API Cloud Speech usa la stessa tecnologia di riconoscimento vocale che ha fatto il successo di prodotti famosi come la Google Search e Google Now.

Più di 5.000 aziende hanno aderito alla versione alfa dell’API Cloud Speech. Tra queste:

●   HyperConnect, un’app di video chat con oltre 50 milioni di download in più di 200 paesi che usa una combinazione delle nostre API Cloud Speech e Translate per trascrivere e tradurre automaticamente conversazioni tra persone che parlano lingue differenti.

●   VoiceBase, azienda leader nel mondo dello speech analytics as a service, usa l’API Cloud Speech per fornire agli sviluppatori indicazioni e analisi predittive a partire da registrazioni telefoniche.

La versione beta di Cloud Speech aggiunge nuove caratteristiche basate sui feedback dei clienti che hanno provato la versione alfa, tra cui:

●   Word hints: quando si richiama l’API è possibile inserire suggerimenti di parole o frasi legate al contesto per migliorare il riconoscimento. Utile sia per impartire comandi (per esempio una Smart TV riconoscerà le parole “torna indietro” o “manda avanti” mentre si guarda un film) che per aggiungere nuovi termini (per esempio riconoscere nomi che non sono comuni in una certa lingua).

Leggi anche:  Extreme realizza il primo Networking Cloud Continuum per offrire flessibilità e sovranità del cloud

●   Asynchronous calling: l’API è stata semplificata con nuove chiamate asincrone che rendono più veloce e facile lo sviluppo di app che si attivano con la voce.