Cloudera e Pinecone, partnership strategica per accelerare lo sviluppo di applicazioni basate sull’AI

L'AI entra nella PA, è utile per il 77% dei dipendenti pubblici, solo l’8% teme di perdere il lavoro

Le aziende potranno creare applicazioni di AI generativa ad alte prestazioni, contribuendo così a fornire risposte accurate e rapide su scala

Cloudera, la data company per l’enterprise AI affidabile, e Pinecone, l’azienda di database vettoriali che fornisce memoria a lungo termine per l’AI, annunciano una partnership strategica con l’obiettivo di trasformare il modo in cui le aziende sfruttano la potenza dell’AI per semplificare le attività e migliorare l’esperienza dei clienti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il database vettoriale di Pinecone è un’infrastruttura fondamentale per l’AI generativa, ottimizzato per memorizzare le rappresentazioni AI dei dati (embedding vettoriali) e ricercarle in base alla somiglianza semantica, cosa che i database tradizionali non sono in grado di fare. Questa capacità è necessaria per aggiungere un contesto alle interrogazioni effettuate all’interno di applicazioni che utilizzano modelli linguistici di grandi dimensioni (LLM) al fine di ridurre significativamente i risultati errati, spesso definiti “allucinazioni”. In questo modo, le applicazioni di ricerca e di AI generativa sono in grado di fornire risposte accurate e pertinenti.

La partnership prevede l’integrazione del database vettoriale di Pinecone all’interno della Cloudera Data Platform (CDP), per consentire alle aziende che si affidano a Cloudera di  creare e distribuire più facilmente applicazioni altamente scalabili e basate su AI in tempo reale. Inoltre, Cloudera rilascerà un nuovo Applied ML Prototype (AMP) che consentirà agli sviluppatori di creare e incrementare più rapidamente nuove basi di conoscenza a partire dai dati presenti sul proprio sito web, e renderà disponibili connettori precostituiti che consentiranno ai clienti di impostare più rapidamente pipeline di ingestion nelle applicazioni di AI. All’interno di AMP, il database vettoriale di Pinecone utilizza queste basi di conoscenza per aggiungere il contesto nelle risposte fornite dai chatbot, garantendo così risultati più efficaci per gli utenti.

Leggi anche:  A Salerno la II edizione di “Paperless & Digital Awards”, il premio delle buone pratiche digitali

I clienti possono utilizzare questa stessa architettura per creare o migliorare chatbot di supporto o sistemi di ricerca interni, riducendo i costi operativi e gli sforzi di gestione dei casi e migliorando l’esperienza del cliente con tempi di risoluzione più rapidi.

“La vasta esperienza di Cloudera nella gestione dei dati, combinata con il database vettoriale all’avanguardia di Pinecone dà luogo a una partnership formidabile. Molti dei nostri clienti gestiscono già i loro dati con Cloudera. Ora potranno creare ancora più facilmente applicazioni di intelligenza artificiale utilizzando i loro embedding e i dati archiviati con Cloudera. Insieme permetteremo alle organizzazioni di offrire esperienze personalizzate senza precedenti, favorire il coinvolgimento degli utenti e raggiungere il successo aziendale”, ha dichiarato Elan Dekel, Vice President of Product di Pinecone.

“Siamo entusiasti di portare la potenza del database vettoriale Pinecone e le capacità di ricerca semantica ai nostri clienti del cloud pubblico per accelerare i casi d’uso dell’intelligenza artificiale generativa e migliorare significativamente l’esperienza degli sviluppatori su scala”, aggiunge Abhas Ricky, Chief Strategy Officer di Cloudera.

“L’integrazione di Pinecone con CDP aggiunge una nuova funzionalità molto critica che aiuterà i clienti a costruire applicazioni di AI generativa”, conclude Sanjeev Mohan, fondatore di SanjMo ed ex analista di Gartner. “Inoltre, l’integrazione prevista tra Cloudera Data Flow (CDF), open source basato su Apache NiFi, e Pinecone rafforza ulteriormente l’enfasi di CDP sulla distribuzione universale dei dati per l’AI. I clienti di CDP possono portare l’AI dovunque risieda no i loro dati – on-premise, nel cloud o nell’edge”.