Cloudera presenta una nuova suite di acceleratori per progetti di machine learning (AMP)

Cloudera presenta una nuova suite di acceleratori per progetti di machine learning (AMP)

Le ultime innovazioni di Cloudera accelerano i casi d’uso dell’intelligenza artificiale nelle aziende e riducono significativamente i tempi di implementazione

Cloudera, l’unica piattaforma realmente ibrida per dati, analytics e AI, ha annunciato sei nuovi acceleratori per progetti di ML (AMP) pensati per ridurre il time-to-value dei casi d’uso AI in azienda fornendo tecniche ed esempi di intelligenza artificiale all’avanguardia che possono favorirne l’integrazione e portare a risultati di maggiore impatto.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Le AMP sono progetti end-to-end basati sull’apprendimento automatico (ML) che possono essere distribuiti con un solo clic direttamente dalla piattaforma Cloudera. Ogni AMP racchiude best pratice del settore per affrontare sfide complesse di machine learning con flussi di lavoro che consentono transizioni perfette, indipendentemente dal luogo in cui le aziende eseguono gli esempi o distribuiscono i dati.

Con la sua collezione di AMP, Cloudera rende l’AI più accessibile affinché le aziende possano accelerarne l’adozione e massimizzare il valore dei dati: i propri e quelli generati dall’intelligenza artificiale. Le più recenti AMP includono:

  • Fine-Tuning Studio – Fornisce agli utenti un’applicazione e un “ecosistema” completo per la gestione, la messa a punto e la valutazione degli LLM.
  • RAG con Knowledge Graph – Una dimostrazione di come alimentare un’applicazione RAG (retrieval augmented generation) con un knowledge graph per catturare relazioni e contesti non facilmente accessibili dai soli archivi vettoriali.
  • PromptBrew – Offre assistenza basata sull’intelligenza artificiale per creare prompt affidabili e ad alte prestazioni attraverso una semplice interfaccia utente.
  • Analisi dei documenti con Cohere CommandR e FAISS – Presenta RAG utilizzando CommandR come LLM e FAISS come archivio vettoriale.
  • Chat with Your Documents – Basato sul precedente LLM Chatbot Augmented with Enterprise Data AMP, questo acceleratore migliora le risposte dell’LLM utilizzando il contesto grazie a una conoscenza interna creata sulla base di documenti caricati dall’utente.
Leggi anche:  TeamSystem: pronti 250 milioni di euro di investimenti sull’Intelligenza Artificiale

Oltre ad accelerare i progetti di intelligenza artificiale, le AMP di Cloudera sono completamente open source e includono istruzioni di implementazione per qualsiasi ambiente, a ulteriore testimonianza dell’impegno di Cloudera nei confronti della comunità open source.

“Nonostante quasi tutte le aziende stiano sperimentando l’AI generativa, la tecnologia è ancora agli esordi ed esistono pochissime best practice per le imprese”, ha dichiarato Steven Dickens, Chief Technology Advisor di Futurum Group. “Di conseguenza, è prassi comune per i data scientist e gli ingegneri basarsi su esempi esistenti quando intraprendono nuovi progetti di AI. Tuttavia, questo approccio presenta molti svantaggi, tra cui eventuali rischi legali e di sicurezza. Le AMP eliminano questa ambiguità fornendo soluzioni end-to-end che offrono ai data scientist MVP (minimum viable product) di comprovata efficacia e in grado di generare rapidamente valore pronti per svariati casi d’uso AI”.

“Nell’ambiente odierno, le imprese non dispongono di tempo e risorse necessari per far decollare i progetti AI”, ha commentato Dipto Chakravarty, Chief Product Officer di Cloudera. “Le nostre AMP rappresentano dei catalizzatori per accelerare il passaggio dei progetti di AI dal concept alla realtà, grazie a soluzioni precostituite ed esempi funzionanti, che assicurano che i casi d’uso siano affidabili e convenienti, riducendo così i tempi di sviluppo. In questo modo le aziende sono in grado di sperimentare rapidamente i guadagni di produttività e le efficienze derivanti dalle nuove iniziative di AI”.