Una nuova piattaforma serverless che offre una libreria di modelli open-source progettati per soddisfare una vasta gamma di casi d’uso aziendali e di settore
OVHcloud lancia oggi AI Endpoints, una soluzione serverless che consente agli sviluppatori di aggiungere facilmente funzionalità di Intelligenza Artificiale ad alto valore aggiunto alle loro applicazioni. Con oltre 40 LLM avanzati open-source e modelli di IA generativa – che coprono casi d’uso come chatbot, conversione da testo a parlato o assistenza nella programmazione – AI Endpoints favorisce la democratizzazione dell’IA, indipendentemente dalle dimensioni dell’organizzazione. Senza la necessità di gestire l’infrastruttura sottostante o richiedere competenze in Machine Learning, AI Endpoints consente, infatti, un accesso semplice ai modelli di IA open-source ospitati in un ambiente cloud sicuro.
IA pronta all’uso: potenzia facilmente le applicazioni aziendali
OVHcloud AI Endpoints consente agli sviluppatori di testare le funzionalità di IA in un ambiente sandbox prima di distribuirle su larga scala in applicazioni, strumenti interni o processi aziendali.
I casi d’uso comprendono:
- Integrazione dei LLM nelle applicazioni e aggiungendoin modo semplice le conversazioni tramite agenti: con interazioni in linguaggio naturale in tempo reale, AI Endpoints aiuta a migliorare il coinvolgimento degli utenti o ad automatizzare il servizio clienti su larga scala.
- Estrazione del testo: i modelli avanzati di machine learning estraggono automaticamente, interpretano e organizzano i dati non strutturati, giocando un ruolo chiave nelle pipeline ETL (Extract, Transform, Load) per migliorare l’efficienza operativa.
- Funzione voice nella app: tramite API, la soluzione converte il linguaggio parlato in testo e viceversa, abilitando la trascrizione e quelle vocali interattive.
- Assistenza nella programmazione: con strumenti come Continue, gli sviluppatori possono integrare l’IA privata in tempo reale direttamente nei loro IDE. Suggerimenti per il codice, rilevamento degli errori, automazione dei compiti, migliorano sia la produttività che la qualità del codice.
Una piattaforma serverless che risponde alla necessità di autonomia strategica delle organizzazioni
L’infrastruttura cloud sovrana di OVHcloud assicura la massima tranquillità agli sviluppatori, garantendo che i dati siano ospitati in Europa e protetti dalle normative extra-europee, fornendo sia autonomia tecnologica sia strategica.
Il cloud è centrale per l’IA e AI Endpoints opera su una infrastruttura OVHcloud efficiente dal punto di vista del consumo energetico, alimentata da server raffreddati ad acqua in data center ecologici. Questo aiuta a ridurre l’impatto ambientale dei carichi di lavoro dell’IA, senza compromettere le prestazioni.
AI Endpoints promuove modelli completamente trasparenti utilizzando parametri aperti dei modelli di IA. Questo garantisce che le organizzazioni possano implementare gli stessi modelli sulla loro infrastruttura o distribuirli su altri servizi Cloud, mantenendo il controllo sui dati.
“Siamo entusiasti di lanciare AI Endpoints, siamo grati per i preziosi feedback che riceviamo dalla nostra straordinaria community. Con il supporto per i modelli open-source LLM più diversi e richiesti, AI Endpoints aiuta a democratizzare l’IA, in modo che gli sviluppatori possono aggiungere alle loro app i modelli più avanzati. La nostra soluzione consente loro di farlo facilmente in un ambiente cloud sicuro, con piena fiducia nell’infrastruttura sovrana di OVHcloud”, ha commentato Yaniv Fdida, Chief Product and Technology Officer di OVHcloud.
Disponibilità: IA con modello pay-as-you-go
Dopo una fase di preview, il servizio è stato sviluppato e testato accuratamente, integrando i feedback dei clienti, comprese varie funzionalità richieste, come il supporto per modelli open-source stabili, maggiore scelta e una gestione più precisa delle chiavi API. Con oltre 40 modelli IA open-source all’avanguardia, AI Endpoints include:
- LLM: Llama 3.3 70B, Mixtral 8x7B, …
- SLM: Mistral Nemo, Llama 3.1 8B, …
- Codice: Qwen 2.5 Coder 32B, Codestral Mamba
- Reasoning: DeepSeek-R1 (Llama distillato)
- Multimodale: Qwen 2.5 VL 72B, …
- Image generation: SDXL
- Speech: ASR (speech-to-text), TTS (text-to-speech)
La soluzione è disponibile ora in APAC, Canada e in Europa è rilasciato dal data center di Gravelines. Con un modello pay-as-you-go, i prezzi di OVHcloud AI Endpoints variano in base al modello adottato, utilizzando come unità di misura il numero di token consumati per minuto.