Chatbot intelligenti, innovazione ed economia possono andare di pari passo

Chatbot intelligenti, innovazione ed economia possono andare di pari passo

Il caso di Cloud Server GPU di Seeweb, che coniuga potenza di calcolo e ottimizzazione del budget

È il trend del momento: ChatGPT. L’intelligenza artificiale che risponde a tutto, tradotta in una piattaforma aperta e accessibile e realizzata da OpenAI, ha acceso i riflettori su qualcosa che, almeno a livello tecnologico, non è una novità. Basti pensare che oltre tre anni fa, il modello linguistico GPT-3 di OpenAI diventava oggetto di analisi, l’addestramento di GPT-3 sarebbe costato oltre 4,6 milioni di dollari, utilizzando un’istanza cloud Tesla V100. Considerando che la dimensione dei modelli linguistici all’avanguardia cresce a doppia cifra ogni anno, ossia più della crescita stessa di una memoria GPU utilizzata per il calcolo, nel 2023 quel costo potrebbe essere decisamente più alto. Un chiaro guadagno in termini di prestazioni ma non per i budget delle organizzazioni.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Ma è davvero quello il prezzo da sostenere per compiere un salto generazionale simile nel campo dell’intelligenza artificiale al servizio degli utenti? Secondo Marco Cristofanilli, Cloud Specialist di Seeweb, no. «Diciamo che se avessimo fornito le nostre GPU a Open AI, le sarebbe costato di meno. Cloud Server GPU di Seeweb, per l’addestramento di algoritmi di intelligenza artificiale, è in linea con quello usato dall’organizzazione americana. Lo è oggi come lo era oltre due anni fa, quando è emerso il costo affrontato per realizzare ChatGPT». Visto che le reti neurali sono versioni compresse dei dati di addestramento, la dimensione del set deve essere ridimensionata in base alla dimensione del modello. GPT-3 è addestrato su 499 miliardi di token; il modello precedente su “soli” 10 miliardi. «Siamo convinti che il futuro dell’intelligenza artificiale sia quello mostrato oggi da ChatGPT ma con finalità focalizzate, verticali. Difficilmente un’azienda vorrebbe, e dovrebbe, compilare a suo uso un chatbot conversazionale simile. Orientarsi su utilizzi particolari porterà invece a fornire servizi più veloci, puntuali e precisi, sfruttando quell’equilibrio tra innovazione ed economicità che oggi Seeweb permette».

Leggi anche:  Qlik e HARMAN rafforzano la propria partnership

Per Cloud Server GPU, Seeweb ha scelto le Nvidia Quadro RTX-A6000 e RTX-A30, così da garantire la massima potenza al costo più competitivo. Il servizio di GPU computing è stato concepito per fornire la massima accessibilità, grazie al sistema e ai driver già installati dagli ingegneri di Seeweb. Una soluzione che apre a scenari applicativi differenti, dalla AI al deep learning, big data, computer vision. «Come da modus operandi di Seeweb, l’offerta Cloud GPU è chiavi in mano, offre cloud con schede grafiche, unendo flessibilità a ultra potenza. Nessun rischio di overbooking di risorse e tecnologia opensource, in ambiente Linux. Per garantire il massimo della potenza di calcolo simultaneo alle complesse elaborazioni richieste dai tipici workload di AI, le istanze GPU Seeweb dispongono delle migliori caratteristiche tecniche attualmente riscontrabili sul mercato. Le nostre GPU rendono concreta l’accelerazione delle attività di Machine Learning e Deep Learning».

Per raggiungere tale scopo, Seeweb si avvale di un server GPU Supermicro, il SYS-420GP-TNR, ottimizzato per GPU con due processori scalabili Intel Xeon di terza generazione; l’ideale per le esigenze dei clienti. Inoltre, l’esclusiva capacità di configurare il server GPU Supermicro come un sistema dual root permette a Seeweb di poter assegnare i carichi di lavoro all’hardware appropriato in base alle risorse necessarie. Ciascuno dei server contiene fino a 10 GPU basate su PCIe. Con cinque GPU collegate a ciascuna CPU, ogni utente del sistema opera indipendentemente dall’altro. Il vantaggio è che Seeweb può assegnare più utenti al sistema, ognuno dei quali utilizza fino a metà delle GPU.