Musk e soci contro i chatbot in stile ChatGPT

OpenAI lancia nuove funzionalità di ChatGPT Plus

Esperti globali rimettono al centro dell’opinione pubblica la questione del controllo dell’IA

Una lettera aperta firmata da leader tecnologici e ricercatori chiede ai laboratori e alle aziende attive nel campo dell’IA di “sospendere immediatamente” il loro lavoro. Firmatari come Steve Wozniak ed Elon Musk concordano che i rischi connessi a ChatGPT e simili richiedono una pausa minima di sei mesi per capire dove stiamo andando con gli sviluppi molto veloci dell’IA esistente. La lettera aggiunge che la cura e la previdenza necessarie per garantire la sicurezza dei sistemi di intelligenza artificiale, vengono costantemente ignorate. Il riferimento è ovviamente a GPT-4, il nuovo modello di OpenAI in grado di rispondere alle domande degli utenti, anche immagini, con testo, ma anche a piattaforme pensate per creare grafiche e opere digitali partendo da una descrizione di poche parole. 

I dubbi sull’intelligenza artificiale circolano da tempo ma la corsa a implementare la migliore tecnologia da parte di colossi come Microsoft e Google, pare abbia riportato in auge molte più preoccupazioni. “Sfortunatamente, non vediamo alcun livello di pianificazione e gestione, anche perché negli ultimi mesi i laboratori di intelligenza artificiale sono stati impegnati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, possono capire, prevedere o controllare in modo affidabile”, afferma la lettera. Il documento è stato pubblicato dal Future of Life Institute (FLI), un’organizzazione dedicata a ridurre al minimo i rischi e l’uso improprio delle nuove tecnologie. Musk aveva precedentemente donato 10 milioni di dollari a FLI da utilizzare negli studi sulla sicurezza dell’IA. Oltre a lui e Wozniak, i firmatari includono una serie di leader globali dell’IA, come il presidente del Center for AI e della politica digitale Marc Rotenberg, il fisico del MIT e presidente del Future of Life Institute, Max Tegmark, e l’autore Yuval Noah Harari. Quest’ultimo ha anche co-scritto un editoriale sul New York Times la scorsa settimana che metteva in guardia sui rischi dell’IA, insieme ai fondatori del Center for Humane Technology.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  IA, anche Scarlett Johansson contro le riproduzioni digitali non autorizzate