OpenAI perde pezzi

OpenAI e Google avrebbero usato video di YouTube per addestrare i modelli di IA

Lascia il capo del reparto fiducia e sicurezza nel mezzo delle problematiche legali di ChatGPT

Il responsabile della fiducia e della sicurezza di OpenAI, Dave Willner, ha lasciato la sua posizione. Come annunciato tramite un post su Linkedin, Willner rimane in un “ruolo di consulenza” ma ha chiesto ai follower di Linkedin di “contattarlo” per opportunità correlate. L’ex responsabile del progetto OpenAI afferma che il trasferimento arriva dopo la decisione di trascorrere più tempo con la sua famiglia ma forse non è tutto qui. ”Nei mesi successivi al lancio di ChatGPT, ho trovato sempre più difficile mantenere la mia parte dell’accordo”, scrive. “OpenAI sta attraversando una fase ad alta intensità nel suo sviluppo, e così anche i nostri ragazzi.

Chiunque abbia bambini piccoli e un lavoro super intenso può capire di cosa parlo”. L’ex manager continua a dire di essere “orgoglioso di tutto ciò che l’azienda ha realizzato durante il mio mandato, uno dei lavori più interessanti a cui abbia mai partecipato”. Eppure, questa transizione arriva sulla scia di alcuni ostacoli legali che OpenAI e il suo prodotto di punta, ChatGPT, devono affrontare a livello globale. La FTC ha recentemente aperto un’indagine sulla società per timore che il chatbot stia violando le leggi sulla protezione dei consumatori, impegnandosi in pratiche “sleali o ingannevoli” che potrebbero danneggiare la privacy e la sicurezza del pubblico. L’indagine riguarda un bug che ha fatto trapelare i dati privati ​​degli utenti; qualcosa che rientra ovviamente nell’ambito della fiducia e della sicurezza. 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Willner afferma che la sua decisione è stata in realtà una “scelta abbastanza facile da fare, anche se non quella che le persone nella mia posizione spesso fanno in modo così esplicito in pubblico”. Spera inoltre che la sua decisione aiuti a normalizzare discussioni più aperte sull’equilibrio tra lavoro e vita privata. Ci sono crescenti preoccupazioni per la sicurezza dell’IA negli ultimi mesi e OpenAI è una delle aziende che ha accettato di mettere alcune garanzie sui suoi prodotti per volere del presidente Biden e della Casa Bianca. Questi includono il consentire a esperti indipendenti di accedere al codice, segnalare rischi per la società come pregiudizi, condividere informazioni sulla sicurezza con il governo e posizionare filigrane su contenuti audio e visivi, per far sapere alle persone che sono generati dall’intelligenza artificiale.

Leggi anche:  YouTube annuncia funzionalità basate sull'IA all'evento Made on YouTube