Apple ha consigliato ai dipendenti di non usare ChatGPT

Apple ha consigliato ai dipendenti di non usare ChatGPT

La volontà è evitare la diffusione incontrollata di segreti aziendali

Apple è famosa per essere protettiva nei confronti dei suoi progetti e per aspettarsi segretezza dai suoi lavoratori. Non sorprende dunque, come spiega il Wall Street Journal, che il gigante della tecnologia sia preoccupato per la possibilità che i suoi dipendenti perdano inavvertitamente dati proprietari durante l’utilizzo di ChatGPT. Per evitare che questo scenario si verifichi, il colosso avrebbe limitato l’uso del chatbot e di altri strumenti di intelligenza artificiale, come Copilot di GitHub, che può completare automaticamente codice di sviluppo. Il Journal afferma inoltre che Apple sta lavorando su propri modelli linguistici di grandi dimensioni. All’inizio di aprile, The Economist Korea ha riferito che tre dipendenti di Samsung avevano condiviso informazioni riservate con ChatGPT. Apparentemente, un dipendente ha chiesto al chatbot di verificare la presenza di errori nel codice sorgente del database, mentre un altro gli ha chiesto di ottimizzare il codice. Secondo quanto riferito, il terzo dipendente ha caricato una riunione registrata sul chatbot e gli ha chiesto di scrivere un verbale. 

Non è chiaro come Apple stia limitando l’uso di strumenti di intelligenza artificiale generativa e se ne proibisca completamente l’uso. Ma nel caso di Samsung, la società ha limitato la lunghezza delle richieste a ChatGPT dei dipendenti a pochi caratteri di testo. I modelli di linguaggi di grandi dimensioni come quelli di OpenAI diventano migliori man mano che più persone li utilizzano, perché le interazioni degli utenti vengono rimandate agli sviluppatori per ulteriore formazione. I termini e le condizioni di ChatGPT, ad esempio, affermano che le conversazioni “possono essere riviste dai [suoi] formatori di intelligenza artificiale per migliorare i [suoi] sistemi”. Per un’azienda riservata come Apple, limitarne l’uso non è una sorpresa. Detto questo, ad aprile OpenAI ha introdotto una nuova impostazione di controllo della privacy che consente agli utenti di disattivare la cronologia delle chat in modo che le loro conversazioni non possano essere utilizzate per la formazione. Il tutto a seguito di un bug che mostrava agli utenti le cronologie delle chat di altre persone. Al momento non si sa molto dei progetti LLM di Apple, che dovrebbero essere sotto la supervisione di John Giannandrea, già a capo dei team di ricerca e intelligenza artificiale di Google.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Musk, dietrofront per le spunte blu su X