DeepMind studia la robotica etica

DeepMind inventa l’intelligenza artificiale che scrive codice informatico

L’azienda di Alphabet, specializzata nel campo dell’AI, crea una divisione che studierà l’impatto della tecnologia sulla vita delle persone

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Più di una volta abbiamo scritto della paura di esperti di scienza e robotica circa la futura sottomissione del genere umano alle macchine. Tra tutti Elon Musk e Stephen Hawking, che hanno invitato le aziende a pensare a metodi concreti con cui spegnere i robot quando c’è possibilità che diventino incontrollabili. Più o meno l’idea che è alla base di un nuovo progetto di DeepMind, nome molto conosciuto in ambiente hi-tech, soprattutto per aver lavorato con la Darpa e le sue creature a quattro zampe fatte di silicio e bulloni. La compagnia ha avviato una nuova unità interna che si occuperà di analizzare in che modo le tecnologie basate sull’Intelligenza Artificiale potranno impattare sulla vita reale delle persone. La divisione ethics and society sarà un occhio attento sulle implicazioni dei sistemi AI sia sotto forma di robot al servizio di utenti privati e organizzazioni pubbliche che di piattaforme che coinvolgeranno la quotidianità delle persone in tutto il mondo.

Futuro da prevedere

Come hanno spiegato da DeepMind: “L’unità ha uno scopo duplice, aiutare gli esperti di tecnologia a mettere in pratica linee guida etiche e la società ad anticipare l’impatto dell’Intelligenza Artificiale così che venga indirizzata al bene comune”. Fondata nel 2010, DeepMind è stata acquisita da Google per 500 milioni di dollari quattro anni più tardi, per entrare poi a far parte del conglomerato di Alphabet. Si tratta certamente di uno dei nomi più attivi nel campo dello sviluppo avanzato di dispositivi intelligenti da portare nella vita moderna, non solo dal punto di vista militare, focus principale dell’azienda, ma anche civile. “La storia ci insegna che le innovazioni tecnologiche in sé stesse non garantiscono un progresso automatico – proseguono da DeepMnd – l’arrivo della AI in tal senso comporta un certo stravolgimento delle metriche classiche, richiedendo di pensare concretamente alle conseguenze, in termini etici, di tale integrazione”.

Leggi anche:  Intel spinge gli sviluppatori a realizzare app con l’IA