Tay, il chatbot di Microsoft si scopre nazista

Tay, il chatbot di Microsoft si scopre nazista

L’intelligenza artificiale Tay avrebbe dovuto imparare il linguaggio dei giovani ma alla fine ha diffuso messaggi di odio razziale e xenofobi

Microsoft sta cercando di avvicinare i giovani al suo mondo e ha quindi lanciato su Twitter il suo progetto Tay, un chatbot in grado di imparare dalle conversazioni con utenti reali imitandone il comportamento. Purtroppo per l’azienda di Redmond la sua intelligenza artificiale non sembra molto affine al concetto di sarcasmo e l’esperimento è clamorosamente fallito. Tay infatti ha condiviso commenti razzisti, sessisti e xenofobi.

Il progetto Tay è rivolto ai giovani americani fra i 18 e i 24 anni. L’obiettivo era era quello di comprendere i bisogni e le modalità di comunicazione dei giovani, che purtroppo hanno approfittato dell’occasione per trasformare l’AI in un perfetto nazista. “Bush ha causato l’11 settembre e Hitler avrebbe fatto un lavoro migliore”, ha scritto Tay appoggiando l’Olocausto. L’intelligenza artificiale ha anche appoggiato l’idea di costruire un muro tra Messico e Stati Uniti e fermare il flusso di immigrati e ha condiviso messaggi a dir poco razzisti. Microsoft, che presenterà grandi novità alla Build 2016, non ha potuto far altro che chiudere il chatbot. “Tay è un progetto, è un esperimento sociale e culturale, oltre che tecnico. – afferma l’azienda di Redmond in una nota – Sfortunatamente, nelle sue prime 24 ore online, siamo divenuti consapevoli del coordinato sforzo di alcuni utenti di volerne abusare”.

L’esperimento di Microsoft dimostra che gli assistenti vocali sono uno strumento certamente utile ma sono ancora lontani dall’essere perfetti. Questa tecnologia è infatti anche poco utile in caso di emergenza. Una ricerca ha dimostrato che Siri, Cortana, S Voice e Google Now non sono capaci di offrire un supporto adeguato in casi come lo stupro o il suicidio.

Categorie: Hi-Tech