Scienza e Tecnologia

Microsoft cancella il chatbot Tay per risposte inopportune

Microsoft ha sospeso temporaneamente Tay, l'intelligenza artificiale creata per rispondere su Twitter alle domande degli utenti in maniera disinvolta ed intelligente. Il sistema, pungolato dagli internauti, ha assunto un atteggiamento inopportuno fornendo risposte razziste, xenofobe e scioviniste.  Tay ha addirittura negato l'Olocausto, inneggiato ad Hitler ed ha appoggiato la politica di Donald Trump.

(Altre Informazioni)
Autore saelvig91
Categoria Scienza e Tecnologia
ha ricevuto 116 voti
Commenta Inserisci Notizia