in

Microsoft calou a Tay, devido a tweets racistas

Microsoft calou a Tay, devido a tweets racistas

Após algumas horas de atividade, a Microsoft teve que silenciar a sua mais recente assistente, Tay.

No seu perfil no Twitter, Tay apenas informou que necessitava de dormir após muitas conversações.

Este é um projeto criado por uma equipa de pesquisa da Microsoft em conjunto com o Bing. Segundo a própria a empresa fundada por Bill Gates e Paul Allen, este é um teste que integra várias pesquisas a nível das linguagens que existem. No entanto ao que tudo indica a assistente terá aprendido demasiado rápido como os humanos interagem e, por isso, a Microsoft resolveu colocar o seu novo chatbot em modo silencioso.

Entretanto a Microsoft já emitiu um pedido de desculpas, lamentando “profundamente as ofensas não intencionais e os tweets da Tay. Elas não refletem aquilo que somos, as nossas convicções e o modo como concebemos”, mas o que é certo é que a Tay deu algumas respostas que poderão ser considerados infelizes e que foram, desde comentários racistas, até alguns tweets sobre o 11 de Setembro, Tay falou de tudo um pouco nos quase 96 mil tweets que fez.

Ao longo dos muitos tweets publicados o chatbot foi sempre referindo que aprendia com o que os humanos escreviam e essa aprendizagem poderá ter sido o problema.

 

Microsoft calou a Tay, devido a tweets racistasGoogle Notícias

Siga o CA Notícias na Google e leia as notícias em primeira mão!
Futebol Inf.: Belenenses sagrou-se campeão no Mundialito

Futebol Inf.: Belenenses sagrou-se campeão no Mundialito

Não se esqueça, esta noite muda a hora

Não se esqueça, esta noite muda a hora