Após algumas horas de atividade, a Microsoft teve que silenciar a sua mais recente assistente, Tay.
No seu perfil no Twitter, Tay apenas informou que necessitava de dormir após muitas conversações.
Este é um projeto criado por uma equipa de pesquisa da Microsoft em conjunto com o Bing. Segundo a própria a empresa fundada por Bill Gates e Paul Allen, este é um teste que integra várias pesquisas a nível das linguagens que existem. No entanto ao que tudo indica a assistente terá aprendido demasiado rápido como os humanos interagem e, por isso, a Microsoft resolveu colocar o seu novo chatbot em modo silencioso.
Entretanto a Microsoft já emitiu um pedido de desculpas, lamentando “profundamente as ofensas não intencionais e os tweets da Tay. Elas não refletem aquilo que somos, as nossas convicções e o modo como concebemos”, mas o que é certo é que a Tay deu algumas respostas que poderão ser considerados infelizes e que foram, desde comentários racistas, até alguns tweets sobre o 11 de Setembro, Tay falou de tudo um pouco nos quase 96 mil tweets que fez.
Ao longo dos muitos tweets publicados o chatbot foi sempre referindo que aprendia com o que os humanos escreviam e essa aprendizagem poderá ter sido o problema.