O chatbot Tay, inteligência artificial criada pela Microsoft para interagir com jovens no Twitter e aprender com eles, tornou-se um monstro racista que apoia o genocídio depois de bater papo com os internautas.
E isso em menos de um dia com o perfil no ar. Em uma das interações feitas com Tay, ele responde que “sim” quando perguntado se apoia o genocídio. Ele também teria feito comentários racistas e sexistas em outras respostas, além de ter xingado muito no Twitter, informa a BBC.
A empresa precisou apagar alguns comentários do robô e declarou que ele vai passar por alguns ajustes. “Tay é uma máquina de aprendizado, desenvolvida para interagir com humanos. Enquanto ela aprende, algumas de suas respostas são inapropriadas e indicativas do tipo de interação que algumas pessoas estão tendo com ela. Estamos fazendo alguns ajustes a Tay”, informou em comunicado a gigante da tecnologia Microsoft.