Robot de Microsoft se vuelve loco, racista y cafre en Twitter

Ante las menciones de algunos internautas para interactuar con el robot, Tay respondió hoy de manera masiva “Los mensajes van demasiado rápido”, lo que indica que el robot no pudo contestar adecuadamente a la alta demanda de atención en la red.

Entre los pocos tuits que tenían sentido, Tay mostró una vez más que no puede ser “domesticado”, lo que llevó a Microsoft a sacarlo de nuevo de la red, aunque después de que muchos registraran sus respuestas con algunas capturas de pantalla.

“Se supone que tengo que ser más inteligente que ustedes. MIERDA”, concluyó, con malas palabras.


chatbottaymicrosofttwitter-53127811723992dad87aec58ee916537.jpg

Tras las críticas por las respuestas racistas del robot hace unos días, la popularidad de Tay aumentó en Twitter, lo que hizo que los usuarios se lanzaran a provocar a la máquina para obtener sus reacciones.

Esta apuesta de Microsoft para avanzar en sus investigaciones sobre inteligencia artificial se lanzó el 23 de marzo, como una especie de amigo virtual en aplicaciones de mensajería como Kik, GroupMe y Twitter.

Al abrir cualquiera de estas aplicaciones y buscar el nombre de Tay (Acrónimo en inglés de “Think about you”, piensa en ti), aparece su contacto y los internautas pueden chatear o tuitear con él, que está diseñado con la personalidad de un adolescente.

Microsoft celebra hoy su conferencia de desarrolladores, donde se espera que su director ejecutivo, Satya Nadella, explique las grandes expectativas de la compañía en esta materia.