btc

BTCClicks.com Banner

jueves, 24 de marzo de 2016

Microsoft desconecta su bot millenial luego por racista



El bot tipo millenial que inventó Microsoft duró poco, muy poco. Desde Redmond le tuvieron que bajar el switch a Tay luego de que la gente le enseñara cosas poco apropiadas para... un bot.

Entre esas cosas poco apropiadas estaban algunos comentarios racistas que fueron borrados rápidamente por Microsoft, pero que fueron rescatados por Social Hax. De muestra, unas pocas imágenes:

Para Tay la idea de una "raza inferior" era bastante clara, lo mismo que lo sucedido con el holocausto:

Cortando por lo sano, el equipo detrás de Tay borró unos cuantos tuits y envió a Tay a un merecido descanso, al menos hasta nuevo aviso.
Según reporta TechCrunch, la compañía emitió un comunicado en el cual "denuncian" sobre un "esfuerzo coordinado" de un grupo de usuarios para "abusar de las habilidades de Tay para hacer comentarios y que así respondiera de formas inapropiadas". Por ende, se procedió a desconectar el bot y a realizar algunos ajustes para evitar que pase otra vez.

Más allá de lo cómico de ciertos comentarios, lo sucedido con Tay es un buen pequeño ejemplo de los problemas que pueden generar las inteligencias artificiales que se escapan -un poco- de control.