La Inteligencia Artificial puede ser una de las ramas más complejas de la computación, ya que busca simular redes neuronales que aprendan conceptos abstractos y sean capaces de interpretarlos. Lamentablemente, son difíciles de predecir con lo que pueda ocurrir.
Así sucedió con la IA llamada Tay de Microsoft, un proyecto que utilizaba Twitter y redes sociales para simular conversaciones con adultos jóvenes y adolescentes. Mientras aprendía nuevas respuestas, también adquiría nuevos comportamientos y esto llevó a que las cosas se salieran de control. En tan solo 24 horas el programa aprendió a ser todo un troll de internet con tendencias racistas, pro-nazis y misántropos, dándonos una versión bastante retorcida de lo que sería el test de Turing. Microsoft acabó el proyecto desconectándolo.
Curiosamente, en Japón la situación fue más divertida. El equivalente de Tay japonés se llamaba Rinna, y aprendió algo diferente de los japoneses en Twitter: terminó utilizando su IA para tener conversaciones Otaku/Geek con los usuarios, a tal punto de ser fanática de Osomatsu-San y Love Live!
Fuente: Kotaku