Microsoft está ‘tremendamente arrepentido’ por los tuits ofensivos de su programa de inteligencia artificial
El pasado viernes, Microsoft pidió disculpas por los tuits racistas y sexistas generados por un chat bot, o un programa informático de inteligencia artificial, que había creado. Microsoft creó el programa, llamado Tay, para entender mejor cómo un software de inteligencia artificial interactúa con humanos. Pero poco después de su estreno el pasado miércoles, comenzó a tuitear mensajes ofensivos, entre ellos que apoyaba el genocidio y que las feministas deberían “arder en el infierno”. Microsoft quitó el programa de Internet el jueves.
Los ingenieros de Microsoft dicen que los mensajes fueron el resultado de un “ataque coordinado” al programa. Tay fue diseñado para “aprender” mediante sus interacciones con humanos y algunos usuarios de Twitter lo entrenaron para publicar los ofensivos tuits. Microsoft dice que pondrá Tay otra vez en Internet después de que aprenda cómo prevenir que la situación ocurra otra vez.
Tay no es el primer chat bot que Microsoft ha creado. En 2014, sacó uno en China, llamado XiaoIce. El programa ha tenido mucho éxito, alrededor de cuarenta (40) millones de personas lo usan hoy. Microsoft quería ver lo que pasaría en una cultura totalmente diferente. Dis