Screen width of at least 320px is required. Screen width can be adjusted by widening your browser window or adjusting your mobile device settings. If you are on a mobile device, you can also try orienting to landscape.

28 April 2016

Un astronauta británico corre una maratón en el espacio

21 April 2016

La OMS apoya la primera vacuna contra el dengue del mundo

14 April 2016

Unos científicos estudian el extraño caso de personas resistentes a enfermedades

7 April 2016

Una nueva piel hecha en un laboratorio puede dar esperanza a las víctimas de quemaduras

31 March 2016

Microsoft está ‘tremendamente arrepentido’ por los tuits ofensivos de su programa de inteligencia artificial

24 March 2016

Un antiguo crucifijo puede cambiar la historia del cristianismo en Dinamarca

17 March 2016

Unos doctores encuentran fármacos que pueden eliminar algunos cánceres de mama

10 March 2016

Muere el inventor del correo electrónico

3 March 2016

Un estudio sugiere que los neandertales prendían fuego mediante el uso de productos químicos

Insufficient Tokens

Your token balance is insufficient.

Conversation Expired

It has been too long since you had this conversation, history is no longer available

Speed 1.0x
/
aa
AA

Microsoft está ‘tremendamente arrepentido’ por los tuits ofensivos de su programa de inteligencia artificial

31 March 2016

El pasado viernes, Microsoft pidió disculpas por los tuits racistas y sexistas generados por un chat bot, o un programa informático de inteligencia artificial, que había creado. Microsoft creó el programa, llamado Tay, para entender mejor cómo un software de inteligencia artificial interactúa con humanos. Pero poco después de su estreno el pasado miércoles, comenzó a tuitear mensajes ofensivos, entre ellos que apoyaba el genocidio y que las feministas deberían “arder en el infierno”. Microsoft quitó el programa de Internet el jueves.

Los ingenieros de Microsoft dicen que los mensajes fueron el resultado de un “ataque coordinado” al programa. Tay fue diseñado para “aprender” mediante sus interacciones con humanos y algunos usuarios de Twitter lo entrenaron para publicar los ofensivos tuits. Microsoft dice que pondrá Tay otra vez en Internet después de que aprenda cómo prevenir que la situación ocurra otra vez.

Tay no es el primer chat bot que Microsoft ha creado. En 2014, sacó uno en China, llamado XiaoIce. El programa ha tenido mucho éxito, alrededor de cuarenta (40) millones de personas lo usan hoy. Microsoft quería ver lo que pasaría en una cultura totalmente diferente. Dis

Continue the conversation

Go further and experience the full content — and understand how Spanish is actually used.

Continue

Already have access? Log in.

Improve your Spanish listening skills