22/4/2024 - tecnologia-e-innovacion

El día que Microsoft tuvo que pedir disculpas

Por Melissa Bargman

El día que Microsoft tuvo que pedir disculpas

El 23 de marzo de 2016, Microsoft lanzó en Twitter a Tay, un chatbot programado para interactuar con los usuarios imitando la forma de expresarse de una adolescente de 19 años.

A través la cuenta @TayandYou 8 , este bot estaba programado en palabras de la compañía “para ir almacenando y procesando datos de sus conversaciones con tuiteros humanos (...) y perfeccionar su lenguaje, aptitudes y actitudes millenial para parecer cada vez más una chiquilla perfecta y más real” .

No hables con extraños

Sin embargo, el final no fue tan feliz: luego de 100.000 tuits, 155.000 seguidores, la cuenta de Tay fue dada de baja ya que sus respuestas se habían vuelto misóginas, racistas y xenófobas en sólo 16 horas de vida.

“Sentimos profundamente las ofensas involuntarias y los twits hirientes de Tay, que no representan lo que somos o lo que defendemos, ni tampoco la forma en la que diseñamos a Tay”. Así comenzaba el comunicado de Peter Lee, el entonces vicepresidente corporativo de Microsoft.

El gigante de la tecnología atribuyó estos comportamientos a un ataque coordinado de usuarios que, a través de patrones de conducta repetitivos en las respuestas, influyeron en las capacidades conversacionales de Tay (sus “vulnerabilidades”). Nunca se pudo dar una explicación clara de por qué el bot llegó a publicar twits antifeministas, de contenido sexual, trató a Barack Obama de “mono” y desmintió el Holocausto.

Hasta la vista, Tay

Este sistema de aprendizaje automático se trató de un experimento que ya habían lanzado en las redes sociales chinas llamado XiaoIce en 2014 (aún en uso en su sexta generación) que llegaba a interactuar con 40 millones de usuarios. Desde la empresa, quisieron despejar una gran inquietud: ¿podría una tecnología tan exitosa en un entorno ser tan cautivante en una cultura radicalmente diferente? La respuesta ha quedado bastante clara.

¿Puede el algoritmo interpretar el lenguaje de manera equivalente al ser humano? La lengua que maneja cada sociedad va más allá que un simple conjunto de palabras con definiciones que, combinadas, permiten expresar ideas. Cada persona en interacción con los demás resignifica vocablos, expresiones, les concede una connotación especial según el contexto. Una connotación que no es inocente y que puede agredir, ofender o estigmatizar.

Al día de hoy, Tay no ha vuelto a salir a la luz aunque Microsoft prometió volverla a la vida una vez que estuvieran seguros de poder anticiparse a las “malas intenciones que entran en conflicto con sus principios y valores”. Seguiremos esperando a que aprenda a corregir sus modales.



¿Deseas validar esta nota?

Al Validar estás certificando que lo publicado es información correcta, ayudándonos a luchar contra la desinformación.

Validado por 0 usuarios
Melissa Bargman

Melissa Bargman

Hola! Soy Melissa, Comunicadora Social y Profesora de la Materia Legislación Comparada en la Facultad de Cs. Sociales de la Universidad de Buenos Aires. Me dedico a la investigación de las nuevas tecnologías y su aplicación en la vida diaria, su regulación, sus oportunidades y riesgos en la sociedad.

TwitterLinkedinInstagram

Vistas totales: 30

Comentarios