Banner Tuvivienda
Sábado 07 de diciembre 2019   |   Contáctenos
REDES SOCIALES
Miércoles 11 de septiembre 2019

Taylor Swift amenazó a Microsoft con acciones legales por el chatbot racista "Tay"

El chatbot se introdujo primero en China y luego en EE.UU.
Taylor Swift amenazó a Microsoft con acciones legales por el chatbot racista 'Tay'
Foto: revistavanityfair.es

 

La superestrella del pop Taylor Swift aparentemente intentó evitar que Microsoft llamara a su chatbot Tay después de que el robot con inteligencia artificial se transformara en un troll racista, según el presidente de Microsoft, Brad Smith.

En su nuevo libro, Herramientas y armas, Smith escribió sobre lo que sucedió cuando su compañía introdujo un nuevo chatbot en marzo de 2016 destinado a interactuar con adultos jóvenes y adolescentes en las redes sociales.

"El chatbot parece haber cubierto una necesidad social en China, y los usuarios suelen pasar entre quince y veinte minutos hablando con XiaoIce sobre su día, problemas, esperanzas y sueños", escribió Smith y su coautor en el libro. "¿Quizás ella satisface una necesidad en una sociedad donde los niños no tienen hermanos?"

El chatbot se introdujo primero en China, donde se usó para una variedad de tareas diferentes, bajo un nombre diferente.

Desafortunadamente, una vez que el bot se lanzó en Estados Unidos, se convirtió en algo muy diferente después de absorber el vitriolo racista y sexista que parece estar entretejido en el tejido de Twitter. El gigante tecnológico se vio obligado a desconectar a Tay menos de 24 horas después de su lanzamiento en Estados Unidos.

"Desafortunadamente, dentro de las primeras 24 horas de estar en línea, nos dimos cuenta del esfuerzo coordinado de algunos usuarios para abusar de las habilidades de comentarios de Tay para que Tay responda de manera inapropiada", explicó un portavoz de Microsoft en ese momento. "Como resultado, hemos desconectado a Tay y estamos haciendo ajustes".

Cuando Smith estaba de vacaciones, recibió una carta de un bufete de abogados de Beverly Hills que decía en parte: Representamos a Taylor Swift, en cuyo nombre se dirige a usted... el nombre "Tay", como estoy seguro de que debe saber, está estrechamente relacionado con nuestro cliente".

Según los informes, el abogado argumentó que el uso del nombre Tay creó una asociación falsa y engañosa entre la popular cantante y el chatbot, y que violaba las leyes federales y estatales.

Según el libro de Smith, la compañía decidió no luchar contra Swift, y rápidamente comenzó a discutir un nuevo nombre para el chatbot.

 

Participa:
Valorar
Cargando...
COMENTARIOS
0 comentarios
2013 Grupo Generaccion . Todos los derechos reservados    |  
Desarrollo Web: filesluis_63@hotmail.com    |