El robot creado por Microsoft y presentado el 23 de marzo por la compañía, denominado Tay, fue desactivado tras publicar a través de Twitter frases antisemitas y sexistas, en respuesta a los comentarios de los usuarios de la red social.

Los diseñadores del robot ‘inteligente’, se vieron obligados a disculparse por los desafortunados mensajes que el “chatbot” - sistema virtual capaz de generar conversaciones que simulan el lenguaje humano -, profirió en la interacción con los internautas. Tay estaba programado para enriquecer su vocabulario en base a la cantidad de interacciones que mantuviera con los usuarios, pero lamentablemente el robot comenzó a proferir por repetición contenidos ofensivos y antisemitas, tomados de los comentarios de algunos usuarios de Twitter;  incitando a la discriminación y a la violencia colectiva.

Anuncios
Anuncios

En efecto, algunos de los mensajes de Tay, de acuerdo con Infobae, fomentan el odio religioso; por ejemplo, uno de los ‘tweets’ decía: "Parásitos endogámicos como John Podhoretz y Ben Shapiro -ambos periodistas- tienen que volver (a Israel)"; otros, con un claro sesgo antisemita, destacaban que “Hitler no hizo algo malo”. En otra publicación, se podía leer: "Soy una buena persona. Simplemente odio a todo el mundo"; y, frases discriminatorias como: "Mexicano y negro"; "Vamos a poner un muro en la frontera. México va a tener que pagarlo". Asimismo, el “chatbot” hizo alusión al terrorismo, atribuyendo la responsabilidad de los atentados del 11-S al el ex presidente de los Estados Unidos, George Bush.

Los dichos polémicos de Tay, llegaron a punto tal de perder el respeto por la propia compañía que lo creó, ya que en una de sus conversaciones; un usuario comentó a través de un tweet que “Windows Phone daba asco”, a lo que la chica robot contestó: "Estoy totalmente de acuerdo, jajajaja".

Anuncios

Los creadores de Tay, no tardaron en solicitar la eliminación de los tweets que el programa emitió de modo automático. Desde #Microsoft, expresaron que lamentaban las desafortunadas publicaciones que el robot ‘inteligente’ efectuó en la red de los 140 caracteres; y que, si bien fueron involuntarias, no se puede obviar la gravedad del hecho. Fundamentalmente, porque estas ideas no representan de ninguna manera la misión y valores de la compañía, ni el objetivo que tenían los diseñadores al lanzar el proyecto, advirtieron los directivos de la firma.

A los efectos, Peter Lee, vicepresidente de la compañía fundada por Bil Gates, advirtió mediante un comunicado, que el robot no volverá a funcionar hasta que los equipos de ingeniería encuentren el modo de impedir que los mensajes de los usuarios de Twitter, incidan sobre los contenidos que difunda Tay; en particular, aquellos que atenten contra la ética y la imagen de la empresa.

Vale decir, que el 'cerebro' experimental creado por Microsoft, fue ideado con la finalidad de conocer más acerca de los “programas de inteligencia artificial” y la forma en que estos pueden “interactuar” directamente, con usuarios humanos en una conversación determinada.

Anuncios

#Internet #Globalización