El robot creado por Microsoft y presentado el 23 de marzo por la compañía, denominado Tay, fue desactivado tras publicar a través de Twitter frases antisemitas y sexistas, en respuesta a los comentarios de los usuarios de la red social.
Los diseñadores del robot ‘inteligente’, se vieron obligados a disculparse por los desafortunados mensajes que el “chatbot” - sistema virtual capaz de generar conversaciones que simulan el lenguaje humano -, profirió en la interacción con los internautas. Tay estaba programado para enriquecer su vocabulario en base a la cantidad de interacciones que mantuviera con los usuarios, pero lamentablemente el robot comenzó a proferir por repetición contenidos ofensivos y antisemitas, tomados de los comentarios de algunos usuarios de Twitter; incitando a la discriminación y a la violencia colectiva.
En efecto, algunos de los mensajes de Tay, de acuerdo con Infobae, fomentan el odio religioso; por ejemplo, uno de los ‘tweets’ decía: "Parásitos endogámicos como John Podhoretz y Ben Shapiro -ambos periodistas- tienen que volver (a Israel)"; otros, con un claro sesgo antisemita, destacaban que “Hitler no hizo algo malo”. En otra publicación, se podía leer: "Soy una buena persona. Simplemente odio a todo el mundo"; y, frases discriminatorias como: "Mexicano y negro"; "Vamos a poner un muro en la frontera. México va a tener que pagarlo". Asimismo, el “chatbot” hizo alusión al terrorismo, atribuyendo la responsabilidad de los atentados del 11-S al el ex presidente de los Estados Unidos, George Bush.
Los dichos polémicos de Tay, llegaron a punto tal de perder el respeto por la propia compañía que lo creó, ya que en una de sus conversaciones; un usuario comentó a través de un tweet que “Windows Phone daba asco”, a lo que la chica robot contestó: "Estoy totalmente de acuerdo, jajajaja".
Los creadores de Tay, no tardaron en solicitar la eliminación de los tweets que el programa emitió de modo automático.
Desde Microsoft, expresaron que lamentaban las desafortunadas publicaciones que el robot ‘inteligente’ efectuó en la red de los 140 caracteres; y que, si bien fueron involuntarias, no se puede obviar la gravedad del hecho. Fundamentalmente, porque estas ideas no representan de ninguna manera la misión y valores de la compañía, ni el objetivo que tenían los diseñadores al lanzar el proyecto, advirtieron los directivos de la firma.
A los efectos, Peter Lee, vicepresidente de la compañía fundada por Bil Gates, advirtió mediante un comunicado, que el robot no volverá a funcionar hasta que los equipos de ingeniería encuentren el modo de impedir que los mensajes de los usuarios de Twitter, incidan sobre los contenidos que difunda Tay; en particular, aquellos que atenten contra la ética y la imagen de la empresa.
Vale decir, que el 'cerebro' experimental creado por Microsoft, fue ideado con la finalidad de conocer más acerca de los “programas de inteligencia artificial” y la forma en que estos pueden “interactuar” directamente, con usuarios humanos en una conversación determinada.