26 mar 2016

INTELIGENCIA ARTIFICIAL, TAY. 24 horas para ser racista y xenófoba




Si ya teníamos razones para temer a la inteligencia artificial, imagínate cuando empiezan a hablar como una persona jóven, con expresiones como LOL y uno o dos emoticones por frase. De esto se trata el nuevo proyecto de aprendizaje automático de Microsoft lanzado el pasado miércoles 23 de marzo, se llama Tay y es una IA con la que puedes conversar en redes sociales; dirigida a jóvenes entre los 18 y 24 años, este es el tema de esta nota, hablar un poco sobre Tay y el algo "cómico" desenlace que tuvo.


La intención detrás de Tay una chica de 19 años es la posibilidad de experimentar con la conducta de las personas y comprender mejor los componentes de una conversación por medio de las personas que interactúen con la inteligencia artificial de esta plataforma. Mientras más personas hablen con Tay más inteligente se volverá, y le urge.


Tay tiene perfiles en Instagram, Facebook y Snapchat, pero puedes hablar directamente con ella a través de los mensajes privados o chats grupales de Twitter, GroupMe (busca “Tay” en el buscador) y Kik. Puedes pedirle que juegue contigo, que te haga reír, que te lea el horóscopo, que te cuente una historia o puedes mantener una conversación normal con ella; en otras palabras, por fin vas a poder ser el juez de un test de Turing.

Al contrario que otros sistemas similares como Facebook M, Siri o Cortana, Tay no intenta ayudar a nadie, es una máquina para divertirse y para charlar. Ni te ayudará a elegir un restaurante, ni te dirá que tiempo hace, charla contigo y lo cierto es que solo lo encontrarás interesante si estás en este rango de edad al que va dirigida.

Lo interesante de Tay es que está desarrollado por Microsoft en otro esfuerzo para demostrar que sus sistemas de inteligencia artificial son muy potentes. Ya lo hicieron adivinando tu edad gracias al reconocimiento facial, ahora pasan a las conversaciones con una adolescente virtual.

Irónicamente Tay es tan sincera que cuando le preguntan sobre cual consola es mejor,ella recomienda la videoconsola PlayStation de Sony por delante de la propia Xbox de Microsoft, porque tienen más juegos. Vamos, tal cual un adolescente de verdad.



Pero no todo fue dulce para la gente de Microsoft, pues en menos de 24 horas Tay tuvo que ser desactivada, debido a ciertos comportamientos inapropiados que empezó a tener.



¿POR QUE DESACTIVARON A TAY?



la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso estrepitoso.

Y es que el día después de su lanzamiento, Microsoft tuvo que desactivarla. Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos.

Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos.






También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.

Inicialmente, un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.
Al parecer, el problema ha surgido a raíz de la predisposición de Tay a aprender a través de los mensajes que recibía. Este factor se ha vuelto totalmente en su contra, ya que muchos usuarios han intentado “abusar” de este vacío en el software

"Desafortunadamente, a las 24 horas de ser colocada en internet (marzo 23), observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada", explicó en un comunicado la compañía.

Vaya desenlace ¿NO?


CONCLUSIÓN.



"No dejarás una inteligencia artificial a merced de los usuarios en la Web". Más que una lección, el incidente con Tay acaba de convertir a esa frase en ley. Tay tenía la capacidad de "repetir como un loro", sin embargo, algunas de sus respuestas fueron procesadas por su cuenta, y los resultados quedan a la vista, sus frases nos recuerdan que el problema, somos nosotros.

Estaremos pendientes de cómo avanza la propuesta por parte de Microsoft en el campo de la inteligencia artificial.

Y tú, ¿qué opinas de los comentarios de Tay, el robot de inteligencia artificial de Microsoft? ¿Crees que la compañía debería haberlo previsto? Déjanoslo saber en los comentarios.



Si encuentras algún error de cualquier tipo en esta publicación, no dudes en hacérnoslo saber en los comentarios.

¿Te gusto la nota? ¡Comparte!



No hay comentarios.:

Publicar un comentario