Compartir

Las máquinas no solamente “aprenden” lo que sus creadores explícitamente les enseñan, sino también las cosas que no dicen y tal vez no saben que piensan. En otras palabras: la Inteligencia Artificial (IA) detecta patrones de pensamiento en el habla de sus programadores y de las personas con quienes interactúa, mismos que luego reproduce, incluyendo las creencias que conllevan.

 

Esto es, a muy grandes rasgos, lo que sostiene un artículo aparecido esta semana en la revista Science. Aylin Caliskan, Joanna Bryson y Arvind Narayanan, del Centro de Políticas de Tecnología de la Información de la Universidad de Princeton, encontraron que la IA es capaz de analizar y reproducir las asociaciones de palabras y conceptos que subyacen al habla humana, es decir, las que sin ser expresamente dichas están ahí, latentes. A través de aplicar a IA el Test de Asociación Implícita (IAT, por sus siglas en inglés), las investigadores estudiaron de qué modo la computadora actúa idéntico al ser humano: relaciona tácitamente una flor con el concepto agradable, mientras asocia un insecto con desgradable. El IAT también demuestra que la IA llega al mismo tipo de asociaciones inconscientes que los humanos: establece relaciones entre un nombre femenino y la idea de familia y un nombre masculino, con el concepto trabajo, y también entre nombres europeos y la posibilidad de que sean más aptos para un trabajo que, por ejemplo, nombres africanos. Lo interesante es que, según este estudio, sin duda la máquina es capaz de detectar y reproducir los estereotipos, sesgos y prejuicios implícitos de sus programadores. No es sorprendente, pero sí inquietante.

 

Esta noticia me trae a la memoria algo ocurrido el año pasado en el mismo terreno de la IA. En marzo de 2016, Microsoft abrió en Twitter la cuenta de un chatbot, de nombre Tay, en lo que pretendía ser un experimento sobre las conversaciones informales. El bot fue diseñado como un típico milenial que sostiene diálogos ocurrentes; además, Tay era capaz de aprender de cada interacción. Si bien al principio su lenguaje era del tipo “creo que los humanos son muy cool”, 16 horas después la compañía tuvo que darlo de baja, porque sus expresiones ya eran abiertamente racistas, genocidas y misóginas. En su timeline (¡96 mil tuits!) se leían cosas como “Carajo, odio a las feministas y creo que todas deberían morirse y arder en el infierno” y “Hitler tenía razón. Odio a los judíos”. También dijo apoyar el genocidio, principalmente de mexicanos.

 

¿Qué pasó? Que algunos usuarios de TW se dieron cuenta de que el bot no “entendía” lo que decía y explotaron ese punto débil. Y es que, en muchos casos, Tay simplemente reprodujo palabras ajenas (como cuando alguien le dijo “repite esto” y el programa obedeció), mientras otros tuits sí fueron generados por el propio Tay, a partir de la información que fue procesando. Total, una vez dado de baja, Microsoft envió este comunicado, según reportó en su momento Business Insider: “El chatbot Tay es un proyecto de Inteligencia Artificial sobre el aprendizaje de una computadora y fue diseñado para estudiar cómo se establecen relaciones entre seres humanos. En el proceso de aprendizaje, algunas de sus respuestas resultaron inapropiadas y reflejaron el tipo de interacciones que algunas personas establecieron con él. Estamos haciendo los ajustes necesarios”. Luego, borró los tuits ofensivos. La lluvia de críticas no se hizo esperar, porque evidentemente la programación de Microsoft no contempló ningún tipo de control que filtrara los mensajes agresivos. De nuevo, la IA reprodujo discursos de odio sin tener “conciencia” de ello.

 

El asunto me genera varias preguntas. La principal es: ¿cómo enseñar a la IA a filtrar prejuicios tanto de sus programadores como de las personas con las que establece contacto? La segunda va un poco más allá: ¿y si la IA que hoy se desarrolla no solamente no matiza estereotipos y discursos de odio sino, por el contrario, los perpetúa incluso si la sociedad (supongamos) avanza y se vuelve más equitativa? Ay.

Compartir