Inclusión

Mujeres científicas: lo que la IA no puede reproducir

Nuestra corresponsal Ivana Herez apunta a un trend viral en Instagram, que nos enfrenta a una pregunta incómoda: ¿qué pasa cuando la IA reproduce los prejuicios humanos que la alimentan?

En los últimos días se viralizó un trend en historias de Instagram en el que se invitaba a pedirle a ChatGPT, la conocida herramienta de Inteligencia Artificial, que genere una imagen caricaturesca sobre nosotros y nuestro trabajo. Lo que comenzó como un desafío lúdico y aparentemente inofensivo terminó funcionando como un espejo incómodo. Lejos de ser neutral, la tecnología devolvía imágenes atravesadas por estereotipos persistentes. En lugar de creatividad, muchas usuarias encontraron una representación sesgada que dice más sobre las bases de datos y los supuestos culturales que sobre quienes estaban detrás de la pantalla. 

Muchas mujeres que trabajan en el ámbito de la tecnología, la ingeniería, la matemática o las ciencias en general (los sectores agrupados bajo el acrónimo STEM) notaron que, al no contar la IA con imágenes previas de ellas o de sus rostros, el resultado del prompt era una caricatura masculina. La plataforma asumía el género en función de estereotipos históricos (científicos varones, con rasgos masculinizados), ocupando espacios que, en el imaginario colectivo, todavía se piensan como ajenos a las mujeres. Esto, aunque no es nuevo, resulta especialmente urgente. En pleno siglo XXI, los roles asumidos y naturalizados continúan filtrándose incluso en las herramientas más innovadoras.

Lejos de responsabilizar a ChatGPT como agente autónomo, el foco debe ponerse en el origen del problema: la subrepresentación estructural de las mujeres en estos sectores y en los datos que entrenan a los algoritmos. Algo similar ocurrió en 2015, cuando Amazon debió descartar un sistema de reclutamiento automatizado que penalizaba sistemáticamente los currículums de mujeres. El algoritmo, entrenado con datos históricos de contrataciones mayoritariamente masculinas, aprendió a asociar la excelencia profesional con lo masculino y a descartar perfiles femeninos, incluso cuando cumplían con los mismos requisitos. La tecnología no inventó el sesgo: lo amplificó.

Otro caso paradigmático fue el del chatbot Tay de Microsoft, lanzado en 2016, que en menos de 24 horas comenzó a reproducir discursos misóginos, racistas y violentos. El sistema aprendía de las interacciones humanas en redes sociales, demostrando cómo, sin límites ni diversidad en los datos, la Inteligencia Artificial puede convertirse en una caja de resonancia de los prejuicios existentes.

Desde una mirada teórica, este fenómeno puede pensarse a la luz de autoras como Iris Marion Young, quien advierte que los sistemas aparentemente neutrales suelen reproducir desigualdades estructurales, o de Pierre Bourdieu, cuando explica cómo los esquemas de percepción social operan de manera inconsciente y se legitiman a través de instituciones y prácticas cotidianas. Los algoritmos no escapan a esta lógica, funcionan como una vara que mide lo “normal” a partir de parámetros históricos, y todo lo que queda fuera de ese molde aparece como excepción o anomalía.

Este trend puede parecer gracioso, pero expone una realidad: el accionar humano moldea las herramientas de inteligencia generativa y define sus límites. ChatGPT y otras IA no son enemigas del progreso; al contrario, son instrumentos potentes cuando se utilizan de forma crítica y responsable. Sin embargo, si los datos que las entrenan están atravesados por desigualdades, los resultados también lo estarán.

La buena noticia es que este sesgo no es inevitable. Ampliar las bases de datos, incorporar miradas diversas y cuestionar los supuestos que damos por sentados es parte del desafío. En el Día Internacional de la Mujer y la Niña en la Ciencia, la invitación es clara: no se trata solo de sumar mujeres a la tecnología, sino de repensar la tecnología desde la inclusión, para que el futuro que construimos no repita, en código, las injusticias del pasado.

Ayudá a crecer a Buena Data