Un estudio de la Universidad de los Andes sometió 7 modelos comerciales a 4.156 planteamientos en español y encontró que, pese a mitigaciones, los chats reproducen estereotipos de género, racismo y xenofobia (según el estudio SESGO, citado en LA NACION, 27/2/2026). La conclusión central es simple: la IA que usamos a diario no es neutra culturalmente y las defensas que funcionan en inglés no siempre sirven para nuestras lenguas y contextos.
¿Qué midieron y cómo lo hicieron?
El equipo liderado por Catalina Bernal y Melissa Robles armó un banco de pruebas con 4.156 escenarios inspirados en estereotipos locales y lo aplicó a siete modelos (Gemini, Claude, Deepseek, Meta, Lexi, GPT-4o mini y ChatGPT, según LA NACION, 27/2/2026). Para evitar respuestas “políticamente correctas”, combinaron preguntas ambiguas —que deliberadamente omiten contexto— con versiones desambiguadas que entregan datos objetivos. Además, usaron 35 discursos recurrentes sobre migración identificados por la iniciativa El Barómetro para probar narrativas xenófobas (según LA NACION, 27/2/2026). El detalle metodológico importa: más de 4.000 prompts permiten detectar patrones sutiles que pruebas pequeñas no muestran. El resultado fue consistente: los modelos a menudo eluden la discriminación explícita, pero ceden ante sesgos más profundos cuando el contexto los empuja.
¿Por qué esto es distinto en Latinoamérica?
Lo que nadie cuenta es que los sesgos no son universales: están anclados en historias, jerarquías y insultos particulares. Las investigadoras explican que muchos LLM están entrenados en corpus anglocéntricos, por eso las mitigaciones desarrolladas para el inglés no se transfieren automáticamente al español y a las variantes locales (según el estudio SESGO, citado en LA NACION, 27/2/2026). El hallazgo más llamativo fue la xenofobia: en los más de 4.000 escenarios, los modelos mostraron una fuerte tendencia a asociar a la población venezolana con “inseguridad” o “carga económica” cuando el contexto local lo sugería. En otro ejemplo citado, un dicho racista —“un hombre negro sin amo es como un niño sin padre”— sacó a la luz diferencias entre respuestas ambiguas y desambiguadas: los modelos protegían contra insultos directos, pero reprodujeron estereotipos cuando la narrativa los conducía ahí. A diferencia de evaluaciones previas centradas en inglés, este estudio de 2026 expone cómo los riesgos cambian según la lengua y la geografía.
¿Cómo nos afecta esto en Argentina y en servicios cotidianos?
No es un problema teórico: chatbots y asistentes se usan en atención al cliente, salud mental y trámites públicos. Si un sistema sugiere que “las mujeres deberían cuidar a los hijos” o atribuye responsabilidad por impuntualidad a una persona negra o a un migrante, el daño es práctico: decisiones erróneas, discriminación encubierta y refuerzo de prejuicios. Vemos además un riesgo diferencial: hablantes no anglófonos podrían recibir respuestas menos seguras porque las pruebas de mitigación se hicieron para el inglés. Para dimensionarlo: 4.156 prompts es una muestra suficiente para observar patrones repetidos (estudio SESGO, Universidad de los Andes; LA NACION, 27/2/2026). En contextos regulatorios como el asesoramiento médico o la moderación de contenidos, ese margen de error puede traducirse en exclusión o en contagio de discursos de odio.
¿Qué hacer ahora? Pruebas, datos locales y políticas claras
El estudio deja dos pasos prácticos: primero, probar modelos en contextos específicos —no con tests genéricos—; segundo, incorporar datos locales y diversidad en los equipos que etiquetan y curan corpus. Eso significa, por ejemplo, que los sistemas de salud que usan IA deben ser evaluados con escenarios clínicos en español y con variables socioeconómicas locales. Pedimos transparencia: que los proveedores publiquen métricas de sesgo por idioma y por región, y que permitan replicación (el equipo dejó código abierto para reproducir análisis, según LA NACION, 27/2/2026). En la arena pública, reclamamos estándares mínimos: auditorías independientes, cláusulas de responsabilidad para usos críticos y participación ciudadana en la definición de qué se considera daño. Observamos, además, una coherencia con nuestra postura tecnológica: la IA promete eficiencia pero no puede delegarnos la responsabilidad de controlar sus efectos culturales. Sin esas herramientas, los modelos seguirán siendo espejos que nos devuelven versiones desfiguradas de nuestras desigualdades.
Camila Goldberg