Se trata de la investigación de Milagros Miceli sobre la precarización de quienes crean los datos que alimentan la inteligencia artificial, una voz que la llevó a la lista Time 100 y que pone sobre la mesa cifras globales y dilemas regulatorios. Según estimaciones del Banco Mundial, hay entre 150 y 430 millones de trabajadores de datos en el mundo; Miceli, desde la Investigación de Trabajadores de Datos (DWI), busca que esa realidad deje de ser invisible.

La otra cara de la revolución: quién trabaja para la IA

Vemos la IA como producto terminado —interfaces brillantes, respuestas inmediatas— pero detrás hay tareas rutinarias y mal pagas. Miceli documenta lo que llaman los trabajadores de datos: personas que etiquetan, revisan y moderan contenido para que los modelos funcionen, muchas veces en condiciones precarizadas y con salario mínimo, según su proyecto DWI y reportes citados en la entrevista con La Nacion. Además, pruebas empíricas muestran dudas sobre la promesa económica de la IA: un estudio del MIT de 2025 indicó que el 95% de las organizaciones no estaba obteniendo retorno de inversión claro por sus iniciativas de IA, y un informe de PwC de enero de 2026 encontró que más de la mitad de los CEO entrevistados reportaban resultados financieros insuficientes. Esos números obligan a mirar quién termina pagando el costo real: no solo en dinero, sino en salud laboral y privacidad.

¿Cómo impacta esto en el mercado argentino?

La pregunta es natural: si la expansión de la IA está en discusión global, ¿qué significa para la Argentina? Miceli dice que estamos en tierra fértil para visibilizar este fenómeno, pero también advierte que el país está atrasado en regulación en comparación con lo que ocurre en Europa, que según ella ya cuenta con una ley de IA vigente desde hace alrededor de un año y medio. En la misma dirección, la entrevista cita posturas locales que minimizan la intervención pública en la tecnología; esas posturas nos preocupan porque dejan sin marco legal a trabajadores y usuarios. Desde la perspectiva pública, esto implica dos urgencias: primero, medir la magnitud local del trabajo de datos y su remuneración; segundo, exigir que cualquier adopción de IA en el Estado o en empresas venga acompañada de evaluaciones de impacto, transparencia sobre cadenas de contratación y salvaguardas de privacidad. Sin datos, la discusión queda en slogans.

¿Qué pide Miceli y qué podemos exigirles a las empresas y al Estado?

Miceli propone tres ejes claros: visibilización de quienes trabajan para la IA, regulación que proteja derechos y transparencia en el uso de datos. También impulsa la llamada ‘pregunta cero’ antes de comprar tecnología: ¿realmente necesitamos IA para este problema? Esa pregunta apunta justo a evitar adopciones performativas, algo que desde este espacio ya reclamamos para otras políticas públicas: transparencia y medición. En lo práctico, esto se traduce en auditorías independientes de algoritmos, cláusulas laborales en contratos de externalización, mecanismos efectivos de acceso y corrección para usuarios y límites claros al uso de datos sensibles. Además, si la evidencia internacional muestra que buena parte de las inversiones en IA no rinden, el discurso de la modernización tecnológica deja de ser argumento suficiente para externalizar riesgos laborales.

Cierre: mira crítica, pero no apocalíptica

No se trata de demonizar la tecnología sino de ubicarla en su contexto social. Miceli no es alarmista por amor al drama; es metódica: documenta condiciones, acompaña sindicatos y exige leyes. Eso es coherente con la necesidad de políticas públicas que combinen regulación, datos abiertos y protección de la convivencia laboral. Abogamos por una cobertura informativa no performativa que ponga en el centro la privacidad de las personas y la evidencia, y por una regulación que no delegue al mercado la protección de derechos. Si la IA va a cambiar la vida laboral, empecemos por garantizar que ese cambio no sea a costa de la dignidad del trabajo.