En 2025 se registraron 2.130 vulnerabilidades vinculadas a la inteligencia artificial, un aumento del 34,6% respecto al año anterior y equivalente al 4,42% de todas las fallas de software detectadas a nivel global, según el informe ‘Fault Lines in the AI Ecosystem’ de TrendAI (citado por La Nación, 11/3/2026). Observamos que esos números no son una curiosidad técnica: son señales de que la expansión acelerada de la IA se está haciendo sin los controles básicos de seguridad necesarios.

¿Qué está pasando con la seguridad de la IA?

El informe de TrendAI identifica líneas de falla concretas: infraestructura expuesta, canales de datos inseguros, vulnerabilidades en modelos y brechas de gobernanza, y cuantifica la magnitud del problema en cifras claras —2.130 vulnerabilidades en 2025, +34,6% vs 2024 y 4,42% del total de fallas de software (TrendAI, citado por La Nación, 11/3/2026)—; además proyecta entre 2.800 y 3.600 fallas para 2026 si la tendencia sigue igual (TrendAI, citado por La Nación). También se destaca que las vulnerabilidades en modelos de lenguaje aumentaron 80,4% en el último año y que más del 50% de las fallas detectadas en el ecosistema de IA están relacionadas con hardware especializado, como GPU y aceleradores (TrendAI, citado por La Nación). Es decir: el riesgo no es solo del código, sino de la arquitectura y la cadena de suministro.

¿Cómo impacta esto en Argentina?

Aunque los números que tenemos son globales, las señales sirven de alerta doméstica porque muchas organizaciones aquí adoptan herramientas de IA para mejorar productividad sin controles sólidos; esa adopción rápida coincide con el fenómeno de ‘IA en la sombra’ que el informe señala como crítico (TrendAI, citado por La Nación). Si las vulnerabilidades en modelos de lenguaje crecieron 80,4% a nivel global, cualquier empresa argentina que integre LLMs sin auditoría expone datos sensibles de clientes, pacientes o pasajeros, según advierten los especialistas consultados por TrendAI. Además, con más del 50% de las vulnerabilidades vinculadas a hardware especializado, la dependencia de proveedores y centros de datos externos incrementa el riesgo de compromisos en la cadena de suministro. Por eso vemos que las medidas no pueden ser solo técnicas: requieren contratos más transparentes, inspecciones y registros públicos de incidentes para evaluar la magnitud local del problema.

¿Quién está en riesgo y por qué?

El informe documenta dos vectores que deberían preocuparnos: por un lado, adversarios que usan IA para automatizar reconocimiento de vulnerabilidades y perfeccionar campañas de phishing; por otro, implementaciones no autorizadas dentro de organizaciones, la llamada ‘IA en la sombra’, que quedan fuera de la gobernanza y aumentan la probabilidad de robo o manipulación de datos (TrendAI, citado por La Nación). Las instituciones con datos sensibles —sistemas de salud, bancos, transporte público— son especialmente vulnerables porque una falla en hardware o modelo puede escalar a compromisos mayores; TrendAI estima que las fallas relacionadas con IA podrían llegar a entre 2.800 y 3.600 en 2026 si no cambian las prácticas (TrendAI, citado por La Nación). Ante esa realidad, quienes operan infraestructuras críticas deben asumir que la amenaza es sistémica y requiere transparencia para ser medida.

¿Qué pueden hacer el Estado y las empresas?

No hay soluciones mágicas: hacen falta políticas públicas que exijan transparencia de datos, auditorías independientes y cláusulas contractuales que permitan inspecciones en la compra y el despliegue de tecnologías de IA, algo coherente con nuestra postura previa sobre exigir transparencia en inspecciones y contratos. Recomendamos tres medidas concretas: 1) registro público obligatorio de incidentes de IA y auditorías de seguridad; 2) requisitos de certificación para hardware crítico y evaluación de la cadena de suministro, dada la proporción de fallas relacionadas con GPU y aceleradores (>50% según TrendAI); 3) programas estatales de formación y colaboración público-privada para detección proactiva de amenazas y respuesta rápida. Exigimos transparencia institucional en datos, inspecciones y contratos para que las políticas no sean promesas sino controles verificables con participación ciudadana y rendición de cuentas.

Cerramos con una premisa simple: la IA no es neutral ni invisible; cuando falla, lo hace en el mismo lugar donde se guardan datos e infraestructura crítica. Si no tenemos datos públicos y mecanismos de control, solo veremos más cifras alarmantes en el próximo informe.