El conflicto entre el Pentágono y Anthropic se definirá el viernes con un ultimátum sobre el uso militar sin restricciones de la IA, con plazo fijado a las 17.01 ET (19.01 hora de Argentina), según La Nación con agencias AP y Reuters.

¿Qué está en juego entre Anthropic y el Pentágono?

Para ubicarse: el Pentágono exige cláusulas contractuales que permitan el uso de modelos de IA para cualquier fin considerado legal por las fuerzas armadas, mientras Anthropic rechaza ampliar las autorizaciones por motivos éticos y de seguridad. En la práctica esto puede significar desde análisis clasificados hasta apoyo en operaciones tácticas; los funcionarios militares han advertido con designar a Anthropic como un riesgo para la cadena de suministro o invocar la Ley de Producción de Defensa, según La Nación y agencias AP y Reuters.

Si la empresa cede, perdería credibilidad interna y externa; si no cede, enfrenta la pérdida de contratos y sanciones regulatorias. El choque no es solo contractual: es una prueba sobre quién define los límites del uso militar de la IA, con consecuencias para alianzas tecnológicas y para el talento que atrae la firma.

¿Por qué debería importarle esto a la Argentina?

La disputa tiene un gancho local: las grandes empresas de IA son nodos en cadenas de suministro digital que sostienen servicios en gobiernos, bancos y empresas argentinas. Si Washington etiqueta a un proveedor como riesgo para la cadena, sus socios comerciales globales pueden verse obligados a replantear integraciones, lo que afectaría contratos en la nube, actualizaciones de software y disponibilidad de herramientas de productividad.

Además, en Argentina la discusión sobre regulación tecnológica está en agenda pública y privada; lo que se defina en Washington suele marcar estándares que luego adoptan reguladores y empresas aquí. Por eso conviene observar cómo se equilibran exigencias de defensa y garantías éticas: la decisión que tome el Pentágono puede ser un antecedente para cómo se negocian salvaguardas con proveedores extranjeros.

Datos clave y precedentes

Lo que se sabe hasta ahora: el plazo público para decidir fue fijado a las 17.01 ET del viernes, equivalente a las 19.01 en la Argentina, según La Nación con agencias AP y Reuters. El motor imputado en la disputa es Opus 4.6, la versión que impulsa el chatbot Claude, según la misma crónica. El episodio remite además al Proyecto Maven de 2018, cuando protestas internas en Google llevaron a la empresa a no renovar un contrato con el Pentágono, de acuerdo a reportes citados por La Nación y AP.

Comparado con 2018, hoy hay más empresas —OpenAI, Google y xAI entre ellas— que mantienen contratos con el Ejército, y una comunidad tecnológica más vocal que en muchos casos pide límites y transparencia. Esos antecedentes muestran que forzar concesiones sin claridad técnica puede provocar fugas de talento y impactos reputacionales.

Escenarios y una postura prudente

Hay tres escenarios simples: a) Anthropic cede y el Pentágono amplía usos, lo que podría acelerar despliegues pero erosionar salvaguardas; b) Anthropic mantiene su postura y el Pentágono aplica medidas como la Ley de Producción de Defensa o designaciones de riesgo, lo que fragmentaría la cadena de suministro; c) se abre una tercera vía negociada con peritajes y límites operativos explícitos. Nosotros tomamos una postura prudente: pedimos peritajes técnicos independientes y aclaraciones sobre los usos concretos que se pretenden antes de autorizar aplicaciones sin restricciones, siguiendo la lógica de priorizar evaluaciones de seguridad y humanitarias antes que ultimátums.

En términos prácticos, eso implica exigir descripciones de casos de uso, evaluaciones de riesgo por terceros y cláusulas contractuales que prohiban vigilancia masiva o armas totalmente autónomas, medidas que buscan equilibrar la seguridad nacional con la gobernanza responsable de la tecnología.