En un movimiento sin precedentes que marca un antes y un después en la industria tecnológica, el gobierno de los Estados Unidos ha designado a la empresa de inteligencia artificial Anthropic como un «riesgo para la cadena de suministro de la seguridad nacional». Esta decisión surge tras una intensa disputa ética y contractual sobre el uso de su modelo de IA, Claude, en operaciones militares clasificadas.
Estás presenciando la historia en desarrollo.
El gobierno de los Estados Unidos está en guerra con Anthropic y acaba de designarlos como un riesgo para la cadena de suministro de la seguridad nacional. Eso nunca antes se le había hecho a una empresa estadounidense ya que solo era algo que habíamos visto aplicarse a empresas Chinas. Pero las implicaciones son enormes porque esto está convirtiendo a la IA en tecnología militar decisiva.
¿Qué es lo que está pasando?
El resumen corto, Anthropic firmó un contrato de 200 millones de dólares con el Pentágono para desplegar a «Claude IA» dentro de los sistemas clasificados del ejército, lo cual ha sido extremadamente efectivo. Fue fundamental en la captura de Nicolas Maduro, por ejemplo, lo que generó preocupaciones morales dentro de Anthropic sobre cómo se estaba desplegando la tecnología.
Anthropic tenía dos reglas «sencillas»
Las dos reglas o «líneas rojas» que Anthropic se negó a eliminar de su política de uso para el ejército de los Estados Unidos (específicamente en negociaciones con el Departamento de Defensa o «Departamento de Guerra») son:
- Armas totalmente autónomas: La restricción de que su IA no sea utilizada en sistemas de armas que puedan identificar, seleccionar y atacar objetivos sin intervención humana («human-in-the-loop»). Anthropic sostiene que los modelos actuales no son lo suficientemente confiables para estas tareas y podrían poner en riesgo a civiles y combatientes
- Vigilancia masiva doméstica: La prohibición de usar su tecnología (como el modelo Claude) para la vigilancia masiva de ciudadanos estadounidenses, argumentando que esto es incompatible con los valores democráticos.
Esta negativa provocó un enfrentamiento público con el Secretario de Guerra, Pete Hegseth, quien exigía que la tecnología estuviera disponible para «cualquier uso legal». Como resultado de no ceder ante estas demandas, el gobierno de los EE. UU. anunció la prohibición del uso de la tecnología de Anthropic en agencias federales y designó a la empresa como un «riesgo para la cadena de suministro»
La justificación del Pentágono:
Pete Hegseth cree que el acceso legal y sin restricciones a la IA más avanzada del mundo es crítico porque sus adversarios no tendrán restricciones equivalentes. El Secretario de Guerra dice que el intento de Anthropic de presionar al ejército estadounidense para que se someta es un acto cobarde de «señalización de virtud corporativa» que coloca la ideología de Silicon Valley por encima de las vidas estadounidenses.
Donald Trump utilizó un lenguaje más fuerte.
Dice que EE. UU. nunca permitirá que una empresa ‘woke’ de izquierda radical dicte cómo el ejército lucha y gana las guerras. Pero Anthropic dice que es una lástima; no pueden, con buena conciencia, acceder a su solicitud porque tienen convicciones morales muy fuertes.

¿Hacia dónde vamos desde aquí?
La dinámica del poder será fascinante. ¿Recibirán Amazon, Google o Nvidia presiones para desinvertir en Anthropic? ¿Intervendrá la Corte Suprema? ¿Qué tan lejos está dispuesta a llegar esta administración? Esto podría crecer lo suficiente como para implosionar los mercados de valores; el lunes será interesante.
Más importante aún, este es un momento existencial para el gobierno frente al sector privado. Esto es una extralimitación sin precedentes. El exasesor de IA de Trump lo llama un «asesinato corporativo» que destruirá la confianza de los inversores en Estados Unidos. Otros dicen: ‘¿Cómo se atreve Dario Amodei a pensar que el gobierno necesita su permiso para derribar un enjambre de drones enemigos?’.
Palmer Luckey señala que términos como ‘no atacar a civiles inocentes’ suenan moralmente obvios, pero en realidad son complejos y dependen del contexto, y que las empresas privadas que apagan sistemas militares basándose en su propio juicio ético socavan la democracia. Independientemente de tu postura, este es un mal día para Estados Unidos. Necesitamos que nuestros laboratorios de vanguardia y nuestro gobierno trabajen juntos para defender el liderazgo de EE. UU. en IA. En palabras del propio Amodei: ‘Se acerca un tsunami y la sociedad no está preparada’.»
No habíamos terminado de escribir este artículo y nos llega esto
Sam Altman, CEO de OpenAI, anuncia acuerdo estratégico con el Departamento de Guerra (DoW)
En un giro dramático de los acontecimientos, apenas horas después de que el gobierno de los Estados Unidos designara a Anthropic como un «riesgo de seguridad nacional«, Sam Altman, CEO de OpenAI, ha anunciado un acuerdo estratégico con el Departamento de Guerra (DoW) para desplegar sus modelos en las redes clasificadas del ejército.
Este anuncio, realizado a través de la plataforma X, marca un contraste absoluto con la postura de Dario Amodei (Anthropic), quien prefirió perder un contrato de US$200 millones antes que eliminar las restricciones éticas sobre el uso de su IA en armas autónomas y vigilancia masiva.
El «Giro» de OpenAI
A diferencia del bloqueo técnico que mantenía Anthropic, el acuerdo de OpenAI parece basarse en una terminología más flexible. Mientras Anthropic exigía prohibiciones explícitas en el código, el mensaje de Altman destaca un «profundo respeto por la seguridad» pero acepta la «responsabilidad humana en el uso de la fuerza», una frase que, según expertos, permite al Pentágono mayor libertad operativa bajo el concepto de «uso legal».
Reacciones y Sospechas
La rapidez del acuerdo ha levantado suspicacias en Silicon Valley. Analistas sugieren que OpenAI podría haber aceptado términos que Anthropic consideró «moralmente inaceptables», confiando en la autorregulación del gobierno en lugar de imponer límites tecnológicos infranqueables. Además, el sector financiero observa con cautela: mientras las acciones de las empresas vinculadas a OpenAI se estabilizan, el ecosistema de inversión en IA enfrenta una crisis de confianza por el precedente del «asesinato corporativo» aplicado a Anthropic.
Con este movimiento, OpenAI se posiciona como el aliado principal del Pentágono en la carrera por la supremacía militar algorítmica, dejando a Anthropic en una batalla legal que promete llegar hasta la Corte Suprema.
Estaremos pendientes. síguenos en @gadgetdo y @isaacramirez en Instagram


Un comentario sobre “La guerra por la IA empezó: Gobierno de EE. UU. declara a Anthropic como Riesgo de Seguridad Nacional”