Skip to content
← volver al blog Read in English

Contratos de IA del Pentágono 2026: Ocho Gigantes Tecnológicos Dentro, Anthropic Fuera

Ilustración geométrica oscura de ocho nodos luminosos conectados a una red central del Pentágono, con un nodo desconectado a un lado

El 1 de mayo de 2026, el Pentágono anunció contratos de IA clasificados con ocho empresas tecnológicas: OpenAI, Google, Microsoft, Amazon Web Services, NVIDIA, SpaceX, Reflection AI y Oracle. Estos contratos de IA del Pentágono, que cubren las redes militares más clasificadas en los Niveles de Impacto 6 y 7, marcan un punto de inflexión en la adopción gubernamental de modelos de IA comerciales. Una empresa importante brilló por su ausencia: Anthropic, creadora de la familia de modelos Claude. La exclusión no fue un descuido de contratación, sino el resultado de una designación formal de riesgo de cadena de suministro basada en un desacuerdo fundamental sobre salvaguardas de seguridad en IA — uno que escalaría a una demanda federal y reavivaría un debate que todos los compradores empresariales de IA deberían seguir de cerca.

El Pentágono como Mayor Comprador Empresarial de IA

El Departamento de Defensa de EE.UU. es el mayor inversor en tecnología informática del mundo, y durante los últimos tres años ha estado convirtiendo sistemáticamente ese gasto hacia la inteligencia artificial. El ritmo se aceleró notablemente tras las disposiciones de la Ley de Autorización de Defensa Nacional que dirigen al ejército a integrar capacidades de IA comerciales en lugar de construir todo internamente.

La lógica es clara: los laboratorios de IA comerciales, financiados con cientos de miles de millones en capital privado, entrenan modelos que ningún programa gubernamental podría replicar en plazos o presupuestos comparables. En lugar de competir con esa curva de inversión, el Pentágono ha optado por contratar acceso a ella — bajo protocolos de seguridad estrictos que regulan cómo se despliegan los modelos, qué datos tocan y quién puede usarlos.

Los contratos del 1 de mayo llevan esa estrategia a su punto más avanzado. El Nivel de Impacto 6 cubre información clasificada como Secreta, mientras que el Nivel de Impacto 7 abarca materiales de Alto Secreto / Información Compartimentada Sensible (TS/SCI). Operar IA en estos entornos exige que los proveedores mantengan infraestructura con segmentación rigurosa, superen auditorías de seguridad exhaustivas y acepten responsabilidad por cualquier brecha de datos.

Para el establecimiento de defensa, el beneficio es transformacional: herramientas de IA capaces de sintetizar informes de inteligencia, optimizar logística, apoyar la ciberdefensa y acelerar la I+D pueden dar al ejército estadounidense una ventaja estructural que se acumula con el tiempo. La pregunta de qué empresas proporcionan esas herramientas es, en consecuencia, una cuestión de interés estratégico nacional — razón por la cual la ausencia de Anthropic en la lista tiene un peso muy superior a sus implicaciones comerciales inmediatas.

Ocho Compañías, Una Ausencia Notable

La lista de proveedores que surgió del anuncio del 1 de mayo abarca todo el espectro del ecosistema de IA.

OpenAI aporta su familia de modelos GPT, incluido GPT-5.5, y su plataforma Codex para acelerar el desarrollo de software. Es la marca más visible del grupo y la que ha perseguido más agresivamente los contratos gubernamentales en los últimos 18 meses.

Google contribuye tanto con su familia de modelos Gemini como con su infraestructura cloud. Como señalamos en nuestra cobertura de Google Cloud Next 2026, Google se ha reposicionado como proveedor de infraestructura empresarial de IA a escala sin precedentes, y el acuerdo con el Departamento de Defensa es una expresión directa de esa estrategia.

Microsoft llega a través de su entorno Azure Government, que ya aloja gran parte de las cargas de trabajo del Pentágono, y mediante su profunda integración con los modelos de OpenAI.

Amazon Web Services suma su entorno GovCloud y la plataforma Bedrock, que agrega modelos de múltiples proveedores — incluyendo, hasta hace poco, Claude de Anthropic.

NVIDIA no es principalmente un proveedor de modelos sino de infraestructura de inferencia. Su inclusión refleja la necesidad del Pentágono de hardware dedicado para ejecutar cargas de trabajo de IA a alta velocidad en instalaciones seguras.

SpaceX aporta Starshield, su capa de conectividad satelital clasificada, junto con integraciones de Grok a través de su compañía hermana xAI.

Reflection AI es el startup notable del grupo: un laboratorio relativamente joven cuya inclusión sobre jugadores más establecidos refleja una capacidad técnica específica o el interés de la administración en diversificar su base de proveedores.

Oracle fue añadido horas después del anuncio inicial, redondeando la lista a ocho a través de su Oracle Cloud Infrastructure y sus relaciones de larga data con agencias de defensa e inteligencia de EE.UU.

Anthropic — que ha trabajado para expandir su negocio gubernamental y cuya familia de modelos Claude es ahora una de las más capaces disponibles — está ausente de todos los niveles de esta estructura contractual.

La Cláusula de Seguridad que Rompió el Acuerdo

La disputa que llevó a la exclusión de Anthropic gira en torno a una sola frase en los términos estándar del Pentágono para proveedores: el requisito de que los modelos de IA estén disponibles para “todos los fines lícitos.”

Para la mayoría de las empresas, este lenguaje es texto de contrato estándar e inobjetable. Para Anthropic, fue inaceptable. La posición de la compañía — sostenida consistentemente desde su fundación y codificada en su marco de IA Constitucional — es que ciertas aplicaciones de IA no deberían estar permitidas aunque sean técnicamente legales. Específicamente, Anthropic se negó a autorizar el uso del Pentágono de Claude para dos categorías de aplicación: sistemas autónomos de armas letales y vigilancia masiva doméstica de ciudadanos estadounidenses.

No son preocupaciones hipotéticas. El ejército estadounidense tiene programas activos investigando el apuntamiento autónomo asistido por IA. El lenguaje de “todos los fines lícitos”, argumentó Anthropic, habría dado al Pentágono un permiso general para desplegar Claude en estos contextos sin requerir ninguna revisión o consentimiento adicional de Anthropic. Para una empresa que se comercializa en seguridad de IA, aceptar esos términos habría erosionado la credibilidad de la que depende su negocio empresarial.

El impasse escaló rápidamente. Tras la negativa de Anthropic a eliminar sus restricciones, la administración Trump — a través del Secretario de Defensa Pete Hegseth — formalizó una designación de riesgo de cadena de suministro contra Anthropic en marzo de 2026. Este es un mecanismo legal formal, establecido en la Ley de Autorización de Defensa Nacional, que permite al Secretario de Defensa prohibir la adquisición de productos de empresas consideradas un riesgo para las cadenas de suministro de seguridad nacional. Es una designación más comúnmente aplicada a empresas tecnológicas extranjeras, y Anthropic es el primer laboratorio de IA nacional en recibirla.

La dimensión política es imposible de ignorar. El CTO del Pentágono, Emil Michael, hablando en CNBC tras el anuncio del 1 de mayo, ofreció un comentario apenas velado: “Es irresponsable depender de un solo socio, y aprendimos que ese socio no quería trabajar con nosotros de la manera en que queríamos.” El comentario fue ampliamente interpretado como una referencia directa a Anthropic.

Lo que hace la disputa filosóficamente interesante — y comercialmente importante — es que ninguna de las dos posiciones es irrazonable en su raíz. Los gobiernos tienen requisitos legítimos para desplegar herramientas capaces en todo el espectro de actividades lícitas. Los investigadores de seguridad en IA tienen preocupaciones legítimas sobre los efectos de segundo orden de desplegar modelos de frontera en sistemas de armas autónomos sin anulación humana. El colapso es un anticipo de un conflicto que se repetirá en cada industria donde la adopción de IA se intersecte con la toma de decisiones de alto riesgo.

Anthropic no aceptó la designación de riesgo de cadena de suministro en silencio. La compañía presentó una demanda contra la administración Trump en un tribunal federal, argumentando que la designación se aplicó de forma arbitraria, violó el debido proceso y representó una intromisión gubernamental en las decisiones comerciales de una empresa tecnológica privada.

El desafío legal produjo una victoria temprana: un juez federal en California emitió el mes pasado una orden preliminar que bloquea aspectos del esfuerzo del gobierno para operacionalizar la designación. La resolución no reinstala la elegibilidad de Anthropic para los contratos del 1 de mayo, pero preserva la capacidad de la empresa para impugnar la designación ante los tribunales.

El cálculo comercial para Anthropic es complejo. Los contratos de defensa federal representan una oportunidad de ingresos sustancial — el presupuesto de IA del Pentágono se mide en decenas de miles de millones — y el acceso a redes clasificadas pone a los proveedores en línea para las porciones más lucrativas y duraderas de ese gasto. Estar excluido de ese mercado mientras los competidores aceleran su negocio gubernamental es una desventaja competitiva real.

Al mismo tiempo, la exclusión es, paradójicamente, una prueba del posicionamiento de marca que Anthropic ha construido durante cinco años. La propuesta empresarial central de la compañía para industrias reguladas — salud, finanzas, legal — es que su arquitectura de seguridad y su voluntad de establecer límites en los casos de uso la convierten en un socio más confiable a largo plazo que los laboratorios dispuestos a autorizar cualquier aplicación.

Como detallamos en nuestro análisis de la valoración de $900 mil millones de Anthropic, la tesis de la seguridad como diferenciador resuena claramente entre inversores institucionales y clientes empresariales. La exclusión del Pentágono pone a prueba si esa tesis sobrevive al contacto con la presión comercial real en el nivel de mayor riesgo. Por ahora, la respuesta parece ser que sí.

En un desarrollo que sugiere que la situación no está permanentemente bloqueada, la Casa Blanca supuestamente reabrió discusiones informales con Anthropic a finales de abril tras anunciar la empresa una serie de avances técnicos. Si esas conversaciones producirán un marco contractual revisado — que satisfaga los requisitos operativos del DoD mientras preserva las restricciones de seguridad de Anthropic — está por verse. Los observadores de la industria esperan algún tipo de resolución negociada antes de fin de 2026.

Lo que las Empresas Deben Entender

La historia del Pentágono puede parecer distante de las preocupaciones cotidianas de una empresa mediana que despliega IA para atención al cliente, finanzas u operaciones. No lo es. Las dinámicas en juego — términos del proveedor, restricciones de casos de uso, gobernanza de seguridad y cumplimiento de adquisiciones — son exactamente las dinámicas que los compradores empresariales de IA enfrentarán cada vez más a medida que la IA se integre en flujos de trabajo regulados.

Los términos de adquisición no son estándar. Cada proveedor importante de IA tiene ahora términos de servicio distintos que regulan lo que sus modelos pueden y no pueden hacer. Antes de que su empresa construya un flujo de trabajo de producción en cualquier plataforma de IA, los términos que rigen los casos de uso permitidos deben revisarse con el mismo rigor que los acuerdos de procesamiento de datos o las cláusulas de responsabilidad.

Las restricciones de casos de uso son una característica, no un defecto. Las empresas en salud, finanzas y legal ya operan bajo marcos regulatorios que restringen lo que pueden hacer con IA. Un proveedor cuyos modelos vienen con límites duros en los casos de uso — y cuya arquitectura de seguridad es auditable independientemente — suele ser una mejor opción a largo plazo para entornos regulados. El trabajo de ciberseguridad de Project Glasswing es un ejemplo concreto de inversión en seguridad que produce valor de seguridad de grado comercial.

La diversificación reduce el riesgo de un solo proveedor. Plataformas como AgentsGT están construidas sobre la premisa de que los despliegues de IA empresarial serán multi-proveedor y multi-modelo — abstrayendo la capa de orquestación para que las sustituciones de modelos, provocadas por cambios de contrato, cambios regulatorios o actualizaciones de capacidad, no requieran reconstruir sistemas de producción desde cero.

La historia de los contratos de IA del Pentágono es, en última instancia, una historia sobre la maduración de una industria. Cuando los gobiernos aplican el mismo escrutinio de adquisiciones a los proveedores de IA que a los contratistas de defensa y las empresas farmacéuticas, señala que la IA ya no es una tecnología piloto. Es infraestructura. Y la infraestructura se gobierna.

Contratos de IA en Redes Clasificadas del Pentágono — 1 de Mayo de 2026

OpenAI
Google
Microsoft
AWS
NVIDIA
SpaceX
Reflection AI
Oracle
Anthropic
Excluida — designación de riesgo de cadena de suministro (marzo 2026)

Imagen de portada: Ilustración generada con IA. Para consultas de atribución, contacta info@ddrinnova.com.


Fuentes

  1. The Washington Post — “Pentagon strikes AI deals for classified military use” (1 de mayo de 2026)
  2. CNN Business — “Pentagon strikes deals with 7 Big Tech companies after shunning Anthropic” (1 de mayo de 2026)
  3. Defense News — “Pentagon freezes out Anthropic as it signs deals with AI rivals” (1 de mayo de 2026)

¿Tu organización está navegando la selección de proveedores de IA, la gobernanza de adquisiciones o la estrategia de despliegue empresarial? Agenda una sesión estratégica con DDR Innova o escríbenos a info@ddrinnova.com.

Preguntas Frecuentes

¿Qué empresas de IA firmaron contratos con el Pentágono en mayo de 2026?

El 1 de mayo de 2026, el Pentágono anunció contratos de redes clasificadas con ocho compañías: OpenAI, Google, Microsoft, Amazon Web Services, NVIDIA, SpaceX, Reflection AI y Oracle. Los acuerdos cubren entornos clasificados en Nivel de Impacto 6 y 7, los niveles más altos usados para información de seguridad nacional.

¿Por qué Anthropic fue excluida de los contratos de IA del Pentágono?

Anthropic fue excluida mediante una designación formal de riesgo de cadena de suministro porque se negó a permitir que el Pentágono usara Claude para 'todos los fines lícitos', lo que incluiría sistemas autónomos de armas letales y vigilancia masiva doméstica. El Secretario de Defensa Pete Hegseth formalizó la designación en marzo de 2026.

¿Qué son los contratos de IA de Nivel de Impacto 6 y 7?

El Nivel de Impacto 6 (IL6) y el Nivel de Impacto 7 (IL7) son las clasificaciones de seguridad más altas del Departamento de Defensa para despliegues de nube e IA, usadas para cargas de trabajo clasificadas y de alto secreto. Los proveedores deben cumplir requisitos de seguridad muy estrictos, muy por encima de las certificaciones comerciales estándar.

¿La exclusión del Pentágono afecta los productos comerciales de Anthropic?

La exclusión aplica solo a contratos de defensa federal, no a la API comercial de Anthropic, las suscripciones a Claude.ai ni las alianzas empresariales con compañías del sector privado. Anthropic también presentó una demanda legal contra la designación, y un juez federal ya bloqueó uno de los aspectos del proceso gubernamental contra la compañía.

Compartir