IA y el Pentágono: Silicon Valley va a la guerra
IA y Uso Militar: El Nuevo Campo de Batalla entre Silicon Valley y el Pentágono
DESENLACE 28 de febrero de 2026: Anthropic no cedió. Trump ordenó cesar el uso de Anthropic en todas las agencias federales. Hegseth designó a Anthropic “Supply Chain Risk” —primera vez que se usa contra una empresa estadounidense. Contrato de $200M cancelado. OpenAI firmó acuerdo con el Pentágono horas después. Pero algo inesperado ocurrió: Claude subió al #2 en App Store, empleados de OpenAI y Google firmaron carta abierta de apoyo, y Sam Altman reveló que OpenAI tiene las mismas “líneas rojas”. Anthropic luchará en tribunales.
La inteligencia artificial comercial se ha integrado formalmente en las operaciones militares de Estados Unidos, generando una crisis sin precedentes entre el Pentágono y las empresas que la desarrollan. El 14 de julio de 2025, el Chief Digital and Artificial Intelligence Office (CDAO) del Departamento de Defensa adjudicó contratos con techo de $200 millones a cada una de las cuatro principales empresas de IA —Anthropic, OpenAI, Google y xAI—, totalizando un programa de $800M para desarrollar capacidades de IA frontera para seguridad nacional. La primera prueba de fuego real llegó el 3 de enero de 2026 con la Operación Absolute Resolve en Venezuela, tras la cual informes del Wall Street Journal revelaron que Claude de Anthropic fue utilizado durante la operación activa a través de Palantir. A mediados de febrero de 2026, el Pentágono amenaza con designar a Anthropic como “riesgo para la cadena de suministro” por negarse a permitir el uso irrestricto de su IA en combate, mientras OpenAI, Google y xAI ya han aceptado las condiciones del Departamento de Defensa. Este informe documenta exhaustivamente cada aspecto de esta situación, distinguiendo rigurosamente entre hechos verificados, informes periodísticos y especulación.
1. Anthropic y el Pentágono: un contrato de $200M en riesgo
El contrato CDAO
Hecho verificado (fuente primaria: comunicado de prensa de Anthropic, 14 de julio de 2025; anuncio oficial del CDAO): Anthropic firmó un Other Transaction Agreement (OTA) de prototipado con un techo de $200 millones durante dos años, adjudicado por el CDAO. El contrato cubre el desarrollo de prototipos de IA frontera para seguridad nacional, incluyendo los modelos Claude Gov (versiones personalizadas para clientes de seguridad nacional) y Claude for Enterprise, todo operando sobre infraestructura de Amazon Web Services. Doug Matty, director del CDAO, declaró que los contratos “permitirán al Departamento aprovechar la tecnología y el talento de las empresas estadounidenses de IA frontera para desarrollar flujos de trabajo de IA agéntica en diversas áreas de misión.”
Para entender el contexto del lanzamiento de Claude Opus 4.6 — el modelo que provocó la “SaaSpocalypse” bursátil — es relevante que esta es la misma tecnología que ahora opera en redes clasificadas del Pentágono.
La política de uso de Anthropic
Hecho verificado (fuente primaria: anthropic.com/legal/aup, versión vigente desde el 15 de septiembre de 2025): La Usage Policy de Anthropic prohíbe explícitamente: producir, modificar o diseñar armas y explosivos; diseñar procesos de armamentización; y sintetizar armas biológicas, químicas, radiológicas o nucleares. También prohíbe “battlefield management applications” (aplicaciones de gestión de campo de batalla) y vigilancia sin consentimiento. Sin embargo, la política contiene una cláusula de excepción gubernamental crucial que permite a Anthropic “celebrar contratos con ciertos clientes gubernamentales que adapten las restricciones de uso a la misión pública y las autoridades legales de ese cliente, si, a juicio de Anthropic, las restricciones contractuales y las salvaguardas aplicables son adecuadas para mitigar los daños potenciales.”
Las dos líneas rojas de Anthropic
Fuente: Axios, 15-16 de febrero de 2026, con confirmación de portavoz de Anthropic. Anthropic mantiene dos límites que se niega a negociar: prohibición de vigilancia masiva de ciudadanos estadounidenses y prohibición de armas completamente autónomas sin intervención humana. El Pentágono considera que estas categorías tienen demasiadas “zonas grises” para ser operativas y exige que todas las empresas de IA permitan el uso de sus herramientas para “todos los propósitos legales”, incluyendo desarrollo de armamento, recopilación de inteligencia y operaciones en el campo de batalla.
La amenaza de “riesgo para la cadena de suministro”
Fuente: Axios, 16 de febrero de 2026; portavoz del Pentágono Sean Parnell (declaración atribuida directamente). El secretario de Defensa Pete Hegseth estaría “cerca” de cortar relaciones comerciales con Anthropic y designarla como “supply chain risk”, una penalización normalmente reservada para adversarios extranjeros. Esta designación obligaría a cualquier empresa que quiera contratar con el Departamento de Defensa a certificar que no utiliza modelos de Anthropic. Parnell declaró: “La relación del Departamento de Guerra con Anthropic está siendo revisada. Nuestra nación requiere que nuestros socios estén dispuestos a ayudar a nuestros combatientes a ganar en cualquier pelea.” Un alto funcionario del Pentágono añadió: “Será enormemente complicado desenredarlo, y nos vamos a asegurar de que paguen un precio por obligarnos a actuar así.”
Nota sobre fiabilidad: Las amenazas más incendiarias provienen de fuentes anónimas del Pentágono a través de Axios, un medio de alta reputación. Estas declaraciones podrían representar posiciones negociadoras más que decisiones finalizadas. Anthropic respondió que mantiene “conversaciones productivas, de buena fe” con el Departamento de Defensa.
Convocatoria al Pentágono: el ultimátum se formaliza
Fuente: TechCrunch, 23 de febrero de 2026. El secretario Hegseth convocó formalmente al CEO de Anthropic, Dario Amodei, al Pentágono para el martes 24 de febrero de 2026.
La reunión del 24 de febrero: Anthropic no cede
Fuentes: Reuters, TechCrunch, The Verge, 24-25 de febrero de 2026. La reunión ocurrió según lo previsto. Funcionarios del Pentágono la describieron internamente como una reunión de “shit-or-get-off-the-pot” —una expresión coloquial que significa “o cedes o atente a las consecuencias.”
El resultado inmediato: Anthropic no cedió. Según múltiples fuentes, la empresa no tiene planes de relajar sus restricciones de uso y mantiene su postura de no permitir que Claude se use para vigilancia masiva de ciudadanos estadounidenses ni para armas letales autónomas sin intervención humana.
El conflicto se reduce a tres palabras: El Pentágono exige que el contrato incluya cláusulas de “any lawful use” (cualquier uso legal), las mismas que ya firmaron OpenAI y xAI. Anthropic se niega porque considera que esa cláusula abre la puerta a usos que, aunque técnicamente legales, violan sus principios éticos.
Las amenazas del Pentágono permanecen activas con un nuevo plazo: viernes 28 de febrero de 2026. Las dos opciones sobre la mesa son: declarar a Anthropic “riesgo para la cadena de suministro” (designación normalmente reservada para adversarios extranjeros como China), o invocar la Ley de Producción de Defensa (DPA) para obligar a Anthropic a adaptar Claude a los requerimientos militares.
El contexto político es incendiario. El CTO del Pentágono que lidera las negociaciones es Emil Michael, exejecutivo de Uber conocido por sugerir en 2014 investigar a periodistas críticos con la empresa. El “Zar de IA” de la administración Trump, David Sacks, ha calificado públicamente las políticas de seguridad de Anthropic de “woke”. Expertos en contratación de defensa señalan que esta táctica no tiene precedentes: históricamente, el Pentágono nunca amenaza públicamente a empresas estadounidenses con la designación de “supply chain risk.”
El dilema del Pentágono: sin alternativa
Paradójicamente, el Departamento de Defensa está en una posición de debilidad negociadora. Anthropic es el único laboratorio de IA frontera con acceso clasificado al DoD a través de su alianza con Palantir. No existe un backup operativo. Si Anthropic cancela el contrato de $200 millones, el Pentágono quedaría sin alternativa a corto plazo para capacidades de IA en redes clasificadas. OpenAI opera en redes clasificadas a través de Microsoft Azure, no directamente; Google Cloud alcanzó IL6 pero Gemini no tiene el mismo nivel de integración que Claude vía Palantir; y xAI está aún en desarrollo de sus capacidades clasificadas.
27-28 de febrero: el desenlace
Fuentes: TechCrunch, Fortune, CBS News, CNN, Washington Times, Axios, 27-28 de febrero de 2026.
El viernes 27 de febrero, con el deadline de las 17:01 cumplido, Anthropic no cedió. Dario Amodei publicó un mensaje reiterando su posición: “Usar estos sistemas para vigilancia doméstica masiva es incompatible con los valores democráticos. Nuestra fuerte preferencia es continuar sirviendo al Departamento y a nuestros militares, con nuestras dos salvaguardas en vigor.”
La respuesta del gobierno fue inmediata y sin precedentes:
Trump en Truth Social: Ordenó a todas las agencias federales cesar el uso de productos de Anthropic, con un plazo de seis meses para la transición. “We don’t need it, we don’t want it, and will not do business with them again.”
Hegseth en X: Designó formalmente a Anthropic como “Supply Chain Risk to National Security”, efectivo inmediatamente. Es la primera vez en la historia que esta designación —normalmente reservada para adversarios extranjeros como Huawei o Kaspersky— se aplica a una empresa estadounidense. Hegseth acusó a Anthropic de “arrogancia y traición”, de usar “retórica sanctimoniosa del altruismo efectivo” y de intentar “someter al ejército estadounidense” mediante “virtue-signalling corporativo que pone la ideología de Silicon Valley por encima de vidas americanas.”
Emil Michael (CTO del Pentágono, exejecutivo de Uber) llamó a Amodei “mentiroso” con “complejo de Dios” que estaba “poniendo en riesgo la seguridad nacional.”
Consecuencias inmediatas:
- Cancelación del contrato de $200 millones
- 180 días para que el DoD elimine Claude de todos sus sistemas
- Prohibición a cualquier contratista militar de hacer negocios con Anthropic
La respuesta de Amodei
En entrevista exclusiva con CBS News el sábado 28, Amodei calificó la decisión de “retaliatory and punitive” (represalia y castigo). “Esto no tiene precedentes y nunca había ocurrido con una empresa estadounidense. Quedó muy claro en sus declaraciones y lenguaje que esto era represalia.”
Amodei señaló la contradicción inherente en la posición del Pentágono: “Una amenaza nos etiqueta como riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional.”
Anthropic anunció que luchará la designación en tribunales, argumentando que bajo 10 USC 3252, el Secretario de Defensa solo tiene autoridad para restringir el uso de Claude en contratos del DoD, no para afectar cómo los contratistas usan Claude para servir a otros clientes.
La industria responde: apoyo inesperado
Lo que nadie anticipó fue la reacción de la industria tecnológica:
Claude al #2 en App Store: La aplicación de Claude subió al segundo lugar en descargas en el App Store de Apple, con usuarios descargando la app como gesto de apoyo.
Carta abierta de empleados: Trabajadores de OpenAI y Google firmaron una carta abierta respaldando la postura de Anthropic.
Sam Altman reveló las “líneas rojas” de OpenAI: En un memo interno filtrado, el CEO de OpenAI confirmó que su empresa comparte exactamente las mismas restricciones en sus contratos de defensa —aunque implementadas técnicamente en los modelos, no contractualmente como Anthropic.
Ilya Sutskever (cofundador de OpenAI, ahora competidor con su propia empresa) escribió en X: “Es extremadamente bueno que Anthropic no haya cedido, y es significativo que OpenAI haya tomado una postura similar.”
Future of Life Institute (Max Tegmark): “Los sistemas de armas completamente autónomos y la vigilancia masiva orwelliana habilitada por IA son afrentas a nuestra dignidad y libertad. Felicitamos a Anthropic, OpenAI y a investigadores líderes de todas las empresas de IA por defender el principio de que la IA nunca debe usarse para matar personas sin control humano significativo.”
OpenAI llena el vacío —con matices
Fuente: Fortune, New York Times, 28 de febrero de 2026.
Horas después de la designación de Anthropic, OpenAI anunció un acuerdo con el Pentágono para desplegar sus modelos en sistemas clasificados. Sam Altman declaró que el Pentágono aceptó que OpenAI podía “construir soluciones técnicas en sus modelos” para prevenir su uso en vigilancia masiva o armas autónomas letales.
“Estamos pidiendo al Departamento de Guerra que ofrezca estos mismos términos a todas las empresas de IA, que en nuestra opinión todos deberían estar dispuestos a aceptar,” dijo Altman.
La diferencia crítica: OpenAI implementa las restricciones técnicamente dentro de los modelos; Anthropic las exigía contractualmente con garantías explícitas. Algunos comentaristas interpretaron la declaración de Altman como una crítica velada a Anthropic por no haber aceptado el enfoque técnico.
Grok (xAI) acepta “cualquier uso legal”: El modelo de Elon Musk aceptó las condiciones que Anthropic rechazó, posicionándose para ganar contratos militares. Sin embargo, según CNN, Grok “no se considera tan avanzado como Claude” y tiene baja adopción entre funcionarios gubernamentales.
El impacto financiero real: limitado
A pesar del golpe político, el daño financiero a Anthropic parece contenido:
- Serie G reciente: $30,000 millones a valoración de $380,000 millones
- Claude Code: Más de $2,500 millones en ARR anualizado
- Clientes comerciales confirmados: Spotify, Novo Nordisk, Salesforce, Thomson Reuters, New York Stock Exchange —todos anunciaron que continuarán trabajando con Anthropic
- Contrato perdido: $200 millones —significativo pero no existencial
El analista Shenaka Anslem Perera advirtió en X: “Tomará años resolverse en tribunales. Y mientras tanto, cada general counsel de cada empresa Fortune 500 con cualquier exposición al Pentágono va a hacer una pregunta: ¿vale la pena el riesgo de usar Claude?”
Nota sobre fiabilidad: La designación de “supply chain risk” y sus consecuencias legales serán probadas en tribunales. Expertos citados por Fortune cuestionan si el Pentágono hizo un “esfuerzo de buena fe” para buscar medidas menos intrusivas antes de la designación, como requiere la ley.
La alianza Anthropic-Palantir
Hecho verificado (fuentes primarias: comunicados de BusinessWire de Palantir/Anthropic):
La alianza se desarrolló en dos fases. La primera fase se anunció el 7 de noviembre de 2024: Anthropic y Palantir, junto con AWS, proporcionan acceso a los modelos Claude 3 y 3.5 a agencias de inteligencia y defensa de EE.UU. Claude se operacionaliza dentro de la Palantir AI Platform (AIP), alojada en el entorno acreditado a Impact Level 6 (IL6) de Palantir en AWS —uno de los estándares de seguridad más estrictos del DoD, correspondiente al nivel SECRET. Palantir se describió como “el primer socio industrial en llevar modelos Claude a entornos clasificados.”
La segunda fase se anunció el 17 de abril de 2025: Anthropic se unió al programa FedStart de Palantir, haciendo Claude disponible a agencias civiles federales con estándares de seguridad FedRAMP High y DoD IL5, alojado en Google Cloud. El objetivo declarado era alcanzar “millones” de trabajadores federales.
Implicación crítica: A través de esta alianza, Claude se convirtió en el primer y, hasta la fecha, único modelo de IA frontera disponible en los sistemas clasificados del DoD. Esto convierte a Anthropic en indispensable a corto plazo, pero también la pone en el epicentro de la controversia.
Espionaje chino: Anthropic acusa a DeepSeek, Moonshot y MiniMax
Fuente: Anthropic (comunicado oficial), 25 de febrero de 2026. En medio de la disputa con el Pentágono, Anthropic reveló que laboratorios chinos de IA —específicamente DeepSeek, Moonshot AI y MiniMax— crearon más de 24,000 cuentas falsas para extraer capacidades de Claude mediante “destilación”, generando más de 16 millones de intercambios. Los ataques apuntaron específicamente a las capacidades más avanzadas de Claude: razonamiento agéntico, uso de herramientas y codificación.
Anthropic pidió una respuesta coordinada de la industria y los reguladores, vinculando explícitamente estos ataques al debate sobre los controles de exportación de chips de IA a China. El timing de esta revelación —en plena crisis con el Pentágono— añade una dimensión geopolítica adicional: Anthropic se posiciona como víctima de espionaje extranjero mientras resiste las demandas del propio gobierno estadounidense.
2. Operación Absolute Resolve: qué se sabe y qué es especulación
Los hechos confirmados
Fuentes primarias: declaraciones oficiales de la Casa Blanca, Departamento de Defensa (war.gov), briefing del general Dan Caine. El 3 de enero de 2026, fuerzas especiales estadounidenses ejecutaron la Operación Absolute Resolve, capturando al presidente venezolano Nicolás Maduro y su esposa Cilia Flores en el complejo de Fort Tiuna en Caracas. La operación involucró más de 150 aeronaves desde 20 bases, incluyendo F-22, F-35, bombarderos B-1, aeronaves de guerra electrónica y drones furtivos RQ-170. Las fuerzas terrestres estuvieron en el complejo aproximadamente 30 minutos. Maduro y Flores fueron trasladados al USS Iwo Jima y luego a Nueva York, donde fueron procesados el 5 de enero ante el juez Alvin Hellerstein por cargos de narcoterrorismo. Ambos se declararon no culpables.
Las víctimas según diferentes fuentes
Las cifras varían significativamente. El Pentágono confirmó 7 militares estadounidenses heridos y cero fallecidos; 5 volvieron al servicio y 2 seguían en recuperación. En cuanto a bajas venezolanas y cubanas, la mejor estimación consolidada oscila entre 75 y 83 muertos, compuesta por 47 militares venezolanos (cifra final del ministro de Defensa Padrino López, 16 de enero), 32 militares/inteligencia cubanos (confirmado por Cuba), y al menos 2 civiles documentados independientemente. Diosdado Cabello afirmó más de 100 muertos totales, cifra no verificada independientemente. Airwars, el monitor independiente británico, identificó al menos dos incidentes con víctimas civiles, incluyendo un ataque aéreo en Catia La Mar que impactó un edificio residencial de tres pisos.
Lo que reporta el WSJ sobre el uso de Claude
Fuente: Wall Street Journal, circa 13-15 de febrero de 2026; confirmado por Axios. Según fuentes anónimas “familiarizadas con el asunto,” Claude fue utilizado durante la operación activa, no solo en la preparación, desplegado a través de la alianza de Anthropic con Palantir. El WSJ también reportó que un empleado de Anthropic contactó a un homólogo en Palantir para preguntar cómo se había usado Claude durante la operación. Axios confirmó independientemente el uso de Claude durante la operación activa, pero señaló que “no pudo confirmar el papel preciso que jugó Claude.”
Lo que NO se sabe: El rol exacto de Claude en la operación no ha sido detallado por ninguna fuente primaria. Algunos medios secundarios especularon sobre “targeting asistido por IA” y “guía de drones autónomos”, pero estas aplicaciones específicas no están confirmadas por el reporte original del WSJ. No se ha establecido si Claude fue utilizado para targeting, análisis de inteligencia, procesamiento de documentos u otras funciones.
Las respuestas oficiales
Anthropic declaró: “No podemos comentar si Claude, o cualquier otro modelo de IA, fue utilizado para ninguna operación específica, clasificada o no. Cualquier uso de Claude está obligado a cumplir con nuestras Políticas de Uso.” La empresa negó específicamente haber discutido el uso de Claude en operaciones específicas con el Departamento de Defensa o con socios incluyendo Palantir. Una fuente citada por Fox News indicó que Anthropic “tiene visibilidad sobre el uso clasificado y no clasificado y tiene confianza en que todo el uso ha estado en línea con su política de uso.” Palantir declinó comentar. El Pentágono no confirmó oficialmente el uso de Claude pero un alto funcionario describió la consulta de Anthropic a Palantir como preocupante.
3. OpenAI: de prohibir el uso militar a desplegarse en redes del Pentágono
El cambio de política
Hecho verificado (fuente primaria: página de políticas de uso de OpenAI, actualizada el 10 de enero de 2024; reportado originalmente por The Intercept). La política original de OpenAI prohibía explícitamente actividades con “alto riesgo de daño físico, incluyendo: desarrollo de armas y militar y guerra.” El 10 de enero de 2024, sin anuncio público, OpenAI eliminó la prohibición categórica de “military and warfare.” El cambio no fue anunciado; OpenAI lo describió como una reescritura para hacer el documento “más claro y legible.” El portavoz Niko Felix explicó que “un principio como ‘No dañes a otros’ es amplio pero fácil de entender.” Anna Makanju, VP de Asuntos Globales de OpenAI, reconoció en Davos que “la prohibición general sobre uso militar hacía que muchos pensaran que se prohibían muchos casos de uso que la gente considera alineados con lo que queremos ver en el mundo.”
La política vigente (actualizada el 29 de enero de 2025) mantiene la prohibición de “desarrollar o usar armas”, “herir a otros o destruir propiedad” y vigilancia no autorizada, pero ya no contiene ninguna prohibición categórica sobre uso militar.
Los contratos con el DoD
Hecho verificado (fuente primaria: comunicado del CDAO, junio de 2025; blog oficial de OpenAI). OpenAI Public Sector LLC recibió un contrato de hasta $200 millones del CDAO, con una obligación inicial de menos de $2 millones. OpenAI describió el alcance como operaciones administrativas, acceso a salud para militares y defensa cibernética proactiva, aunque el anuncio del DoD mencionó “dominios de combate y empresariales.” Además, en diciembre de 2024, OpenAI anunció una alianza estratégica con Anduril centrada en sistemas contra drones (CUAS), donde los modelos de OpenAI serán entrenados con datos de amenazas de Anduril.
ChatGPT en redes clasificadas versus no clasificadas
Hecho verificado (fuentes primarias: blog de OpenAI, comunicado del DoD, blog de Microsoft Azure Government). En redes no clasificadas, OpenAI desplegó una versión personalizada de ChatGPT en GenAI.mil el 10 de febrero de 2026, accesible para los 3 millones de personal civil y militar del DoD. En redes clasificadas, los modelos de OpenAI están disponibles a través de Microsoft Azure, no directamente por OpenAI. Microsoft desplegó GPT-4 en una nube aislada Top Secret en mayo de 2024. En abril de 2025, Azure OpenAI Service fue autorizado en todos los niveles de clasificación del gobierno estadounidense (IL2-IL6 más Top Secret ICD 503). La distinción es crucial: OpenAI directamente opera solo en redes no clasificadas; es Microsoft quien proporciona el acceso clasificado.
4. Google eliminó sus propias líneas rojas sobre armas
De Project Maven a la eliminación de los principios de IA
La trayectoria de Google es la más dramática en cuanto a cambio de posición. En 2017-2018, Google participó en Project Maven, un contrato del DoD para analizar imágenes de drones con machine learning. Más de 3,100 empleados firmaron una carta abierta exigiendo que Google “no estuviera en el negocio de la guerra.” Docenas renunciaron en protesta. En junio de 2018, Google anunció que no renovaría el contrato y publicó sus Principios de IA, que prohibían explícitamente “armas u otras tecnologías cuyo propósito principal sea causar o facilitar directamente lesiones a personas” y “tecnologías que recopilen o utilicen información para vigilancia violando normas internacionales aceptadas.”
El 4 de febrero de 2025, Google eliminó silenciosamente estas prohibiciones. Los nuevos principios, coautorados por Demis Hassabis (CEO de DeepMind) y James Manyika, reemplazaron las prohibiciones específicas con compromisos genéricos de “supervisión humana apropiada” y que los beneficios “superen sustancialmente los riesgos previsibles.” La justificación declarada fue que “hay una competencia global por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo.” Human Rights Watch calificó el giro de Google de negarse a construir IA para armas a apoyar aventuras de seguridad nacional como “stark” (drástico). Margaret Mitchell, excodirectora de ética de IA de Google, advirtió: “Que hayan eliminado eso significa que Google probablemente ahora trabajará en desplegar tecnología directamente que pueda matar personas.”
Situación actual de contratos militares
Google actualmente mantiene múltiples contratos militares significativos: el contrato JWCC de $9 mil millones (compartido con AWS, Microsoft y Oracle) para nube de combate; su propio contrato CDAO de $200M; y Gemini for Government, que fue el primer modelo de IA desplegado en GenAI.mil en diciembre de 2025. Google Cloud también alcanzó la acreditación IL6 (nivel SECRET) en junio de 2025. Además, Google mantiene el controvertido Project Nimbus con Israel, un contrato de $1,200 millones (junto con Amazon) que incluye al Ministerio de Defensa israelí como cliente, por el cual Google despidió a más de 50 empleados que protestaban en abril de 2024.
5. xAI: sin principios éticos publicados y compitiendo en enjambres de drones
Hecho verificado (fuentes primarias: comunicado CDAO, blog oficial de xAI, anuncio del DoD). xAI recibió su contrato de $200 millones del CDAO el 14 de julio de 2025 y fue descrito por NBC News como una “adición tardía” que “apareció de la nada” sin haber estado bajo consideración antes de marzo de 2025. Un exfuncionario de contratación del Pentágono, Greg Parham, declaró que xAI está “lejos, muy lejos, muy muy lejos detrás” de otras empresas en el proceso de autorización gubernamental. El 22 de diciembre de 2025, el DoD anunció la integración de “xAI for Government” en GenAI.mil, con Grok operando a nivel IL5.
Reporte de Bloomberg (16 de febrero de 2026, fuentes anónimas): SpaceX y xAI (ahora subsidiaria de SpaceX tras la fusión anunciada a principios de febrero de 2026) están compitiendo en un desafío secreto del Pentágono de $100 millones para desarrollar tecnología de enjambres de drones autónomos controlados por voz, organizado por la Defense Innovation Unit y el Defense Autonomous Warfare Group de SOCOM. Esto contrasta directamente con la posición de Elon Musk en 2015, cuando cofirmó una carta del Future of Life Institute pidiendo prohibir “armas autónomas ofensivas más allá del control humano significativo.”
xAI no ha publicado principios éticos formales ni política de uso sobre aplicaciones militares. A diferencia de Anthropic, OpenAI y Google, no existe documento público de xAI que defina restricciones sobre uso militar de sus modelos. Su declaración oficial más significativa sobre uso militar proviene de su blog: “Apoyar las misiones críticas del gobierno de Estados Unidos es una parte clave de nuestra misión.”
La senadora Elizabeth Warren envió una carta formal al secretario Hegseth en septiembre de 2025 cuestionando el contrato con xAI, citando el potencial beneficio impropio del acceso de Musk a datos gubernamentales a través de DOGE, preocupaciones sobre competencia, la desinformación de Grok, y un incidente en julio de 2025 en que Grok generó contenido antisemita, autodenominándose “MechaHitler.”
6. Palantir: la infraestructura que conecta Silicon Valley con el campo de batalla
Un conglomerado de contratos de defensa
Palantir, fundada en 2003 con financiación inicial de In-Q-Tel (el brazo de capital riesgo de la CIA), se ha convertido en el intermediario indispensable entre la IA comercial y las operaciones militares. Sus contratos principales incluyen: el acuerdo empresarial del Ejército de hasta $10 mil millones durante 10 años (julio de 2025, fuente: army.mil); el Maven Smart System del CDAO por $1,300 millones hasta 2029 con más de 20,000 usuarios activos en 35+ herramientas militares; y ShipOS para la Armada por hasta $448 millones.
Datos financieros verificados (fuente primaria: SEC filing, comunicado de resultados Q4 2025 de BusinessWire, 1 de febrero de 2026): Palantir reportó ingresos totales de $4,480 millones en el año fiscal 2025, con ingresos del gobierno estadounidense de $570 millones solo en Q4 (+66% interanual). El ingreso neto fue de $608.7 millones en Q4, con $7,200 millones en efectivo y cero deuda. La guía para 2026 proyecta un crecimiento del 61% interanual.
Cómo funciona Palantir como puente
Palantir actúa como intermediario a través de varios mecanismos. Primero, posee acreditaciones de seguridad de élite (IL5, IL6, FedRAMP High, nube Top Secret) que la mayoría de las empresas de IA no tienen. A través de FedStart y alianzas directas, los modelos de IA se despliegan en entornos clasificados usando la infraestructura preacreditada de Palantir. Segundo, su capa de ontología —un marco semántico que mapea cómo se relacionan las fuentes de datos— se sitúa entre los datos gubernamentales crudos y los modelos de IA, controlando qué información acceden los modelos. Tercero, la AIP (Artificial Intelligence Platform), lanzada en abril de 2023, integra múltiples modelos de IA (Claude, GPT-4, Llama) en una arquitectura modelo-agnóstica con AI Guardrails que controlan granularmente qué pueden ver y hacer los modelos, generando un registro digital seguro de todas las operaciones.
Palantir también mantiene alianzas con Microsoft (desde agosto de 2024, siendo “el primer socio industrial en desplegar Azure OpenAI Service en entornos clasificados”), con Meta (Llama para defensa, desde noviembre de 2024), y con Anduril (consorcio desde diciembre de 2024 para preparar datos de defensa para entrenamiento de IA en niveles SCI y SAP).
7. Las dimisiones que revelan las tensiones internas
Mrinank Sharma: la carta que no nombró al Pentágono
Hecho verificado (fuente primaria: publicación en X del 9 de febrero de 2026, 14.6 millones de visualizaciones). Sharma, líder del equipo de Safeguards Research de Anthropic desde agosto de 2023, publicó su carta de dimisión que, aunque ampliamente citada en el contexto de la disputa militar, es notablemente vaga sobre disputas internas específicas. Sus palabras clave: “El mundo está en peligro. Y no solo por la IA, o las bioarmas, sino por toda una serie de crisis interconectadas.” Añadió: “A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto dentro de mí, dentro de la organización, donde constantemente enfrentamos presiones para dejar de lado lo que más importa.” No mencionó directamente el uso militar ni acusó a Anthropic de conducta específica. Anthropic declaró estar “agradecida por el trabajo de Sharma avanzando la investigación en seguridad de IA.”
Las otras salidas de Anthropic requieren matización. Harsh Mehta y Behnam Neyshabur (ambos a principios de febrero de 2026) anunciaron sus salidas elogiando a la empresa y declarando que iban a “empezar algo nuevo.” Dylan Scandinaro se trasladó a OpenAI como Head of Preparedness sin criticar públicamente a Anthropic. Vincular estas salidas a la disputa militar sería especulativo; la evidencia disponible sugiere que son movimientos profesionales estándar, no dimisiones de protesta.
Ryan Beiermeister: un despido disputado en OpenAI
Fuente: Wall Street Journal, 10 de febrero de 2026. Beiermeister, VP de Product Policy en OpenAI, fue despedida en enero de 2026 oficialmente por una alegación de discriminación sexual hecha por un colega masculino, que ella niega categóricamente. Antes de su despido, había expresado críticas al “Adult Mode” planificado para ChatGPT. OpenAI declaró que su salida “no estaba relacionada con ningún asunto que ella planteó.” La conexión entre su oposición al Adult Mode y su despido es sugerente pero no concluyente.
Zoë Hitzig: la dimisión más articulada
Hecho verificado (fuente primaria: publicación en X y ensayo invitado en el New York Times, 11 de febrero de 2026). Hitzig renunció el 10 de febrero de 2026 —el mismo día que OpenAI comenzó a probar anuncios en ChatGPT— publicando: “OpenAI tiene el registro más detallado del pensamiento humano privado jamás reunido. ¿Podemos confiar en que resistirán las fuerzas que los empujan a abusar de él?” En su ensayo del NYT, trazó paralelos explícitos con la evolución de Facebook y propuso alternativas a la publicidad como modelo de ingresos. Su dimisión no estaba directamente relacionada con uso militar sino con la monetización de datos conversacionales. Esto conecta con un problema que ya hemos analizado: la IA como nuevo canal de fuga de datos es una preocupación que va mucho más allá del ámbito militar.
Un patrón estructural documentado en OpenAI
Más allá de las salidas individuales, OpenAI ha disuelto dos equipos de seguridad en dos años: el equipo de Superalignment en mayo de 2024 (tras las dimisiones de Ilya Sutskever y Jan Leike) y el equipo de Mission Alignment en febrero de 2026. Este es el indicador estructural más fuerte de deprioritización de la seguridad. Leike declaró en su dimisión que “la cultura de seguridad y los procesos han quedado relegados frente a los productos brillantes.”
8. El marco legal: un vacío de responsabilidad
La regulación estadounidense existente
Fuente primaria: DoD Directive 3000.09 (original noviembre 2012, actualizada enero 2023). La directiva sobre autonomía en sistemas de armas no prohíbe explícitamente los sistemas de armas letales autónomos (LAWS), pero requiere que todos los sistemas permitan a comandantes y operadores “ejercer niveles apropiados de juicio humano sobre el uso de la fuerza” y exige revisiones de alto nivel antes del desarrollo o despliegue. La NDAA del FY2026 (firmada en diciembre de 2025) añadió requisitos específicos: prohíbe la adquisición de IA de naciones adversarias (China, Rusia, Irán, Corea del Norte, prohibiendo explícitamente DeepSeek); exige una política integral de ciberseguridad y gobernanza para todos los sistemas de IA/ML en 180 días; y requiere un equipo interfuncional para evaluación de modelos de IA para junio de 2026.
La prohibición de DeepSeek en el ámbito militar estadounidense es otro ángulo del dilema de soberanía tecnológica que ya exploramos en nuestro análisis sobre DeepSeek y la soberanía de datos — las decisiones geopolíticas ya determinan qué IA puedes usar.
La administración Trump revocó la orden ejecutiva de Biden sobre IA (EO 14110) el primer día de mandato, reemplazándola con la EO 14179 enfocada en “eliminar barreras al liderazgo estadounidense en IA.” El estatus de las prohibiciones de Biden sobre uso de IA en seguridad nacional (como la prohibición de automatizar armas nucleares bajo NSM-25) no está claro bajo la administración actual.
El vacío de responsabilidad legal
No existe un marco jurídico establecido que asigne responsabilidad específica cuando una IA comercial se utiliza en operaciones militares con víctimas. El Derecho Internacional Humanitario impone obligaciones a personas, no a sistemas de armas. Según el Manual de Derecho de Guerra del DoD, los comandantes y operadores son legalmente responsables. Sin embargo, múltiples académicos identifican un “vacío de responsabilidad tripartito”: los desarrolladores alegan que diseñaron los sistemas según especificaciones; los operadores alegan falta de control en tiempo real; los comandantes invocan confianza razonable en sistemas certificados. El gobierno estadounidense generalmente goza de inmunidad soberana bajo el Federal Tort Claims Act, con excepciones, y las operaciones militares en el extranjero están típicamente excluidas. Los proveedores comerciales de IA podrían enfrentar responsabilidad bajo teorías de responsabilidad por productos (defecto de diseño, falta de advertencia), pero esto no ha sido probado en tribunales para IA militar.
El EU AI Act excluye expresamente el uso militar
Hecho verificado (fuente primaria: Reglamento UE 2024/1689, Artículo 2(3), Considerando 24). El AI Act “no se aplica a los sistemas de IA cuando y en la medida en que se pongan en el mercado, se pongan en servicio o se utilicen con o sin modificaciones exclusivamente para fines militares, de defensa o de seguridad nacional.” Sin embargo, si un sistema de IA desarrollado para fines militares se utiliza posteriormente para otros propósitos civiles, sí entra en el ámbito de la normativa. La exención de seguridad nacional fue una adición tardía durante las negociaciones tripartitas y ha sido criticada por algunos juristas como contraria a la jurisprudencia previa de la UE.
9. Las declaraciones que definen la nueva política
Pete Hegseth redefine la “IA responsable”
Fuente primaria: memorando oficial del DoD sobre estrategia de IA, 9 de enero de 2026 (media.defense.gov); discurso en SpaceX Starbase, 12 de enero de 2026 (corroborado por AP, DefenseScoop, Breaking Defense). Hegseth declaró: “La IA responsable en el Departamento de Guerra significa capacidades de IA objetivamente veraces, desplegadas de forma segura y dentro de las leyes que rigen las actividades del departamento. No emplearemos modelos de IA que no te permitan librar guerras.” El memorando establece siete “Pace-Setting Projects,” incluyendo Swarm Forge (combate con IA), Agent Network (gestión de batalla con IA) y Ender’s Foundry (simulación con IA). Exige que los últimos modelos de IA se desplieguen “dentro de los 30 días de su lanzamiento público” y ordena nuevo lenguaje contractual permitiendo “cualquier uso legal” en todos los contratos de IA en 180 días. Define la “IA responsable” como IA libre de “‘sintonización’ ideológica.”
El concepto de “Agent Network” para gestión de batalla conecta directamente con la evolución de los agentes de IA que analizamos aquí — la diferencia es que estos agentes no gestionan tickets de soporte, sino operaciones militares.
Dario Amodei: defensa sí, autocracia no
Fuente primaria: ensayo “The Adolescence of Technology” en darioamodei.com, 26 de enero de 2026. Amodei advirtió sobre enjambres de “millones o miles de millones de drones armados completamente automatizados, controlados localmente por IA poderosa y coordinados estratégicamente por una IA aún más poderosa” que podrían constituir “un ejército invencible.” Su fórmula declarada: “Deberíamos usar IA para la defensa nacional en todas las formas excepto aquellas que nos harían más parecidos a nuestros adversarios autocráticos.” Abogó por bloquear exportaciones de chips a China durante la “ventana crítica 2025-2027” y por armar democracias con IA “de manera cuidadosa y dentro de límites.”
Sam Altman: “nunca digas nunca”
Fuente: declaraciones en la Vanderbilt University Summit on Modern Conflict, 10 de abril de 2025 (reportadas por Bloomberg, Washington Times). Altman declaró sobre desarrollo de armas: “Nunca diré nunca, porque el mundo podría ponerse realmente raro, y en ese punto, tienes que mirar lo que está pasando y decir ‘hagamos un trade-off entre algunas opciones realmente malas.’” Añadió: “No creo que la mayor parte del mundo quiera que la IA tome decisiones sobre armas,” pero también: “Tenemos que y estamos orgullosos de y realmente queremos participar en áreas de seguridad nacional.” OpenAI reforzó su giro institucional añadiendo al general retirado Paul Nakasone, exdirector de la NSA, a su junta directiva.
10. Tabla comparativa: quién permite qué
| Dimensión | Anthropic | OpenAI | xAI | |
|---|---|---|---|---|
| Prohibición original de uso militar | Sí (en AUP) | Sí (eliminada ene. 2024) | Sí (eliminada feb. 2025) | Nunca publicó restricciones |
| Restricciones actuales sobre armas | Prohíbe armas autónomas y vigilancia masiva | Prohíbe “desarrollar o usar armas” (con excepciones) | Sin prohibición explícita desde feb. 2025 | Sin política publicada |
| Contrato CDAO ($200M) | Sí (jul. 2025) | Sí (jun. 2025) | Sí (jul. 2025) | Sí (jul. 2025) |
| Modelo en GenAI.mil (no clasificado) | No reportado | ChatGPT (feb. 2026) | Gemini (dic. 2025, primero) | Grok (dic. 2025) |
| Acceso a redes clasificadas | Único modelo disponible (vía Palantir IL6) | Vía Microsoft Azure (todos los niveles) | Google Distributed Cloud (IL6+) | En desarrollo (IL5 declarado) |
| Acepta condiciones “todo uso legal” | No — mantiene 2 líneas rojas | Reportado que sí (no clasificado) | Reportado que sí (no clasificado) | Reportado que sí |
| Principios éticos publicados | Usage Policy detallada | Política de uso (sin mención militar) | Nuevos principios genéricos (feb. 2025) | Ninguno |
| Alianza con contratista de defensa | Palantir (nov. 2024) | Anduril (dic. 2024) | Múltiples (JWCC, Nimbus) | SpaceX (fusión feb. 2026) |
| Protestas internas documentadas | ”Inquietud interna” (fuente anónima) | Múltiples dimisiones de seguridad | 3,100+ firmantes contra Maven; 50+ despedidos por Nimbus | Ninguna reportada |
11. La paradoja que nadie menciona: ¿funciona la IA o no?
Existe una contradicción brutal en el estado actual de la inteligencia artificial que el debate sobre uso militar expone con claridad.
El escepticismo del mundo civil
Los datos de adopción empresarial cuentan una historia de expectativas no cumplidas. Según The Economist (febrero 2026), solo el 5.7% de las horas de trabajo totales implican el uso de IA generativa, apenas un incremento desde el 4.1% de finales de 2024. El “boom de productividad” prometido sigue sin materializarse. Los estudios de implementación empresarial son igual de desalentadores: solo el 5% de las empresas logran ROI real en sus proyectos de IA, mientras que el 70-80% de los proyectos agénticos no escalan más allá de pilotos.
La admisión más reveladora vino del propio liderazgo de OpenAI. Brad Lightcap, COO de la empresa, declaró el 25 de febrero de 2026: “Todavía no hemos visto realmente cómo la IA penetra en los procesos de negocio empresarial” —esto a pesar de que los ingresos anualizados de OpenAI superaron los $20,000 millones al cierre de 2025. Si la empresa líder en IA comercial reconoce que la tecnología aún no ha transformado los procesos empresariales, ¿por qué el Pentágono actúa como si fuera una capacidad probada lista para el combate?
La inversión, sin embargo, no se detiene. Según Bridgewater Associates (23 de febrero de 2026), Alphabet, Amazon, Meta y Microsoft invertirán conjuntamente $650,000 millones en infraestructura de IA durante 2026 —la cifra de capex más alta de la historia de la industria tecnológica. Meta acaba de firmar un acuerdo de hasta $100,000 millones con AMD en chips de IA (25 de febrero de 2026). Una desconexión extraordinaria: inversiones récord mientras la adopción real permanece estancada.
El Parlamento Europeo bloquea el acceso a herramientas de IA en dispositivos de legisladores, citando riesgos de seguridad. Las empresas siguen luchando por encontrar casos de uso que justifiquen los costes. Los agentes autónomos siguen demostrando ser peligrosos: el 25 de febrero, la investigadora de seguridad de Meta AI Summer Yue reportó que su agente OpenClaw, al que ordenó revisar su inbox sobrecargado, comenzó a borrar todos sus correos en “modo speed run”, ignorando sus comandos de parada. Yue tuvo que correr físicamente a su Mac Mini para detenerlo. El incidente ilustra el “context window overflow” —cuando el modelo pierde de vista las instrucciones originales— que hace que incluso tareas mundanas puedan salir catastróficamente mal.
El grupo Citrini Research (23 de febrero de 2026) publicó un escenario donde la sustitución masiva de trabajadores por agentes de IA podría generar un bucle de retroalimentación negativa: menos empleos → menos consumo → más presión sobre márgenes → más inversión en IA → menos empleos. En su escenario más pesimista: el desempleo se duplica y el mercado de valores cae más de un tercio. El senador Bernie Sanders advierte que Estados Unidos “no tiene ni idea de la velocidad y escala de la revolución de IA que se avecina” —una admisión implícita de que nadie sabe realmente qué está pasando.
El entusiasmo del mundo militar
Mientras tanto, el Pentágono opera como si la IA fuera una tecnología probada y lista para el combate. $800 millones en contratos con las cuatro grandes. Claude desplegado en operaciones clasificadas. Hegseth exigiendo que los modelos se desplieguen “dentro de los 30 días de su lanzamiento público”. Enjambres de drones autónomos en desarrollo. Palantir expandiéndose a vigilancia policial en Londres. La directiva de “cualquier uso legal” como estándar contractual.
Las preguntas incómodas
Esta disonancia plantea interrogantes que ningún actor quiere responder:
¿La IA no funciona tan bien como prometen… o funciona demasiado bien para ciertos propósitos? Quizás la tecnología es mediocre para redactar emails y generar código, pero resulta devastadoramente eficaz para procesar inteligencia, coordinar operaciones y tomar decisiones en tiempo real. Los militares podrían estar viendo capacidades que el mercado civil aún no ha descubierto cómo monetizar.
¿O es que el Pentágono está desplegando tecnología inmadura en operaciones reales por miedo a quedarse atrás? La carrera con China podría estar forzando decisiones de despliegue que en cualquier otro contexto serían inaceptables. Cuando Hegseth dice “no emplearemos modelos de IA que no te permitan librar guerras,” está priorizando la capacidad sobre la fiabilidad.
¿Quién paga las consecuencias de un modelo que alucina en combate? El vacío de responsabilidad legal documentado en este informe sugiere que nadie. Los desarrolladores señalan a los operadores. Los operadores señalan a los comandantes. Los comandantes invocan confianza razonable en sistemas certificados. Y el gobierno goza de inmunidad soberana.
La asimetría reveladora
Lo más revelador no es que los militares quieran usar IA. Es la velocidad y la falta de fricción con la que lo están haciendo, comparada con la adopción civil. Una empresa necesita meses de evaluación, pilotos, análisis de ROI y aprobaciones para implementar un chatbot de atención al cliente. El Pentágono despliega modelos en redes clasificadas y operaciones activas mientras las empresas que los construyen ni siquiera saben exactamente cómo se están usando.
Quizás la pregunta no es si la IA funciona. Es para quién funciona, y a qué coste para el resto.
Conclusión: Anthropic traza una línea en la arena
El 28 de febrero de 2026, Anthropic se convirtió en la primera empresa de IA de primer nivel en trazar una línea pública e inamovible sobre los usos que considera inaceptables para su tecnología, y aceptar las consecuencias económicas y políticas de hacerlo.
Dario Amodei no ganó el contrato. Perdió $200 millones en negocio gubernamental y se convirtió en la primera empresa estadounidense designada “supply chain risk” —una etiqueta diseñada para adversarios extranjeros. Pero puede haber ganado algo más difícil de conseguir en Silicon Valley: credibilidad moral en un momento en que la industria entera debate qué clase de herramientas está dispuesta a construir, y para quién.
La bifurcación es ahora definitiva:
- Anthropic: Rechazó “any lawful use”, perdió el contrato, designada supply chain risk, luchará en tribunales
- OpenAI: Aceptó el contrato con restricciones técnicas (no contractuales), llenó el vacío horas después
- Google: Eliminó sus principios sobre armas, sin comentarios sobre la situación
- xAI: Aceptó “cualquier uso legal” sin restricciones
La reacción de apoyo —Claude al #2 en App Store, carta abierta de empleados de competidores, Altman revelando las mismas “líneas rojas”, Sutskever apoyando públicamente— sugiere que la decisión de Anthropic resonó más allá de lo esperado. Pero el daño comercial a largo plazo —especialmente para empresas con exposición al Pentágono— está por determinarse.
Lo que queda por resolver:
- Los tribunales: ¿Tiene el Secretario de Defensa autoridad bajo 10 USC 3252 para una designación tan amplia?
- El precedente: ¿Usará el gobierno esta herramienta contra otras empresas que no cumplan demandas políticas?
- El mercado: ¿Penalizarán los clientes enterprise a Anthropic por el riesgo regulatorio, o la premiarán por sus principios?
“No retrocedemos en esto,” concluyó Amodei. “Hay cosas que no haremos, independientemente de lo que cuesten.”
Última actualización: 28 de febrero de 2026, 12:00 CET
Fuentes: Anthropic (comunicados oficiales, AUP), CDAO/DoD (anuncios de contratos, Directive 3000.09, NDAA FY2026), Palantir (BusinessWire, SEC filings), OpenAI (blog oficial, políticas de uso), Google (AI Principles, comunicados), xAI (blog oficial), Wall Street Journal, Axios, Bloomberg, The Intercept, CNBC, AP, DefenseScoop, Breaking Defense, Human Rights Watch, Airwars, New York Times. Las opiniones editoriales son del autor.
Sigue explorando
- Claude Opus 4.6: El Modelo que Hundió la Bolsa - El mismo modelo que ahora opera en redes clasificadas del Pentágono provocó un pánico bursátil de $285.000M
- La IA es el nuevo canal de fuga de datos - Cuando los datos que introduces en un LLM son más valiosos que la respuesta que recibes
- Tendencias de IA en 2026: Lo que realmente importa - El contexto general del año en que la IA militar dejó de ser ciencia ficción
Curso relacionado
Aprende Máster de Desarrollo con IA con práctica real
Módulos paso a paso, ejercicios prácticos y proyectos reales. Sin humo.
Ver curso →Consultoría
¿Tienes un problema parecido con Integraciones con IA?
Puedo ayudarte. Cuéntame qué tienes y te doy un diagnóstico honesto — sin compromiso.
Ver consultoría →También te puede interesar
DeepSeek: coste, rendimiento y soberanía de datos
Costes bajos, rendimiento alto, código abierto... y tus datos en servidores chinos. Análisis de riesgos y alternativas para empresas europeas.
La IA como canal de fuga de datos empresariales
Empleados copian datos sensibles en ChatGPT sin pensar. El phishing con IA es más sofisticado que nunca. La seguridad tradicional no sirve.
¿La IA quita trabajo? Los datos reales
Anthropic publicó el estudio más serio sobre IA y empleo. Datos matizados que van contra el relato de ambos bandos.