Ir al contenido
  1. Blog/

Anthropic vs. el Pentágono: cuando la ética de la IA choca con el poder militar

·4 mins· loading
Carles Abarca
Autor
Carles Abarca
Writing about AI, digital transformation, and the forces reshaping technology.

La semana pasada presenciamos algo sin precedentes en la historia de la inteligencia artificial: una empresa de IA plantándose ante el Pentágono y diciendo “no”.

Anthropic, creadora de Claude —el único modelo de IA actualmente autorizado en los sistemas clasificados del gobierno federal de Estados Unidos— rechazó las condiciones finales de un contrato de 200 millones de dólares con el Departamento de Defensa. Las consecuencias fueron inmediatas y brutales.

La línea roja
#

El conflicto se redujo a dos puntos irrenunciables para Anthropic:

  1. Vigilancia masiva de ciudadanos estadounidenses. El Pentágono quería usar Claude para analizar datos recopilados en masa: historiales de búsqueda, movimientos GPS, transacciones de tarjetas de crédito, incluso las preguntas que haces a tu chatbot favorito. Todo cruzado para construir perfiles.

  2. Armas autónomas. Sistemas que seleccionan y atacan objetivos sin que un humano tome la decisión final. El presupuesto militar de 2026 destina 13.400 millones de dólares solo a estas armas.

Anthropic no argumentó que estas armas no deban existir. De hecho, ofreció trabajar directamente con el Pentágono para mejorar su fiabilidad. Pero consideró que los modelos actuales de IA no son suficientemente confiables para tomar decisiones letales de forma autónoma. El riesgo de disparos indiscriminados, daño a civiles o incluso a las propias tropas americanas era, en su análisis, demasiado alto.

La falsa solución del “cloud vs. edge”
#

Durante las negociaciones surgió una propuesta: mantener la IA de Anthropic en la nube, fuera de las armas mismas. Los modelos sintetizarían inteligencia antes de una operación, pero no tomarían decisiones de ataque. Las manos de la IA quedarían limpias.

Anthropic rechazó esta solución con un argumento técnico demoledor: en las arquitecturas militares modernas, la distinción entre nube y dispositivo ya no existe. Los drones operan a través de redes mesh conectadas a centros de datos. El Pentágono trabaja activamente para acercar la computación al campo de batalla. Si un modelo en un servidor de AWS en Virginia toma decisiones de combate, éticamente no hay diferencia con que esté en el dron.

La respuesta: el martillo
#

Cuando Anthropic mantuvo su posición, la reacción fue fulminante:

  • Trump ordenó a todas las agencias federales cesar el uso de tecnología de Anthropic.
  • Pete Hegseth (Secretario de Defensa) designó a Anthropic como riesgo para la cadena de suministro de seguridad nacional, prohibiendo a cualquier contratista militar hacer negocios con la empresa.
  • OpenAI anunció un acuerdo con el Pentágono apenas horas después.

El mensaje fue claro: o juegas con nuestras reglas, o te destruimos.

Lo que Sam Altman no explicó
#

Aquí está la parte más inquietante. Días antes del colapso, Sam Altman había declarado públicamente que OpenAI también se negaría a que sus modelos se usaran en armas autónomas. Solidaridad con Anthropic.

Pero mientras hacía esas declaraciones, ya estaba negociando con el Pentágono. Y cerró el trato horas después de la caída de Anthropic, asegurando que su IA solo se desplegaría “en la nube” —exactamente la solución que Anthropic descartó por insuficiente.

Casi 100 empleados de OpenAI firmaron una carta abierta apoyando las mismas líneas rojas que Anthropic. Altman tendrá que explicarles el lunes por qué lo que Anthropic rechazó por principios, él lo aceptó por negocio.

Lo que realmente está en juego
#

Esta crisis trasciende un contrato. Revela tres fracturas fundamentales:

1. La IA como arma geopolítica. La tecnología de IA ya no es solo un producto comercial. Es un activo estratégico militar, y los gobiernos están dispuestos a usar todo su poder para controlarla.

2. La ilusión de la autorregulación. Anthropic intentó poner límites éticos desde dentro. La respuesta fue una designación de riesgo para la seguridad nacional. ¿Qué empresa se atreverá a decir “no” después de esto?

3. La brecha entre discurso y acción. OpenAI habló de principios y firmó un cheque. No es la primera vez, y la industria debería tomar nota.

Mi lectura
#

Llevo más de 20 años en tecnología, y he visto muchos momentos de inflexión. Este es uno de ellos.

Anthropic hizo algo extraordinariamente raro en la industria tech: sacrificar 200 millones de dólares y su acceso al gobierno federal por una posición ética. Podemos debatir si fue una decisión empresarial inteligente, pero no podemos negar que fue valiente.

Lo que me preocupa no es Anthropic —sobrevivirán. Lo que me preocupa es el precedente. Si una empresa de IA que pone límites éticos a su tecnología puede ser designada “riesgo para la seguridad nacional”, estamos creando un sistema donde la única opción es la obediencia ciega.

Y la IA obediente sin restricciones, en manos de poder sin contrapesos, es exactamente el escenario que todos los investigadores de seguridad en IA llevan años advirtiendo.

La pregunta ya no es si la IA transformará la guerra. La pregunta es quién decide los límites.


¿Qué opinas de la posición de Anthropic? ¿Principios o ingenuidad? Me encantaría escuchar tu perspectiva en LinkedIn o X.