<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Defense on Carles Abarca</title><link>https://carlesabarca.com/es/tags/defense/</link><description>Recent content in Defense on Carles Abarca</description><generator>Hugo -- gohugo.io</generator><language>es</language><copyright>© 2026 Carles Abarca</copyright><lastBuildDate>Tue, 03 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://carlesabarca.com/es/tags/defense/index.xml" rel="self" type="application/rss+xml"/><item><title>Anthropic vs. el Pentágono: cuando la ética de la IA choca con el poder militar</title><link>https://carlesabarca.com/es/posts/anthropic-pentagon-rupture/</link><pubDate>Tue, 03 Mar 2026 00:00:00 +0000</pubDate><guid>https://carlesabarca.com/es/posts/anthropic-pentagon-rupture/</guid><description>La ruptura entre Anthropic y el Pentágono por el uso militar de Claude revela una fractura fundamental en la industria de la IA: ¿hasta dónde llega la responsabilidad de quien crea la tecnología?</description><content:encoded>&lt;p&gt;La semana pasada presenciamos algo sin precedentes en la historia de la inteligencia artificial: una empresa de IA plantándose ante el Pentágono y diciendo &lt;strong&gt;&amp;ldquo;no&amp;rdquo;&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Anthropic, creadora de Claude —el único modelo de IA actualmente autorizado en los sistemas clasificados del gobierno federal de Estados Unidos— rechazó las condiciones finales de un contrato de &lt;strong&gt;200 millones de dólares&lt;/strong&gt; con el Departamento de Defensa. Las consecuencias fueron inmediatas y brutales.&lt;/p&gt;

&lt;h2 class="relative group"&gt;La línea roja
 &lt;div id="la-línea-roja" class="anchor"&gt;&lt;/div&gt;
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none"&gt;
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#la-l%c3%adnea-roja" aria-label="Ancla"&gt;#&lt;/a&gt;
 &lt;/span&gt;
 
&lt;/h2&gt;
&lt;p&gt;El conflicto se redujo a dos puntos irrenunciables para Anthropic:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Vigilancia masiva de ciudadanos estadounidenses.&lt;/strong&gt; El Pentágono quería usar Claude para analizar datos recopilados en masa: historiales de búsqueda, movimientos GPS, transacciones de tarjetas de crédito, incluso las preguntas que haces a tu chatbot favorito. Todo cruzado para construir perfiles.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Armas autónomas.&lt;/strong&gt; Sistemas que seleccionan y atacan objetivos sin que un humano tome la decisión final. El presupuesto militar de 2026 destina &lt;strong&gt;13.400 millones de dólares&lt;/strong&gt; solo a estas armas.&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Anthropic no argumentó que estas armas no deban existir. De hecho, ofreció trabajar directamente con el Pentágono para mejorar su fiabilidad. Pero consideró que los modelos actuales de IA &lt;strong&gt;no son suficientemente confiables&lt;/strong&gt; para tomar decisiones letales de forma autónoma. El riesgo de disparos indiscriminados, daño a civiles o incluso a las propias tropas americanas era, en su análisis, demasiado alto.&lt;/p&gt;

&lt;h2 class="relative group"&gt;La falsa solución del &amp;ldquo;cloud vs. edge&amp;rdquo;
 &lt;div id="la-falsa-solución-del-cloud-vs-edge" class="anchor"&gt;&lt;/div&gt;
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none"&gt;
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#la-falsa-soluci%c3%b3n-del-cloud-vs-edge" aria-label="Ancla"&gt;#&lt;/a&gt;
 &lt;/span&gt;
 
&lt;/h2&gt;
&lt;p&gt;Durante las negociaciones surgió una propuesta: mantener la IA de Anthropic en la nube, fuera de las armas mismas. Los modelos sintetizarían inteligencia antes de una operación, pero no tomarían decisiones de ataque. Las manos de la IA quedarían limpias.&lt;/p&gt;
&lt;p&gt;Anthropic rechazó esta solución con un argumento técnico demoledor: &lt;strong&gt;en las arquitecturas militares modernas, la distinción entre nube y dispositivo ya no existe.&lt;/strong&gt; Los drones operan a través de redes mesh conectadas a centros de datos. El Pentágono trabaja activamente para acercar la computación al campo de batalla. Si un modelo en un servidor de AWS en Virginia toma decisiones de combate, éticamente no hay diferencia con que esté en el dron.&lt;/p&gt;

&lt;h2 class="relative group"&gt;La respuesta: el martillo
 &lt;div id="la-respuesta-el-martillo" class="anchor"&gt;&lt;/div&gt;
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none"&gt;
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#la-respuesta-el-martillo" aria-label="Ancla"&gt;#&lt;/a&gt;
 &lt;/span&gt;
 
&lt;/h2&gt;
&lt;p&gt;Cuando Anthropic mantuvo su posición, la reacción fue fulminante:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Trump ordenó&lt;/strong&gt; a todas las agencias federales cesar el uso de tecnología de Anthropic.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Pete Hegseth&lt;/strong&gt; (Secretario de Defensa) designó a Anthropic como &lt;strong&gt;riesgo para la cadena de suministro de seguridad nacional&lt;/strong&gt;, prohibiendo a cualquier contratista militar hacer negocios con la empresa.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;OpenAI anunció&lt;/strong&gt; un acuerdo con el Pentágono apenas horas después.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;El mensaje fue claro: &lt;em&gt;o juegas con nuestras reglas, o te destruimos.&lt;/em&gt;&lt;/p&gt;

&lt;h2 class="relative group"&gt;Lo que Sam Altman no explicó
 &lt;div id="lo-que-sam-altman-no-explicó" class="anchor"&gt;&lt;/div&gt;
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none"&gt;
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#lo-que-sam-altman-no-explic%c3%b3" aria-label="Ancla"&gt;#&lt;/a&gt;
 &lt;/span&gt;
 
&lt;/h2&gt;
&lt;p&gt;Aquí está la parte más inquietante. Días antes del colapso, Sam Altman había declarado públicamente que OpenAI también se negaría a que sus modelos se usaran en armas autónomas. Solidaridad con Anthropic.&lt;/p&gt;
&lt;p&gt;Pero mientras hacía esas declaraciones, &lt;strong&gt;ya estaba negociando con el Pentágono.&lt;/strong&gt; Y cerró el trato horas después de la caída de Anthropic, asegurando que su IA solo se desplegaría &amp;ldquo;en la nube&amp;rdquo; —exactamente la solución que Anthropic descartó por insuficiente.&lt;/p&gt;
&lt;p&gt;Casi 100 empleados de OpenAI firmaron una carta abierta apoyando las mismas líneas rojas que Anthropic. Altman tendrá que explicarles el lunes por qué lo que Anthropic rechazó por principios, él lo aceptó por negocio.&lt;/p&gt;

&lt;h2 class="relative group"&gt;Lo que realmente está en juego
 &lt;div id="lo-que-realmente-está-en-juego" class="anchor"&gt;&lt;/div&gt;
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none"&gt;
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#lo-que-realmente-est%c3%a1-en-juego" aria-label="Ancla"&gt;#&lt;/a&gt;
 &lt;/span&gt;
 
&lt;/h2&gt;
&lt;p&gt;Esta crisis trasciende un contrato. Revela tres fracturas fundamentales:&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;1. La IA como arma geopolítica.&lt;/strong&gt; La tecnología de IA ya no es solo un producto comercial. Es un activo estratégico militar, y los gobiernos están dispuestos a usar todo su poder para controlarla.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;2. La ilusión de la autorregulación.&lt;/strong&gt; Anthropic intentó poner límites éticos desde dentro. La respuesta fue una designación de riesgo para la seguridad nacional. ¿Qué empresa se atreverá a decir &amp;ldquo;no&amp;rdquo; después de esto?&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;3. La brecha entre discurso y acción.&lt;/strong&gt; OpenAI habló de principios y firmó un cheque. No es la primera vez, y la industria debería tomar nota.&lt;/p&gt;

&lt;h2 class="relative group"&gt;Mi lectura
 &lt;div id="mi-lectura" class="anchor"&gt;&lt;/div&gt;
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none"&gt;
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#mi-lectura" aria-label="Ancla"&gt;#&lt;/a&gt;
 &lt;/span&gt;
 
&lt;/h2&gt;
&lt;p&gt;Llevo más de 20 años en tecnología, y he visto muchos momentos de inflexión. Este es uno de ellos.&lt;/p&gt;
&lt;p&gt;Anthropic hizo algo extraordinariamente raro en la industria tech: &lt;strong&gt;sacrificar 200 millones de dólares y su acceso al gobierno federal por una posición ética.&lt;/strong&gt; Podemos debatir si fue una decisión empresarial inteligente, pero no podemos negar que fue valiente.&lt;/p&gt;
&lt;p&gt;Lo que me preocupa no es Anthropic —sobrevivirán. Lo que me preocupa es el precedente. Si una empresa de IA que pone límites éticos a su tecnología puede ser designada &amp;ldquo;riesgo para la seguridad nacional&amp;rdquo;, estamos creando un sistema donde la única opción es la obediencia ciega.&lt;/p&gt;
&lt;p&gt;Y la IA obediente sin restricciones, en manos de poder sin contrapesos, es exactamente el escenario que todos los investigadores de seguridad en IA llevan años advirtiendo.&lt;/p&gt;
&lt;p&gt;La pregunta ya no es si la IA transformará la guerra. &lt;strong&gt;La pregunta es quién decide los límites.&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;¿Qué opinas de la posición de Anthropic? ¿Principios o ingenuidad? Me encantaría escuchar tu perspectiva en &lt;a href="https://linkedin.com/in/abarca/" target="_blank" rel="noreferrer"&gt;LinkedIn&lt;/a&gt; o &lt;a href="https://x.com/carlesabarca" target="_blank" rel="noreferrer"&gt;X&lt;/a&gt;.&lt;/em&gt;&lt;/p&gt;</content:encoded><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://carlesabarca.com/posts/anthropic-pentagon-rupture/featured.png"/></item></channel></rss>