El Pentágono declaró a Anthropic como "riesgo para la cadena de suministro" y ordenó a todas las agencias federales dejar de usar Claude. Una jueza federal bloqueó la orden, calificándola de "orwelliana". Es el enfrentamiento más importante entre una empresa de IA y el gobierno de Estados Unidos hasta la fecha, y sus consecuencias definirán el futuro de la inteligencia artificial.
¿Qué ha pasado exactamente?
La cronología de los eventos es la siguiente:
- Febrero 2026: El Departamento de Defensa de EE.UU. solicita a Anthropic acceso a Claude para proyectos militares, incluyendo sistemas de armas autónomas y vigilancia de ciudadanos estadounidenses
- Principios de marzo: Dario Amodei, CEO de Anthropic, rechaza la solicitud públicamente, afirmando que Claude no será usado para armas autónomas ni para vigilar a ciudadanos americanos
- 17 de marzo: El Pentágono designa oficialmente a Anthropic como "riesgo para la cadena de suministro nacional"
- 20 de marzo: El presidente Trump firma una orden ejecutiva prohibiendo a todas las agencias federales usar tecnología de Anthropic
- 24 de marzo: Anthropic presenta una demanda judicial contra la designación
- 26 de marzo: La jueza Rita Lin emite una orden preliminar bloqueando la prohibición
¿Por qué el Pentágono fue contra Anthropic?
Según los documentos judiciales y las filtraciones internas, la motivación del Pentágono fue principalmente política, no técnica. Los puntos clave:
- Represalia por la negativa pública: La jueza Lin determinó que la designación como "riesgo" fue una respuesta directa a que Amodei rechazó la solicitud militar "de manera hostil a través de la prensa"
- Precedente de control: El Departamento de Defensa quería establecer que las empresas de IA no pueden negarse a cooperar con proyectos militares sin consecuencias
- Presión sobre la industria: Al castigar a Anthropic, el Pentágono enviaba un mensaje a OpenAI, Google y otras empresas de IA sobre lo que ocurre si se niegan a colaborar
Es importante señalar que Anthropic no se opone a todo uso gubernamental de Claude. La empresa colabora con agencias federales en tareas administrativas, análisis de documentos y otros usos no militares. Su línea roja específica son las armas autónomas y la vigilancia doméstica.
La jueza que bloqueó la prohibición
La jueza de distrito Rita Lin, del Tribunal del Distrito Norte de California, emitió una de las resoluciones judiciales más contundentes de los últimos años en materia tecnológica:
"La noción de que una empresa puede ser declarada riesgo para la seguridad nacional simplemente por negarse a participar en un programa militar es, en el mejor de los casos, orwelliana. La designación fue probablemente contraria a la ley y arbitraria y caprichosa."
Los puntos clave de la resolución:
- La designación como "riesgo para la cadena de suministro" fue motivada políticamente, no por razones de seguridad legítimas
- El gobierno no presentó evidencia de que Anthropic representara un riesgo real para la seguridad nacional
- La prohibición viola los derechos de libertad de expresión de Anthropic (Primera Enmienda)
- La orden es una medida preliminar: el caso completo aún debe resolverse en juicio
Reacción de la industria tech
El caso ha generado una reacción sin precedentes en el sector tecnológico:
A favor de Anthropic
- 150 jueces retirados firmaron un amicus brief apoyando la posición de Anthropic
- Empleados de OpenAI y Google respaldaron públicamente a Anthropic, en un gesto inusual de solidaridad entre competidores
- Electronic Frontier Foundation (EFF): "Este caso definirá si las empresas tecnológicas pueden ser obligadas a armar su tecnología"
- Tim Cook (Apple): se pronunció indirectamente a favor de la posición de Anthropic en materia de privacidad
Posiciones neutras o contrarias
- Elon Musk (xAI/Grok): criticó a Anthropic por "poner la ideología por encima de la seguridad nacional"
- Palantir: se ofreció a cubrir los contratos que Anthropic rechazó
- Algunos legisladores republicanos propusieron leyes para obligar a las empresas de IA a cooperar con el Departamento de Defensa
¿Qué significa para el futuro de la IA?
Este enfrentamiento establece precedentes críticos en varias áreas:
- Derecho a negarse: ¿Pueden las empresas de IA rechazar contratos militares sin represalias gubernamentales? La resolución de la jueza Lin sugiere que sí, pero el caso completo aún está pendiente
- Militarización de la IA: El debate sobre si la IA debe usarse en armas autónomas ha pasado de ser teórico a convertirse en un conflicto legal real
- Regulación vs libertad empresarial: El equilibrio entre la seguridad nacional y la libertad de las empresas para establecer límites éticos está en juego
- Carrera armamentística de IA: Si EE.UU. no puede usar Claude con fines militares, ¿recurrirá a modelos chinos como DeepSeek o desarrollará sus propios modelos internos?
Claude y las armas autónomas: la línea roja
Anthropic ha sido desde su fundación una de las empresas de IA más firmes en materia de seguridad. Su Responsible Scaling Policy establece límites claros sobre los usos permitidos de Claude:
- Prohibido: Armas autónomas, vigilancia masiva, desinformación, manipulación psicológica
- Permitido: Administración gubernamental, análisis de documentos, asistencia en investigación, ciberseguridad defensiva
- Caso por caso: Aplicaciones de defensa no letales, análisis de inteligencia con supervisión humana
Esta posición contrasta con la de otros competidores. OpenAI eliminó silenciosamente su prohibición de uso militar a principios de 2024 y ha firmado contratos con el Departamento de Defensa. Google también colabora con proyectos militares a través de su división cloud.
Para entender mejor las capacidades actuales de Claude y por qué es tan codiciado, puedes consultar nuestra guía completa de Claude Opus 4.6.
Implicaciones para Europa y España
El caso tiene repercusiones directas para Europa:
- EU AI Act: La regulación europea de IA ya prohíbe el uso de sistemas de IA para vigilancia masiva y puntuación social. El caso Anthropic refuerza esta posición
- Soberanía tecnológica: Si EE.UU. obliga a sus empresas de IA a cooperar con el ejército, Europa tendrá más razones para desarrollar sus propios modelos de IA
- Acceso a Claude en España: Por ahora, el caso no afecta al acceso de usuarios y empresas europeas a Claude. La prohibición solo aplicaba a agencias federales de EE.UU.
- Debate en la OTAN: El caso abre un debate sobre si los aliados de EE.UU. deberían adoptar posiciones similares sobre IA militar
Conclusión
Anthropic vs el Pentágono es mucho más que una disputa legal entre una empresa y un gobierno. Es el momento en que la industria de la inteligencia artificial se enfrenta, por primera vez de forma real, a la pregunta más importante: ¿quién decide los límites de la IA?
Dario Amodei trazó una línea roja: Claude no será un arma. El Pentágono intentó castigarlo por ello. Una jueza dijo que no puede hacerlo. Ahora el caso irá a juicio completo, y su resolución marcará el rumbo de la industria durante años.
Sea cual sea el resultado final, una cosa está clara: la era en la que las empresas de IA podían mantenerse al margen de la geopolítica ha terminado.
Preguntas Frecuentes
¿Se ha prohibido Claude en Estados Unidos?
No para el público general. La prohibición aplicaba solo a agencias federales del gobierno de EE.UU., y fue bloqueada por una jueza federal el 26 de marzo de 2026. Los usuarios y empresas privadas pueden seguir usando Claude con normalidad.
¿Por qué Anthropic rechazó colaborar con el Pentágono?
Anthropic se negó específicamente a que Claude fuera usado para armas autónomas y para vigilar a ciudadanos estadounidenses. La empresa sí colabora con el gobierno en tareas administrativas y no militares. Su política de seguridad prohíbe estos usos desde su fundación.
¿Qué significa que la jueza lo llamó "orwelliano"?
La jueza Rita Lin usó el término para describir la idea de que una empresa pueda ser declarada "riesgo para la seguridad nacional" simplemente por negarse a participar en un programa militar. El término hace referencia a la novela 1984 de George Orwell, donde el gobierno redefine el lenguaje para ejercer control.
¿Afecta esto al acceso a Claude en España y Europa?
No. El caso es exclusivamente entre Anthropic y el gobierno federal de EE.UU. Los usuarios europeos pueden seguir usando Claude sin ninguna restricción derivada de este conflicto.
¿OpenAI y Google también se negaron?
No. OpenAI eliminó su prohibición de uso militar a principios de 2024 y tiene contratos activos con el Departamento de Defensa. Google también colabora con proyectos militares. Anthropic es la única gran empresa de IA que ha mantenido una línea roja firme contra las armas autónomas.
Comentarios
Inicia sesion para dejar un comentario
Acceder