Anthropic ha anunciado que impugnará judicialmente la designación del Departamento de Defensa de Estados Unidos que cataloga a la empresa de inteligencia artificial como un riesgo para la cadena de suministro. El director ejecutivo Dario Amodei calificó la decisión como “legalmente infundada” en una declaración emitida el jueves, pocas horas después de que el Pentágono formalizara la designación que podría prohibir a la compañía trabajar con el gobierno federal y sus contratistas.
La controversia surgió tras semanas de disputa sobre el nivel de control que el ejército debería tener sobre los sistemas de inteligencia artificial de Anthropic. Mientras Amodei estableció límites claros contra el uso de sus modelos para vigilancia masiva de ciudadanos estadounidenses o armas completamente autónomas, el Pentágono exigió acceso sin restricciones para “todos los propósitos legales”.
Alcance limitado de la designación de riesgo para la cadena de suministro
En su comunicado, Amodei enfatizó que la gran mayoría de los clientes de Anthropic no se verán afectados por la designación. Según el ejecutivo, la restricción se aplica únicamente al uso del sistema Claude como parte directa de contratos con el Departamento de Defensa, no a todo uso por parte de empresas que tengan contratos con el gobierno.
Como adelanto de los argumentos legales que la compañía presentará en tribunales, Amodei señaló que la carta del Departamento tiene un alcance limitado. “Existe para proteger al gobierno en lugar de castigar a un proveedor; de hecho, la ley requiere que el Secretario use los medios menos restrictivos necesarios para lograr el objetivo de proteger la cadena de suministro”, afirmó.
Tensiones tras filtración de memorándum interno
Las negociaciones entre Anthropic y el Departamento de Defensa aparentemente se vieron comprometidas cuando se filtró un memorándum interno enviado por Amodei al personal. En el documento, el CEO caracterizó el acuerdo de la empresa rival OpenAI con el Pentágono como “teatro de seguridad”, lo que generó tensión adicional en las conversaciones.
Amodei se disculpó por la filtración en su declaración del jueves, asegurando que la empresa no compartió intencionalmente el memorándum ni instruyó a nadie para hacerlo. “No es de nuestro interés escalar la situación”, afirmó el ejecutivo.
El CEO explicó que redactó el memorándum “en pocas horas” tras una serie de anuncios, incluyendo una publicación presidencial en Truth Social anunciando la remoción de Anthropic de sistemas federales, la designación de riesgo por parte del entonces Secretario de Defensa Pete Hegseth, y finalmente el acuerdo del Pentágono con OpenAI. Calificó el tono del documento como reflejo de “un día difícil para la compañía” y señaló que no representaba sus “opiniones cuidadosas o consideradas”.
OpenAI asume contrato con el Pentágono
Mientras tanto, OpenAI ha firmado un acuerdo para trabajar con el Departamento de Defensa en lugar de Anthropic, una decisión que ha generado reacciones negativas entre el personal de la compañía. Esta transición marca un cambio significativo en el panorama de proveedores de inteligencia artificial para aplicaciones de defensa nacional.
Sin embargo, Amodei indicó que la prioridad principal de Anthropic es garantizar que los soldados estadounidenses y expertos en seguridad nacional mantengan acceso a herramientas importantes durante operaciones de combate en curso. La empresa actualmente apoya algunas operaciones de Estados Unidos en Irán, y según Amodei, continuará proporcionando sus modelos al gobierno a “costo nominal” durante “el tiempo necesario para realizar esa transición”.
Desafíos legales anticipados
Aunque Anthropic podría impugnar la designación ante tribunales federales, probablemente en Washington, la legislación detrás de la decisión dificulta la contestación. La ley limita las formas habituales en que las empresas pueden desafiar decisiones de adquisiciones gubernamentales y otorga al Pentágono amplia discreción en asuntos de seguridad nacional.
Dean Ball, ex asesor de inteligencia artificial de la Casa Blanca durante la era Trump que se ha pronunciado contra el tratamiento de Hegseth hacia Anthropic, advirtió sobre los obstáculos legales. “Los tribunales son bastante reacios a cuestionar al gobierno sobre qué es y qué no es un problema de seguridad nacional. Hay un listón muy alto que se debe superar para hacerlo. Pero no es imposible”, indicó Ball.
La batalla legal entre Anthropic y el Departamento de Defensa podría establecer precedentes importantes sobre los límites éticos en el desarrollo de inteligencia artificial militar y el equilibrio entre innovación tecnológica y seguridad nacional. El resultado del caso dependerá de si los tribunales consideran que el Pentágono excedió su autoridad discrecional o si las restricciones autoimpuestas de Anthropic justifican la designación de riesgo.

