Anthropic presentó una demanda contra el Departamento de Defensa de Estados Unidos este lunes, luego de que la agencia militar designara a la empresa de inteligencia artificial como un riesgo para la cadena de suministro. La acción legal marca una escalada significativa en el conflicto entre Anthropic y el Pentágono sobre el uso militar de sistemas de inteligencia artificial y los límites éticos que las empresas tecnológicas pueden imponer a sus productos.
La compañía creadora de Claude presentó la queja en una corte federal de San Francisco, argumentando que las acciones del DOD son “sin precedentes e ilegales”. Según el documento judicial, Anthropic afirma que la designación representa un castigo gubernamental por ejercer su derecho constitucional a la libertad de expresión.
El conflicto entre Anthropic y el Pentágono
La disputa entre Anthropic y el Departamento de Defensa se intensificó durante las últimas semanas debido a desacuerdos fundamentales sobre el acceso militar a los sistemas de inteligencia artificial de la compañía. La empresa estableció dos límites éticos claros que no estaba dispuesta a cruzar en sus negociaciones con el gobierno.
Anthropic se opuso firmemente a que su tecnología fuera utilizada para vigilancia masiva de ciudadanos estadounidenses. Además, la compañía expresó que sus sistemas no están preparados para controlar armas completamente autónomas que operen sin intervención humana en decisiones de selección de objetivos y disparo.
Sin embargo, el Secretario de Defensa Pete Hegseth sostuvo que el Pentágono debería tener acceso a los sistemas de inteligencia artificial para “cualquier propósito legal”. Esta postura contrasta directamente con las restricciones que Anthropic buscaba implementar sobre el uso de sus modelos.
Implicaciones de la designación de riesgo para la cadena de suministro
La etiqueta de riesgo para la cadena de suministro que el Departamento de Defensa aplicó a Anthropic tradicionalmente se reserva para adversarios extranjeros. Esta clasificación tiene consecuencias significativas para cualquier entidad que trabaje con el Pentágono.
Según la designación, cualquier empresa o agencia que realice trabajos con el Departamento de Defensa debe certificar que no utiliza los modelos de Anthropic. Esta medida efectivamente aísla a la compañía del ecosistema de contratistas y socios del gobierno federal.
Además, la decisión del DOD establece un precedente preocupante para otras empresas de tecnología que buscan establecer límites éticos en el uso de sus productos. La clasificación sugiere que el gobierno podría utilizar su poder regulatorio para presionar a las compañías que se resistan a proporcionar acceso sin restricciones.
Argumentos legales de Anthropic
En su demanda, Anthropic argumenta que la Constitución no permite al gobierno usar su poder para castigar a una empresa por su discurso protegido. La compañía sostiene que establecer límites sobre cómo se puede usar su tecnología constituye una forma de expresión corporativa protegida por la Primera Enmienda.
La queja también cuestiona la legalidad del proceso mediante el cual el Departamento de Defensa emitió la designación. Anthropic alega que no recibió un debido proceso antes de ser etiquetada como un riesgo para la seguridad nacional.
Perspectivas futuras del caso
El caso se encuentra en sus etapas iniciales y podría sentar precedentes importantes sobre los derechos de las empresas tecnológicas a limitar el uso militar de sus productos de inteligencia artificial. La corte federal de San Francisco deberá determinar si el gobierno excedió su autoridad al designar a Anthropic como un riesgo para la cadena de suministro.
Se espera que el Departamento de Defensa presente su respuesta formal a la demanda en las próximas semanas. Mientras tanto, la clasificación permanece en vigor, lo que continúa afectando la capacidad de Anthropic para trabajar indirectamente con contratistas del gobierno federal y podría influir en cómo otras empresas de inteligencia artificial abordan futuras negociaciones con el Pentágono.

