Anthropic presentó dos declaraciones juradas ante un tribunal federal de California el viernes por la tarde, rechazando la afirmación del Pentágono de que la empresa de inteligencia artificial representa un “riesgo inaceptable para la seguridad nacional”. La compañía argumenta que el caso del gobierno se basa en malentendidos técnicos y alegaciones que nunca se plantearon durante los meses de negociaciones previos a la disputa judicial. Las declaraciones fueron presentadas junto con el escrito de réplica de Anthropic en su demanda contra el Departamento de Defensa, antes de una audiencia programada para el martes 24 de marzo ante la jueza Rita Lin en San Francisco.

La controversia se remonta a finales de febrero, cuando el presidente Trump y el secretario de Defensa Pete Hegseth anunciaron públicamente que cortaban relaciones con Anthropic después de que la empresa se negara a permitir el uso militar sin restricciones de su tecnología de inteligencia artificial. Las declaraciones fueron presentadas por Sarah Heck, directora de Políticas de Anthropic, y Thiyagu Ramasamy, jefe del Sector Público de la compañía.

Negociaciones entre Anthropic y el Pentágono

Heck, una ex funcionaria del Consejo de Seguridad Nacional que trabajó en la Casa Blanca durante la administración Obama, señala lo que describe como una falsedad central en las presentaciones del gobierno: que Anthropic exigió algún tipo de rol de aprobación sobre operaciones militares. Según su declaración, esa afirmación simplemente no es cierta. “En ningún momento durante las negociaciones de Anthropic con el Departamento yo o cualquier otro empleado de Anthropic declaró que la empresa quería ese tipo de rol”, escribió.

Además, Heck afirma que la preocupación del Pentágono sobre la posibilidad de que Anthropic desactivara o alterara su tecnología durante operaciones nunca se planteó durante las negociaciones. En cambio, apareció por primera vez en las presentaciones judiciales del gobierno, lo que no dio a Anthropic oportunidad de responder.

Correos electrónicos contradictorios

Un detalle revelador en la declaración de Heck es que el 4 de marzo, un día después de que el Pentágono formalizara su designación de riesgo de cadena de suministro contra Anthropic, el subsecretario Emil Michael envió un correo electrónico al CEO Dario Amodei diciendo que ambas partes estaban “muy cerca” de resolver los dos problemas que el gobierno ahora cita como evidencia de que la empresa representa una amenaza para la seguridad nacional: sus posiciones sobre armas autónomas y vigilancia masiva de estadounidenses.

Sin embargo, el 6 de marzo, Michael publicó en X que “no hay ninguna negociación activa del Departamento de Guerra con Anthropic”. Una semana después, declaró a CNBC que no había “ninguna posibilidad” de reanudar las conversaciones. La cronología presentada por Heck plantea la cuestión de si el gobierno utilizó la designación como herramienta de negociación.

Capacidades técnicas y seguridad de la inteligencia artificial

Ramasamy, quien pasó seis años en Amazon Web Services gestionando implementaciones de inteligencia artificial para clientes gubernamentales antes de unirse a Anthropic en 2025, refuta la afirmación del gobierno de que la empresa podría interferir teóricamente con operaciones militares. Según su declaración, una vez que Claude se implementa dentro de un sistema gubernamental asegurado y aislado operado por un contratista externo, Anthropic no tiene acceso a él.

No existe un interruptor de apagado remoto, ninguna puerta trasera ni ningún mecanismo para enviar actualizaciones no autorizadas, según Ramasamy. Cualquier cambio en el modelo requeriría la aprobación explícita del Pentágono y acción para instalarlo. La empresa tampoco puede ver lo que los usuarios gubernamentales escriben en el sistema, mucho menos extraer esos datos.

Verificaciones de seguridad del personal

Ramasamy también disputa la afirmación del gobierno de que la contratación de ciudadanos extranjeros por parte de Anthropic convierte a la empresa en un riesgo de seguridad. Señala que los empleados de Anthropic se han sometido a procesos de verificación de autorización de seguridad del gobierno estadounidense, el mismo proceso de verificación de antecedentes requerido para acceder a información clasificada. Según su declaración, Anthropic es la única empresa de inteligencia artificial donde personal autorizado construyó realmente los modelos de IA diseñados para ejecutarse en entornos clasificados.

Argumentos legales y constitucionales

La demanda de Anthropic argumenta que la designación de riesgo de cadena de suministro, la primera que se aplica a una empresa estadounidense, equivale a represalias gubernamentales por las opiniones públicas de la empresa sobre seguridad de la inteligencia artificial, en violación de la Primera Enmienda. El gobierno, en una presentación de 40 páginas a principios de esta semana, rechazó por completo ese encuadre.

Según el Departamento de Defensa, la negativa de Anthropic a permitir todos los usos militares legales de su tecnología fue una decisión comercial, no un discurso protegido, y la designación fue una decisión directa de seguridad nacional, no un castigo por las opiniones de la empresa.

La audiencia del martes 24 de marzo será crucial para determinar el curso de este caso sin precedentes. La jueza Lin deberá evaluar si las alegaciones del gobierno sobre riesgos de seguridad nacional tienen fundamento técnico y legal, o si la designación constituye una represalia inconstitucional. El resultado podría establecer precedentes importantes sobre los límites del poder gubernamental para designar empresas tecnológicas estadounidenses como riesgos de seguridad y sobre la capacidad de las compañías de inteligencia artificial para establecer límites éticos en el uso de sus tecnologías.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta