El enfrentamiento entre el CEO de Anthropic, Dario Amodei, y el Secretario de Defensa Pete Hegseth ha escalado durante las últimas dos semanas por el uso militar de inteligencia artificial. La controversia se centra en si el Pentágono puede utilizar los modelos de IA de Anthropic sin restricciones para cualquier propósito legal, incluyendo vigilancia masiva y sistemas de armas autónomas. Anthropic ha mantenido firme su posición de limitar ciertos usos de su tecnología, mientras el Departamento de Defensa argumenta que ninguna empresa privada debe dictar cómo opera el ejército estadounidense.

Según declaraciones del portavoz del Pentágono, Sean Parnell, el departamento estableció un ultimátum hasta las 5:01 p.m. del viernes para que Anthropic permita el uso sin restricciones de sus sistemas de IA. De lo contrario, la agencia amenaza con terminar la asociación y designar a la compañía como un riesgo para la cadena de suministro del Departamento de Guerra.

Restricciones de uso de IA que defiende Anthropic

Anthropic se niega específicamente a permitir que sus modelos de inteligencia artificial sean utilizados para vigilancia masiva de ciudadanos estadounidenses o para armas completamente autónomas que ejecuten ataques sin intervención humana. La empresa ha argumentado desde su fundación que la tecnología de IA presenta riesgos únicos que requieren salvaguardas especiales, a diferencia de los contratistas de defensa tradicionales.

La preocupación principal de la compañía radica en la capacidad actual de sus modelos. Desde la perspectiva de Anthropic, sus sistemas aún no son lo suficientemente capaces para respaldar de manera segura decisiones letales autónomas. Un sistema que identifique erróneamente un objetivo o escale un conflicto sin autorización humana podría generar consecuencias irreversibles.

Adicionalmente, la empresa señala que la IA podría intensificar la vigilancia legal de ciudadanos estadounidenses a niveles preocupantes. Aunque la vigilancia actual ya es posible bajo las leyes estadounidenses, los sistemas de aprendizaje automático permitirían detección automatizada de patrones a gran escala, análisis conductual continuo y puntuación predictiva de riesgos.

La posición del Pentágono sobre el control de IA militar

El argumento del Departamento de Defensa es que debe poder desplegar la tecnología de Anthropic para cualquier uso legal que considere necesario. El Secretario Hegseth ha enfatizado que las políticas internas de un proveedor no deben limitar las operaciones militares estadounidenses.

Sin embargo, Parnell aclaró en declaraciones públicas que el departamento no tiene interés en realizar vigilancia doméstica masiva ni en desplegar armas autónomas. “Esto es una solicitud simple y de sentido común que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente arriesgue a nuestros combatientes”, indicó el portavoz.

En contraste con estas afirmaciones, algunos observadores han notado que las preocupaciones de Hegseth sobre Anthropic parecen conectadas con agravios culturales. En un discurso en las oficinas de SpaceX y xAI en enero, el Secretario criticó la “IA progresista” y enfatizó que el Departamento de Guerra construiría sistemas listos para el combate, no chatbots para salones académicos.

Implicaciones para la industria tecnológica y de defensa

Sachin Seth, capitalista de riesgo en Trousdale Ventures especializado en tecnología de defensa, advirtió que una etiqueta de riesgo para la cadena de suministro podría significar el fin para Anthropic. No obstante, eliminar a la compañía del Departamento de Defensa también plantearía problemas de seguridad nacional.

Según Seth, el Pentágono tendría que esperar entre seis y doce meses para que OpenAI o xAI alcancen capacidades similares. Ese período dejaría al departamento trabajando con modelos de segunda o tercera categoría en lugar del mejor disponible.

Mientras tanto, reportes recientes sugieren que xAI, propiedad de Elon Musk, se está preparando para obtener clasificación de seguridad y reemplazar a Anthropic, sin aparentes objeciones a ceder control total de su tecnología al gobierno. OpenAI podría mantener líneas rojas similares a las de Anthropic, según indican algunos informes.

Con el plazo del viernes acercándose, permanece incierto si el Pentágono ejecutará su amenaza de designar a Anthropic como riesgo de suministro o invocar la Ley de Producción de Defensa para obligar a la compañía a adaptar sus modelos. La resolución de este enfrentamiento establecerá precedentes importantes sobre quién controla los sistemas de inteligencia artificial más avanzados cuando se utilizan con fines militares y hasta qué punto las empresas tecnológicas pueden establecer límites éticos en el uso de sus productos.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta