La situación de Anthropic con el Departamento de Defensa de Estados Unidos ha colocado a la compañía en una posición contradictoria, ya que sus modelos de inteligencia artificial continúan siendo utilizados en operaciones militares activas mientras la empresa se desvincula de múltiples clientes del sector de defensa. Según reportes recientes, los sistemas de Anthropic están siendo empleados para decisiones de selección de objetivos en el conflicto entre Estados Unidos e Irán, incluso mientras el gobierno federal ejecuta directivas para limitar el uso de sus productos.

El origen de esta confusión radica en las restricciones superpuestas y contradictorias impuestas por el gobierno estadounidense. El presidente Trump ordenó a las agencias civiles descontinuar el uso de productos de Anthropic, mientras que la compañía recibió un plazo de seis meses para terminar sus operaciones con el Departamento de Defensa, según informó The Washington Post.

Uso de Anthropic en Operaciones Militares Activas

A pesar de las directivas presidenciales, los modelos de inteligencia artificial de Anthropic siguen desempeñando un papel significativo en las operaciones militares estadounidenses. The Washington Post reveló detalles sobre cómo los sistemas de la compañía funcionan en conjunto con el sistema Maven de Palantir durante los ataques aéreos contra Irán.

Según el reporte, durante la planificación de los ataques, los sistemas “sugirieron cientos de objetivos, emitieron coordenadas de ubicación precisas y priorizaron esos objetivos según su importancia”. El artículo caracterizó la función del sistema como “selección y priorización de objetivos en tiempo real”.

El Secretario de Defensa Pete Hegseth ha prometido designar a Anthropic como un riesgo para la cadena de suministro, pero no se han tomado medidas oficiales en esa dirección. Actualmente, no existen barreras legales para continuar utilizando el sistema en operaciones de defensa.

Contratistas de Defensa Reemplazan Modelos de Anthropic

Mientras tanto, numerosas empresas vinculadas a la industria de defensa ya han comenzado a sustituir los modelos de Anthropic por competidores. Según un reporte de Reuters, Lockheed Martin y otros contratistas de defensa iniciaron el reemplazo de los modelos de la compañía esta semana.

Los subcontratistas enfrentan un dilema similar. Un socio director de J2 Ventures informó a CNBC que 10 de las empresas en su portafolio “han dejado de usar Claude para casos de uso de defensa y están en procesos activos para reemplazar el servicio con otro”.

Implicaciones para la Industria Tecnológica

Esta situación representa un caso sin precedentes en la intersección entre tecnología de inteligencia artificial y aplicaciones militares. La rapidez con la que los contratistas están abandonando los productos de Anthropic refleja la incertidumbre regulatoria que enfrentan las empresas tecnológicas que colaboran con el sector de defensa.

Además, el caso ilustra las complejidades de implementar políticas gubernamentales cuando existen operaciones militares en curso. La transición ordenada de seis meses se vio interrumpida por el inicio del conflicto con Irán, creando una brecha entre la política y la práctica operativa.

Perspectivas Futuras para Anthropic

La pregunta más importante pendiente es si Hegseth ejecutará la designación de riesgo para la cadena de suministro, lo que probablemente resultaría en un caso legal complejo. Una designación oficial podría establecer precedentes para cómo el gobierno regula el uso de modelos de inteligencia artificial en aplicaciones de seguridad nacional.

Uno de los principales laboratorios de inteligencia artificial está siendo rápidamente excluido de la tecnología militar, incluso mientras sus sistemas permanecen operativos en una zona de guerra activa. El período de transición de seis meses determinará si Anthropic mantiene alguna presencia en el sector de defensa o si su salida será completa. La resolución de esta situación podría influir en cómo otras compañías de inteligencia artificial abordan contratos gubernamentales en el futuro.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta