OpenAI ha firmado un acuerdo con el Departamento de Defensa de Estados Unidos para desplegar sus modelos de inteligencia artificial en entornos clasificados, después de que las negociaciones entre Anthropic y el Pentágono fracasaran el viernes pasado. El CEO de OpenAI, Sam Altman, admitió públicamente que el acuerdo con el Departamento de Defensa fue “definitivamente apresurado” y que “la apariencia no es buena”, mientras la compañía enfrenta críticas sobre sus salvaguardias de seguridad.
Según reportes, el presidente Donald Trump ordenó a las agencias federales dejar de usar la tecnología de Anthropic después de un período de transición de seis meses, y el Secretario de Defensa Pete Hegseth designó a la compañía como un riesgo para la cadena de suministro. Anthropic estableció líneas rojas firmes contra el uso de su tecnología en armas totalmente autónomas o vigilancia masiva doméstica.
OpenAI defiende su acuerdo con el Departamento de Defensa
En respuesta a las interrogantes sobre la transparencia de sus medidas de protección, OpenAI publicó una entrada de blog detallando su enfoque. La compañía señaló tres áreas donde sus modelos de inteligencia artificial no pueden ser utilizados: vigilancia masiva doméstica, sistemas de armas autónomas y decisiones automatizadas de alto riesgo, como sistemas de “crédito social”.
OpenAI afirmó que, a diferencia de otras empresas de inteligencia artificial que han “reducido o eliminado sus barreras de seguridad y dependen principalmente de políticas de uso como sus principales salvaguardias en despliegues de seguridad nacional”, su acuerdo protege estas líneas rojas mediante un “enfoque más expansivo y multicapa”. La compañía mantiene discreción total sobre su sistema de seguridad y despliega a través de la nube con personal autorizado en el proceso.
Controversia sobre vigilancia doméstica y protecciones legales
Sin embargo, el acuerdo ha generado críticas significativas. Mike Masnick de Techdirt afirmó que el contrato “absolutamente permite la vigilancia doméstica”, ya que establece que la recopilación de datos privados cumplirá con la Orden Ejecutiva 12333, junto con otras leyes. Masnick describió esta orden como el mecanismo mediante el cual “la NSA oculta su vigilancia doméstica capturando comunicaciones al acceder a líneas fuera de Estados Unidos, incluso si contienen información de ciudadanos estadounidenses”.
Además, Katrina Mulligan, directora de asociaciones de seguridad nacional de OpenAI, defendió el acuerdo en LinkedIn argumentando que gran parte de la discusión asume erróneamente que “lo único que se interpone entre los estadounidenses y el uso de IA para vigilancia masiva doméstica y armas autónomas es una única disposición de política de uso en un solo contrato”. Mulligan enfatizó que la arquitectura de implementación importa más que el lenguaje contractual.
Reacción del mercado y justificación de Altman
La controversia tuvo consecuencias inmediatas en el mercado. El sábado, Claude de Anthropic superó a ChatGPT de OpenAI en la App Store de Apple, reflejando la reacción negativa significativa contra la compañía. A pesar de esto, Altman defendió la decisión en la plataforma X, explicando que OpenAI quería “desescalar las cosas” y consideraba que el acuerdo ofrecido era favorable.
El CEO reconoció abiertamente los riesgos reputacionales. “Si tenemos razón y esto conduce a una desescalada entre el Departamento de Defensa y la industria, pareceremos genios y una compañía que asumió mucho dolor para ayudar a la industria”, declaró Altman. “Si no, seguiremos siendo caracterizados como apresurados y descuidados”.
La implementación del acuerdo entre OpenAI y el Departamento de Defensa comenzará en los próximos meses, mientras Anthropic enfrenta un período de transición de seis meses antes de que las agencias federales dejen de usar su tecnología. La industria tecnológica observará si este enfoque realmente establece salvaguardias efectivas o si las preocupaciones sobre vigilancia y uso militar de IA permanecen sin resolver. La respuesta de otras empresas del sector y posibles regulaciones gubernamentales determinarán si el acuerdo de OpenAI establece un precedente para futuras colaboraciones entre compañías de inteligencia artificial y agencias de defensa.

