OpenAI anunció el viernes que ha alcanzado un acuerdo con el Departamento de Defensa de Estados Unidos para permitir el uso de sus modelos de inteligencia artificial en la red clasificada del departamento. El CEO Sam Altman reveló que el convenio incluye protecciones contra la vigilancia masiva doméstica y sobre el uso autónomo de armas, temas centrales en la reciente disputa entre el Pentágono y la empresa rival Anthropic.

Este acuerdo sobre inteligencia artificial militar se produce después de que el Departamento de Defensa, denominado Departamento de Guerra bajo la administración Trump, no lograra llegar a un entendimiento con Anthropic. El Pentágono había exigido que las empresas de IA permitieran el uso de sus modelos para “todos los propósitos legales”, mientras que Anthropic intentó establecer límites específicos.

El Conflicto entre Anthropic y el Pentágono

En un comunicado emitido el jueves, el CEO de Anthropic, Dario Amodei, declaró que la compañía “nunca objetó operaciones militares particulares ni intentó limitar el uso de nuestra tecnología de manera ad hoc”. Sin embargo, Amodei argumentó que “en un conjunto reducido de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos”.

Más de 60 empleados de OpenAI y 300 trabajadores de Google firmaron una carta abierta esta semana solicitando a sus empleadores que apoyaran la posición de Anthropic. Esta presión interna refleja las crecientes preocupaciones éticas dentro de la industria tecnológica sobre las aplicaciones de inteligencia artificial en contextos militares.

Tras el fracaso de las negociaciones, el presidente Donald Trump criticó a los “locos de izquierda en Anthropic” en redes sociales y ordenó a las agencias federales dejar de usar los productos de la empresa después de un período de transición de seis meses. Additionally, el Secretario de Defensa Pete Hegseth designó a Anthropic como un riesgo para la cadena de suministro, prohibiendo que cualquier contratista del Departamento de Defensa mantenga actividad comercial con la compañía.

Los Términos del Acuerdo de Inteligencia Artificial Militar de OpenAI

Altman afirmó en su publicación que OpenAI logró incluir salvaguardas similares a las que Anthropic había solicitado. “Dos de nuestros principios de seguridad más importantes son las prohibiciones sobre la vigilancia masiva doméstica y la responsabilidad humana para el uso de la fuerza, incluidos los sistemas de armas autónomos”, señaló el ejecutivo.

Según Altman, el Departamento de Guerra acepta estos principios y los refleja en leyes y políticas, incorporándolos en el acuerdo final. OpenAI construirá protecciones técnicas para garantizar que sus modelos de IA se comporten adecuadamente y desplegará ingenieros en el Pentágono para supervisar el uso seguro de la tecnología.

De acuerdo con reportes de Fortune, Altman informó a los empleados de OpenAI en una reunión interna que el gobierno permitirá a la compañía construir su propia “pila de seguridad” para prevenir el mal uso. Además, si el modelo se niega a realizar una tarea, el gobierno no obligaría a OpenAI a forzar esa función.

Solicitud de Términos Uniformes para la Industria

Altman instó al Departamento de Guerra a ofrecer los mismos términos a todas las empresas de IA. “Hemos expresado nuestro fuerte deseo de ver que las cosas se alejen de acciones legales y gubernamentales hacia acuerdos razonables”, agregó el CEO de OpenAI.

Meanwhile, Anthropic declaró el viernes que no había “recibido comunicación directa del Departamento de Guerra o la Casa Blanca sobre el estado de nuestras negociaciones”, pero insistió en que impugnaría cualquier designación de riesgo de cadena de suministro en los tribunales.

El acuerdo entre OpenAI y el Departamento de Defensa establece un precedente importante para las colaboraciones entre empresas tecnológicas y el sector militar en aplicaciones de IA avanzada. La resolución del conflicto con Anthropic y la posible extensión de términos similares a otras empresas determinarán el alcance de las protecciones éticas en los sistemas de inteligencia artificial militar. Las próximas semanas revelarán si otras compañías tecnológicas aceptarán condiciones comparables o si enfrentarán restricciones gubernamentales similares a las impuestas a Anthropic.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta