Más de 30 empleados de OpenAI y Google DeepMind presentaron el lunes una declaración judicial en apoyo a la demanda de Anthropic contra el Departamento de Defensa de Estados Unidos, luego de que la agencia federal designara a la empresa de inteligencia artificial como un riesgo para la cadena de suministro, según documentos judiciales. Este movimiento sin precedentes demuestra la creciente tensión entre las empresas tecnológicas y el gobierno federal sobre el uso ético de la inteligencia artificial.

El escrito amicus curiae fue presentado horas después de que Anthropic interpusiera dos demandas contra el Departamento de Defensa y otras agencias federales. Entre los firmantes se encuentra Jeff Dean, científico jefe de Google DeepMind, lo que subraya la importancia que el sector tecnológico otorga a este caso.

La Controversia sobre la Designación de Anthropic como Riesgo

A finales de la semana pasada, el Pentágono etiquetó a Anthropic como un riesgo para la cadena de suministro, una designación generalmente reservada para adversarios extranjeros. Según los documentos judiciales, esta decisión se produjo después de que la empresa de inteligencia artificial se negara a permitir que el Departamento de Defensa utilizara su tecnología Claude para vigilancia masiva de ciudadanos estadounidenses o para disparar armas de forma autónoma.

El Departamento de Defensa había argumentado que debería poder utilizar sistemas de inteligencia artificial para cualquier propósito “legal” sin restricciones impuestas por un contratista privado. Sin embargo, Anthropic mantuvo sus límites éticos respecto al uso de su tecnología.

Respaldo de la Industria Tecnológica

En el escrito judicial, los empleados de Google y OpenAI argumentan que si el Pentágono “ya no estaba satisfecho con los términos acordados de su contrato con Anthropic”, la agencia podría haber “simplemente cancelado el contrato y adquirido los servicios de otra empresa líder en inteligencia artificial”. Esta declaración cuestiona la legitimidad de la designación como riesgo para la cadena de suministro.

El documento advierte que la designación gubernamental de Anthropic representa “un uso impropio y arbitrario del poder que tiene serias ramificaciones para nuestra industria”. Los firmantes expresan preocupación por las consecuencias a largo plazo de esta medida en el sector tecnológico estadounidense.

El Acuerdo con OpenAI

Notablemente, el Departamento de Defensa firmó un acuerdo con OpenAI momentos después de designar a Anthropic como riesgo para la cadena de suministro, según informó Wired. Esta decisión provocó protestas entre muchos empleados de OpenAI, algunos de los cuales también firmaron la declaración en apoyo a Anthropic.

El escrito judicial advierte que permitir estas acciones “tendrá sin duda consecuencias para la competitividad industrial y científica de Estados Unidos en el campo de la inteligencia artificial y más allá”. Además, los firmantes argumentan que esta medida “enfriará la deliberación abierta en nuestro campo sobre los riesgos y beneficios de los sistemas de inteligencia artificial actuales”.

Implicaciones para la Regulación de la Inteligencia Artificial

El documento judicial también afirma que las líneas rojas establecidas por Anthropic son preocupaciones legítimas que justifican salvaguardas sólidas. En ausencia de leyes públicas para regular el uso de la inteligencia artificial, argumenta, las restricciones contractuales y técnicas que los desarrolladores imponen a sus sistemas son una protección crítica contra el uso indebido catastrófico.

Muchos de los empleados que firmaron esta declaración también suscribieron cartas abiertas durante las últimas semanas instando al Departamento de Defensa a retirar la designación. Estas cartas también pedían a los líderes de sus empresas apoyar a Anthropic y rechazar el uso unilateral de sus sistemas de inteligencia artificial por parte del gobierno.

El caso ahora procederá en los tribunales federales, donde se determinará si la designación del Pentágono fue apropiada y si establece un precedente para futuras relaciones entre empresas tecnológicas y agencias gubernamentales. La resolución de este conflicto podría definir los límites del poder gubernamental sobre las empresas de tecnología y establecer estándares para el uso ético de la inteligencia artificial en aplicaciones militares y de seguridad nacional.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta