Una destacada ejecutiva de hardware de OpenAI ha dimitido de su cargo en protesta por el reciente acuerdo de la empresa con el Departamento de Defensa de Estados Unidos. Caitlin Kalinowski, quien lideraba el equipo de robótica de OpenAI, anunció su renuncia este lunes, citando preocupaciones sobre la falta de salvaguardas adecuadas en el acuerdo con el Pentágono. La dimisión de Kalinowski representa la primera salida pública de alto perfil en OpenAI relacionada directamente con la controversial asociación militar.
Kalinowski se incorporó a la compañía de inteligencia artificial en noviembre de 2024, tras liderar previamente el desarrollo de gafas de realidad aumentada en Meta. Según declaró en redes sociales, su decisión se basó en principios fundamentales sobre el uso responsable de la tecnología de inteligencia artificial.
Preocupaciones sobre vigilancia y autonomía letal
En su anuncio público, Kalinowski expresó inquietudes específicas sobre dos aspectos críticos del acuerdo con el Pentágono. “La vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron”, afirmó la ejecutiva. Posteriormente aclaró que su principal objeción era de gobernanza, señalando que el anuncio se realizó apresuradamente sin definir las protecciones necesarias.
La ex ejecutiva enfatizó que su decisión no era personal, manifestando “profundo respeto” por el CEO Sam Altman y el equipo de OpenAI. Sin embargo, consideró que ciertos temas son demasiado importantes para tratarse con prisas en negociaciones o anuncios públicos.
Contexto del acuerdo de OpenAI con el Departamento de Defensa
El acuerdo entre OpenAI y el Pentágono se anunció hace poco más de una semana, tras el fracaso de negociaciones previas entre el Departamento de Defensa y Anthropic, empresa competidora en el sector de inteligencia artificial. Anthropic intentó establecer salvaguardas para prevenir el uso de su tecnología en vigilancia doméstica masiva o armamento completamente autónomo, pero las conversaciones no prosperaron.
Como consecuencia, el Pentágono designó a Anthropic como un riesgo para la cadena de suministro. Anthropic anunció que impugnará esta designación legalmente, mientras que Microsoft, Google y Amazon confirmaron que continuarán ofreciendo Claude, el modelo de Anthropic, a clientes no relacionados con defensa.
La respuesta de OpenAI a las críticas
Un portavoz de OpenAI confirmó la salida de Kalinowski y defendió el acuerdo con el Pentágono. Según la compañía, el acuerdo “crea un camino viable para usos responsables de IA en seguridad nacional mientras establece claramente nuestras líneas rojas: no vigilancia doméstica y no armas autónomas”. La empresa reconoció que las personas tienen opiniones firmes sobre estos temas y se comprometió a continuar el diálogo con empleados, gobierno, sociedad civil y comunidades globales.
OpenAI ha descrito su enfoque como “más expansivo y multicapa”, basándose no solo en el lenguaje contractual sino también en salvaguardas técnicas para proteger límites similares a los propuestos por Anthropic. No obstante, los ejecutivos de la compañía han tenido que defender activamente el acuerdo en redes sociales ante las críticas recibidas.
Impacto en la reputación de OpenAI
La controversia parece haber afectado significativamente la percepción pública de OpenAI entre consumidores. Según datos recientes, las desinstalaciones de ChatGPT aumentaron un 295% tras el anuncio del acuerdo. Mientras tanto, Claude de Anthropic ascendió al primer lugar en las clasificaciones de la App Store estadounidense.
Hasta el sábado por la tarde, Claude y ChatGPT ocupaban respectivamente el primer y segundo lugar entre las aplicaciones gratuitas en la App Store de Estados Unidos, reflejando un cambio notable en las preferencias de los usuarios.
La situación continúa desarrollándose mientras OpenAI enfrenta presiones tanto internas como externas. La compañía deberá demostrar en las próximas semanas cómo implementará las salvaguardas prometidas y si logrará restaurar la confianza de empleados y usuarios. La batalla legal de Anthropic contra su designación como riesgo de seguridad también marcará precedentes importantes para la industria de inteligencia artificial en su relación con el sector de defensa.

