Las empresas y startups que utilizan modelos de Anthropic Claude a través de productos de Microsoft y Google no deben temer que el acceso sea restringido, confirmaron ambas compañías tecnológicas a TechCrunch. La disponibilidad de Claude continúa garantizada para clientes corporativos tras la designación del Departamento de Defensa de Estados Unidos que catalogó a la startup de inteligencia artificial como un riesgo para la cadena de suministro, una clasificación típicamente reservada para adversarios extranjeros.
Microsoft fue la primera empresa tecnológica en ofrecer garantías de que los modelos de inteligencia artificial de Anthropic permanecerán accesibles para sus clientes, a pesar de la escalada en la disputa entre el Departamento de Defensa y la compañía de IA. Según declaraciones de un portavoz de Microsoft, la empresa seguirá ofreciendo acceso a Claude a través de sus plataformas, incluyendo Office 365, GitHub y Microsoft AI Foundry.
Contexto de la Designación de Riesgo
El Departamento de Defensa designó oficialmente a Anthropic como riesgo para la cadena de suministro el jueves pasado, según reportó la fuente. Esta acción se produjo después de que la startup estadounidense se negara a otorgar acceso sin restricciones a su tecnología para aplicaciones que la compañía considera inseguras, como vigilancia masiva y armas completamente autónomas.
La designación implica que el Pentágono deberá descontinuar el uso de productos Claude una vez complete la transición fuera de sus sistemas. Adicionalmente, cualquier empresa o agencia que trabaje con el Departamento de Defensa debe certificar que no utiliza los modelos de Anthropic. Sin embargo, la empresa ha prometido impugnar la designación en los tribunales.
Posición de Microsoft y Google sobre Claude
Un portavoz de Microsoft declaró en un comunicado por correo electrónico que los abogados de la compañía han estudiado la designación y concluido que los productos de Anthropic, incluido Claude, pueden permanecer disponibles para sus clientes, con excepción del Departamento de Defensa. La empresa también indicó que continuará colaborando con Anthropic en proyectos no relacionados con defensa, según informó inicialmente CNBC.
Google, que vende servicios de computación en la nube, herramientas de inteligencia artificial y productividad a agencias federales, confirmó igualmente que seguirá proporcionando acceso a Claude a sus clientes. Un portavoz de Google señaló que la determinación no impide trabajar con Anthropic en proyectos no relacionados con defensa, y que sus productos permanecen disponibles a través de plataformas como Google Cloud.
Situación de AWS y Otros Proveedores
Según reportó CNBC, los clientes y socios de AWS también pueden continuar utilizando Claude para cargas de trabajo no relacionadas con defensa. Esta interpretación coincide con lo expresado por el CEO de Anthropic, Dario Amodei, en su declaración comprometiéndose a combatir la designación.
Amodei afirmó que la designación se aplica únicamente al uso de Claude por parte de clientes “como parte directa de” contratos con el Departamento de Defensa, no a todo uso de Claude por clientes que tengan tales contratos. El ejecutivo agregó que incluso para contratistas del Departamento de Defensa, la designación de riesgo de cadena de suministro no limita ni puede limitar los usos de Claude o relaciones comerciales con Anthropic si no están relacionados con contratos específicos del Pentágono.
Implicaciones para el Mercado de IA Empresarial
La clarificación de Microsoft, Google y AWS sobre la disponibilidad continua de modelos de Anthropic representa un alivio significativo para las empresas que han integrado esta tecnología de inteligencia artificial en sus operaciones. Las tres plataformas en la nube mantienen contratos extensos con agencias gubernamentales y clientes empresariales que dependen de soluciones de IA generativa.
Mientras tanto, según la fuente, el crecimiento de usuarios consumidores de Claude ha continuado aumentando tras la negativa de Anthropic de ceder a las demandas del departamento. Esta tendencia sugiere que la postura de la compañía sobre el uso responsable de la inteligencia artificial no ha afectado negativamente su adopción en el mercado.
La disputa legal entre Anthropic y el Departamento de Defensa probablemente se extenderá durante los próximos meses mientras la compañía impugna la designación en tribunales federales. El resultado de este caso podría establecer precedentes importantes sobre los límites del gobierno en regular el acceso a tecnologías de inteligencia artificial desarrolladas por empresas privadas, particularmente cuando estas se niegan a colaborar en aplicaciones militares por razones éticas. Las empresas que dependen de Claude deberán monitorear los desarrollos legales, aunque las garantías de los principales proveedores en la nube sugieren continuidad operativa para usos comerciales no relacionados con defensa.

