Anthropic, la empresa de inteligencia artificial, continúa manteniendo conversaciones con altos funcionarios de la administración Trump, pese a que el Pentágono la designó recientemente como un riesgo para la cadena de suministro. El CEO de la compañía, Dario Amodei, se reunió el viernes con el Secretario del Tesoro Scott Bessent y la Jefa de Gabinete de la Casa Blanca Susie Wiles, según informó Axios, marcando un punto de inflexión en las relaciones con el gobierno federal.

La Casa Blanca caracterizó el encuentro como una “reunión introductoria” que resultó “productiva y constructiva”, según un comunicado oficial. Por su parte, Anthropic confirmó que el encuentro abordó prioridades compartidas como la ciberseguridad, el liderazgo estadounidense en inteligencia artificial y la seguridad de la IA.

Señales de deshielo en la relación con la administración

Antes de esta reunión, ya existían indicios de un acercamiento entre Anthropic y ciertos sectores del gobierno. Según reportes previos, tanto el Secretario Bessent como el presidente de la Reserva Federal Jerome Powell alentaron a directivos de grandes bancos a probar el nuevo modelo Mythos de la compañía.

El cofundador de Anthropic, Jack Clark, había minimizado la disputa, calificándola como un “conflicto contractual limitado” que no interferiría con la disposición de la empresa para informar al gobierno sobre sus últimos modelos de inteligencia artificial. Esta declaración sugería que la controversia con el Pentágono no representaba la posición unificada de toda la administración.

La disputa con el Pentágono sobre inteligencia artificial

El conflicto entre Anthropic y el Departamento de Defensa surgió tras el fracaso de negociaciones sobre el uso militar de los modelos de IA de la empresa. Según informes, Anthropic buscaba mantener salvaguardas en torno al uso de su tecnología para armas completamente autónomas y vigilancia masiva doméstica.

Como respuesta, el Pentágono declaró a Anthropic un riesgo para la cadena de suministro, una etiqueta normalmente reservada para adversarios extranjeros y que podría limitar severamente el uso de los modelos de inteligencia artificial de la compañía por parte del gobierno. La empresa está impugnando esa designación en los tribunales.

Sin embargo, el resto de la administración Trump aparentemente no comparte la hostilidad del Pentágono. Una fuente de la administración informó a Axios que “todas las agencias” excepto el Departamento de Defensa desean utilizar la tecnología de la compañía.

OpenAI aprovecha la oportunidad

Mientras Anthropic enfrenta obstáculos con el Pentágono, su competidor OpenAI anunció rápidamente un acuerdo militar propio. Esta decisión generó cierta reacción negativa entre consumidores preocupados por las aplicaciones militares de la inteligencia artificial.

El contraste entre las posturas de ambas empresas frente a contratos militares subraya las diferentes filosofías sobre salvaguardas éticas en el desarrollo de sistemas de IA. Anthropic ha mantenido una posición más cautelosa respecto a aplicaciones militares que podrían comprometer sus principios de seguridad.

Implicaciones para el sector tecnológico

El caso de Anthropic ilustra las tensiones emergentes entre empresas de inteligencia artificial y agencias gubernamentales sobre los límites éticos del uso de estas tecnologías. La situación también revela divisiones dentro de la propia administración sobre cómo equilibrar seguridad nacional con innovación tecnológica.

Además, el interés de múltiples agencias federales en utilizar los modelos de Anthropic demuestra el reconocimiento gubernamental de la calidad técnica de la empresa, independientemente de las disputas contractuales con el Pentágono.

La resolución de esta controversia dependerá tanto del proceso judicial en curso como de futuras negociaciones entre Anthropic y la administración. La empresa ha expresado su intención de continuar las conversaciones, mientras que el resultado del desafío legal a la designación del Pentágono podría establecer precedentes importantes para otras compañías de tecnología que busquen contratos gubernamentales manteniendo límites éticos en aplicaciones militares.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta