El Departamento de Defensa de Estados Unidos rompió relaciones con Anthropic el viernes por la tarde, después de que el CEO de la compañía de inteligencia artificial, Dario Amodei, rechazara permitir que su tecnología fuera utilizada para vigilancia masiva de ciudadanos estadounidenses o drones armados autónomos. El secretario de Defensa Pete Hegseth invocó una ley de seguridad nacional para incluir a Anthropic en una lista negra que le impide hacer negocios con el Pentágono, según informó TechCrunch. La empresa con sede en San Francisco enfrenta la pérdida de un contrato valorado en hasta 200 millones de dólares y quedará prohibida de trabajar con otros contratistas de defensa.

El presidente Trump ordenó a través de Truth Social que todas las agencias federales “cesen inmediatamente todo uso de tecnología de Anthropic”. La compañía, fundada en 2021, anunció posteriormente que impugnará la decisión del Pentágono en los tribunales. Esta controversia se produce en un momento en que las empresas de inteligencia artificial enfrentan un escrutinio creciente sobre sus compromisos de seguridad y su relación con las agencias gubernamentales.

Empresas de inteligencia artificial abandonan promesas de seguridad

Max Tegmark, físico del MIT y fundador del Future of Life Institute, señaló que Anthropic y sus competidores han creado su propia crisis al resistirse a regulaciones vinculantes. Según Tegmark, empresas como Anthropic, OpenAI, Google DeepMind y xAI han prometido autorregularse de manera responsable, pero ninguna ha respaldado legislación obligatoria de seguridad como existe en otras industrias. Esta semana, Anthropic eliminó el principio central de su compromiso de seguridad: la promesa de no lanzar sistemas de IA cada vez más poderosos hasta estar seguros de que no causarían daño.

En declaraciones a TechCrunch, Tegmark destacó que las cuatro principales compañías de inteligencia artificial han incumplido sus propias promesas. Google eliminó su eslogan “Don’t be evil” y posteriormente abandonó compromisos más extensos sobre no causar daño con IA para vender tecnología de vigilancia y armas. OpenAI eliminó la palabra “seguridad” de su declaración de misión y cerró su equipo de seguridad. Ahora Anthropic ha dado un paso similar al retirar su compromiso más importante.

Ausencia de regulación en inteligencia artificial expone a las empresas

El experto en IA argumentó que la falta de regulación gubernamental ha dejado a las empresas vulnerables a exigencias como las del Pentágono. Estados Unidos tiene actualmente menos regulación sobre sistemas de inteligencia artificial que sobre restaurantes, según afirmó Tegmark. Mientras que un inspector de salud puede cerrar un negocio de alimentos por violaciones sanitarias, no existen restricciones equivalentes para empresas que desarrollan tecnologías potencialmente peligrosas como IA para menores o sistemas descritos como superinteligencia.

Las compañías tecnológicas han presionado exitosamente contra la regulación, argumentando que se regularían a sí mismas. Sin embargo, esta estrategia ahora representa una desventaja. Si las empresas hubieran convertido sus compromisos voluntarios en legislación estadounidense vinculante para todos los competidores, no enfrentarían la situación actual donde no existen leyes que definan usos aceptables de la IA.

El argumento de la competencia con China

Tegmark rechazó el argumento común de que Estados Unidos debe avanzar sin restricciones para competir con China. Señaló que China está en proceso de prohibir las novias virtuales de IA porque las considera perjudiciales para la juventud china. Además, cuestionó la lógica de que el Partido Comunista Chino toleraría que una empresa desarrollara superinteligencia capaz de derrocar al gobierno, caracterizando tal escenario como una amenaza a la seguridad nacional también para Estados Unidos.

Los cabilderos de las empresas de IA, ahora más numerosos y mejor financiados que los de la industria de combustibles fósiles, farmacéutica y del complejo militar-industrial combinados, invocan regularmente la competencia con China para oponerse a cualquier regulación. No obstante, el físico del MIT advirtió que una superinteligencia incontrolable representa una amenaza, no una herramienta, para la seguridad nacional estadounidense.

Avances acelerados hacia la inteligencia artificial general

Según Tegmark, hace seis años casi todos los expertos en IA predecían que faltaban décadas para tener inteligencia artificial que dominara el lenguaje y el conocimiento a nivel humano. Esas predicciones resultaron incorrectas, ya que esos sistemas existen actualmente. La IA ha progresado rápidamente desde nivel de escuela secundaria hasta nivel universitario y, en algunas áreas, nivel de profesor universitario. El año pasado, la IA ganó la medalla de oro en la Olimpiada Internacional de Matemáticas.

Un artículo escrito por Tegmark junto con Yoshua Bengio, Dan Hendrycks y otros investigadores líderes en IA propuso una definición rigurosa de inteligencia artificial general. Según esta medición, GPT-4 alcanzó el 27% del camino hacia AGI, mientras que GPT-5 llegó al 57%. El ritmo de progreso de 27% a 57% sugiere que la llegada de AGI podría no estar tan distante como se pensaba anteriormente.

Reacciones de la industria tecnológica

Horas después de la inclusión de Anthropic en la lista negra, Sam Altman de OpenAI declaró públicamente que comparte las mismas líneas rojas que Anthropic, según reportó Tegmark. Sin embargo, Google no había emitido comentarios al momento de la entrevista, lo que el físico del MIT consideró potencialmente embarazoso para la compañía. Tampoco se había pronunciado xAI. La situación representa un momento decisivo donde las empresas deben mostrar sus verdaderas prioridades.

Posteriormente, OpenAI anunció su propio acuerdo con el Pentágono, lo que plantea interrogantes sobre la coherencia de las posiciones declaradas en la industria. La respuesta fragmentada de las empresas tecnológicas refleja tensiones entre compromisos públicos de seguridad y oportunidades comerciales con agencias gubernamentales.

El caso Anthropic podría marcar un punto de inflexión en la relación entre empresas de inteligencia artificial y el gobierno estadounidense. Tegmark expresó optimismo cauteloso sobre la posibilidad de que Estados Unidos adopte un marco regulatorio similar al de otras industrias, requiriendo que las compañías de IA demuestren a expertos independientes su capacidad de controlar sistemas poderosos antes de lanzarlos. La decisión de Anthropic de impugnar la orden del Pentágono en tribunales podría establecer precedentes legales importantes, mientras que las respuestas de OpenAI, Google y otras empresas determinarán si la industria presenta un frente unido o fragmentado ante las demandas gubernamentales de acceso a tecnología de IA para fines militares y de vigilancia.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta