Anthropic, una de las principales empresas de inteligencia artificial, confirmó esta semana que informó a la administración Trump sobre su nuevo modelo Mythos, una herramienta de IA tan avanzada en capacidades de ciberseguridad que la compañía decidió no lanzarla públicamente. Jack Clark, cofundador y director de Beneficio Público de Anthropic, reveló durante una entrevista en la cumbre Semafor World Economy que la empresa mantiene comunicación activa con el gobierno estadounidense sobre sus desarrollos más sensibles, a pesar de estar involucrados en una disputa legal con el Departamento de Defensa.

La confirmación de Clark llega después de reportes que indican que funcionarios de la administración Trump alentaron a importantes instituciones financieras, incluyendo JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America y Morgan Stanley, a probar el modelo Mythos de manera restringida.

Modelo Mythos genera preocupación por seguridad nacional

Según Anthropic, el modelo Mythos no será liberado al público debido a sus poderosas capacidades en ciberseguridad, que podrían representar riesgos significativos si caen en manos equivocadas. La decisión de mantener esta tecnología de inteligencia artificial bajo control estricto refleja las crecientes preocupaciones sobre el equilibrio entre innovación tecnológica y seguridad nacional.

Clark explicó que la posición de la compañía es clara: el gobierno debe estar informado sobre estos desarrollos. “Tenemos que encontrar nuevas formas para que el gobierno se asocie con un sector privado que está creando cosas que verdaderamente están revolucionando la economía”, afirmó el ejecutivo según reportes del evento.

Disputa legal no impide colaboración en seguridad

La comunicación sobre Mythos ocurre mientras Anthropic mantiene una demanda activa contra el Departamento de Defensa, presentada en marzo de este año. El Pentágono había etiquetado a Anthropic como un riesgo para la cadena de suministro después de desacuerdos sobre el acceso militar a los sistemas de IA de la compañía.

El conflicto surgió cuando Anthropic se opuso a que el ejército tuviera acceso sin restricciones a sus tecnologías para casos de uso que incluían vigilancia masiva de ciudadanos estadounidenses y armas completamente autónomas. En contraste, OpenAI eventualmente ganó ese contrato gubernamental.

Sin embargo, Clark minimizó la etiqueta del Departamento de Defensa, describiéndola como una “disputa contractual limitada” que no debería interferir con el compromiso de la empresa hacia la seguridad nacional. Añadió que Anthropic conversará con el gobierno sobre los próximos modelos de inteligencia artificial que desarrollen.

Impacto de la IA en el empleo genera debate interno

Durante la entrevista, Clark también abordó las implicaciones económicas de la inteligencia artificial, particularmente en el mercado laboral. Sus comentarios contrastaron ligeramente con advertencias previas del CEO de Anthropic, Dario Amodei, quien ha sugerido que los avances en IA podrían llevar el desempleo a niveles similares a los de la Gran Depresión.

Clark, quien lidera un equipo de economistas en Anthropic, ofreció una perspectiva más moderada. Indicó que la compañía solo está observando “cierta debilidad potencial en el empleo de recién graduados” en industrias selectas. No obstante, reconoció que Anthropic está preparada para responder ante cambios laborales importantes.

Educación superior y preparación profesional

Respecto a qué carreras universitarias deberían considerar los estudiantes en la era de la IA, Clark sugirió que las más importantes son aquellas que “involucran síntesis a través de una amplia variedad de materias y pensamiento analítico”. Explicó que la inteligencia artificial permite acceder a una cantidad arbitraria de expertos en diferentes dominios, pero lo verdaderamente valioso es saber qué preguntas hacer y tener intuiciones sobre qué sería interesante al combinar conocimientos de múltiples disciplinas.

La estrategia de Anthropic de informar proactivamente al gobierno sobre modelos como Mythos podría establecer un precedente para la industria de inteligencia artificial. Queda por ver cómo evolucionará la disputa legal con el Departamento de Defensa y si otras empresas de IA adoptarán enfoques similares de transparencia con las autoridades federales respecto a tecnologías sensibles. La compañía ha indicado que mantendrá este canal de comunicación para futuros desarrollos.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta