Anthropic se prepara para ofrecer su modelo de inteligencia artificial Mythos a bancos británicos en los próximos días, según reportes recientes. La startup de inteligencia artificial está ampliando el “Proyecto Glasswing”, que proporciona acceso temprano al modelo de IA a organizaciones selectas, luego de descubrir la capacidad de Mythos para identificar y potencialmente explotar vulnerabilidades en sistemas de ciberseguridad.

Pip White, directora de Anthropic para el Reino Unido, Irlanda y el norte de Europa, confirmó a Bloomberg Television que la implementación ocurrirá “en el muy corto plazo, en la próxima semana”. Según White, el interés por parte de directores ejecutivos británicos ha sido significativo desde el anuncio.

Expansión del Proyecto Glasswing a Instituciones Financieras

El programa Glasswing inicialmente incluyó a gigantes tecnológicos como Amazon y Microsoft, según informó Bloomberg News el jueves. Sin embargo, la expansión ahora abarca instituciones financieras en el Reino Unido, marcando un cambio significativo en la estrategia de implementación de Anthropic.

La decisión surge después de que el modelo identificara miles de vulnerabilidades de “día cero” durante las pruebas, incluyendo fallos en todos los principales navegadores web y sistemas operativos. Estas vulnerabilidades representan puntos débiles previamente desconocidos que podrían ser explotados por actores maliciosos.

Preocupaciones Regulatorias sobre Mythos AI

La falta de información sobre las capacidades completas de Mythos ha generado inquietud entre bancos y agencias gubernamentales. Andrew Bailey, gobernador del Banco de Inglaterra, declaró esta semana que los reguladores necesitan evaluar rápidamente la amenaza potencial que el modelo podría representar para el sistema financiero.

En Estados Unidos, el secretario del Tesoro Scott Bessent y el presidente de la Reserva Federal Jerome Powell convocaron una reunión con bancos de Wall Street para discutir Mythos y modelos de inteligencia artificial similares. Esta coordinación internacional subraya la naturaleza transfronteriza de las preocupaciones sobre seguridad cibernética.

White enfatizó que Anthropic está implementando sus propias salvaguardas y limitaciones alrededor del producto debido a su poder. “Estamos poniendo nuestras propias salvaguardas y nuestras propias limitaciones alrededor de este producto porque sabemos cuán poderoso puede ser”, afirmó.

Capacidades Autónomas y Diferencias con Otros Modelos

A diferencia de otros modelos como GPT-5.4-Cyber de OpenAI, Mythos opera de manera autónoma. Cuando se le asigna un objetivo y se le solicita identificar una vulnerabilidad, el modelo lee código, forma hipótesis, las prueba contra un entorno en funcionamiento y produce un exploit completo sin intervención humana adicional.

Según confirmó Anthropic, estas capacidades no fueron explícitamente entrenadas en el modelo. En cambio, surgieron como consecuencia de mejoras generales en codificación, razonamiento y autonomía. Paradójicamente, las mismas mejoras que hacen al modelo más efectivo para corregir vulnerabilidades también lo hacen más efectivo para explotarlas.

Meanwhile, GPT-5.4-Cyber está diseñado bajo una premisa diferente, enfocándose en eliminar fricciones que los profesionales de seguridad encuentran al emplear herramientas de IA estándar, en lugar de operar de forma autónoma.

Periodo de Prueba y Evaluación

A principios de este mes, Anthropic anunció que retrasaría el lanzamiento público de Mythos para dar a expertos en ciberseguridad la oportunidad de probarlo exhaustivamente. Esta decisión refleja un enfoque cauteloso ante las potenciales implicaciones de seguridad del modelo.

La implementación controlada a través del programa Glasswing permite a Anthropic monitorear el uso del modelo en entornos reales mientras mantiene supervisión sobre quién tiene acceso. Este enfoque gradual busca equilibrar la innovación tecnológica con consideraciones de seguridad nacional.

El despliegue de Mythos a bancos británicos en los próximos días marcará un momento crítico para evaluar cómo las instituciones financieras pueden beneficiarse de capacidades avanzadas de IA mientras gestionan riesgos de ciberseguridad. Los reguladores continuarán monitoreando de cerca la implementación, y se espera que otras jurisdicciones observen los resultados antes de determinar sus propios marcos regulatorios para modelos similares. La respuesta del sector financiero británico proporcionará datos importantes sobre la viabilidad de integrar herramientas de IA tan poderosas en infraestructuras críticas.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta