El Secretario del Tesoro Scott Bessent y el presidente de la Reserva Federal Jerome Powell convocaron a ejecutivos bancarios esta semana para una reunión donde les alentaron a utilizar el nuevo modelo Mythos de Anthropic para detectar vulnerabilidades de ciberseguridad, según informó Bloomberg. La iniciativa marca un paso significativo en la adopción de inteligencia artificial avanzada por parte del sistema bancario estadounidense para fortalecer sus defensas digitales.
Aunque JPMorgan Chase fue el único banco mencionado como organización asociada inicial con acceso al modelo Mythos, otros gigantes financieros como Goldman Sachs, Citigroup, Bank of America y Morgan Stanley también están probando la tecnología, según el reporte. La reunión subraya la creciente preocupación de los reguladores sobre la seguridad cibernética en el sector financiero.
Capacidades del modelo Mythos generan preocupación
Anthropic anunció el modelo esta semana pero indicó que limitaría el acceso por ahora, en parte porque Mythos demuestra una capacidad excepcional para encontrar vulnerabilidades de seguridad, a pesar de no haber sido entrenado específicamente para ciberseguridad. Sin embargo, algunos analistas sugirieron que esto podría tratarse de una estrategia de marketing empresarial o simplemente promoción exagerada del producto.
La empresa de inteligencia artificial ha destacado que las capacidades del sistema superan las expectativas iniciales en la identificación de fallos de seguridad en sistemas informáticos. Esta característica ha generado tanto interés como cautela entre reguladores y expertos en ciberseguridad a nivel internacional.
Tensiones entre Anthropic y la administración Trump
El informe resulta particularmente sorprendente dado que Anthropic actualmente enfrenta una batalla legal con la administración Trump por la designación del Departamento de Defensa de la compañía como un riesgo para la cadena de suministro. Esa designación surgió después de que las negociaciones fracasaran debido a los esfuerzos de la empresa por limitar cómo el gobierno puede usar sus modelos de IA.
Mientras tanto, el interés gubernamental en utilizar la tecnología de Anthropic para proteger el sistema bancario contrasta con las restricciones impuestas por otras agencias federales. Esta aparente contradicción refleja las complejidades de regular y adoptar tecnologías de inteligencia artificial en sectores críticos de la infraestructura nacional.
Reguladores británicos también evalúan riesgos
Paralelamente, el Financial Times reportó que los reguladores financieros del Reino Unido están discutiendo el riesgo que representa Mythos para sus propias instituciones bancarias. Las autoridades británicas buscan evaluar tanto las oportunidades como los peligros potenciales que esta tecnología podría presentar para la estabilidad del sistema financiero.
Adicionalmente, expertos en ciberseguridad han señalado que cualquier herramienta capaz de identificar vulnerabilidades también podría ser utilizada por actores maliciosos si cae en manos equivocadas. Esta preocupación dual explica la cautela de Anthropic al limitar el acceso inicial al modelo.
Implicaciones para el sector financiero global
La adopción de modelos de inteligencia artificial como Mythos para detectar vulnerabilidades representa un cambio significativo en cómo las instituciones financieras abordan la seguridad cibernética. Los bancos han invertido tradicionalmente miles de millones de dólares en equipos de seguridad humanos y herramientas convencionales.
No obstante, la velocidad y sofisticación de los ataques cibernéticos modernos requieren soluciones más avanzadas. Los reguladores estadounidenses buscan que las instituciones financieras adopten tecnologías de vanguardia para mantenerse adelante de las amenazas emergentes.
Se espera que Anthropic amplíe gradualmente el acceso a Mythos en las próximas semanas, aunque la compañía no ha especificado un cronograma exacto. Los reguladores tanto en Estados Unidos como en el Reino Unido continuarán evaluando cómo equilibrar los beneficios de seguridad con los riesgos potenciales de una herramienta tan poderosa. La resolución del conflicto legal entre Anthropic y el Departamento de Defensa también podría influir en la disponibilidad futura del modelo para aplicaciones gubernamentales más amplias.

