Washington avanza hacia un marco nacional de regulación de inteligencia artificial que busca unificar el panorama normativo fragmentado y establecer expectativas más claras sobre cómo se gobierna esta tecnología en distintos sectores, incluido el bancario. El debate sobre la política de inteligencia artificial ha entrado en una nueva fase que tendrá implicaciones directas para instituciones financieras que ya han integrado estos sistemas en operaciones críticas.
Según datos de PYMNTS Intelligence de 2024, cerca de tres cuartas partes de los líderes financieros reportaron que sus departamentos utilizaban inteligencia artificial, con aplicaciones que abarcan detección de fraude, gestión de riesgos y automatización. El enfoque regulatorio que está tomando forma indica que la IA no será tratada como una categoría regulatoria independiente, sino como una capacidad que se absorberá dentro de las reglas financieras existentes.
Marco regulatorio de inteligencia artificial en el sector bancario
La directiva de la Casa Blanca señala que los reguladores posicionan la inteligencia artificial como una herramienta que será gobernada a través de marcos financieros ya establecidos, en lugar de crear un régimen normativo separado. Esta decisión tiene consecuencias significativas para los bancos, ya que los modelos de IA heredarán automáticamente las reglas que ya rigen las actividades que tocan.
Un modelo de fraude que rechaza una transacción estará sujeto a las mismas expectativas que cualquier otra decisión de pago. De manera similar, un modelo de incorporación de clientes que marca a un usuario estará vinculado por los mismos requisitos que gobiernan la verificación de identidad y el acceso equitativo. Si un modelo contribuye a una denegación errónea, un evento de fraude perdido o un resultado discriminatorio, la responsabilidad recae sobre la institución que lo implementó.
Detección de fraude y toma de decisiones automatizadas
El informe State of Fraud and Financial Crime de 2025 ilustra cuán profundamente está ya integrada la inteligencia artificial en esa capa de decisiones. Según el documento, las instituciones financieras están cambiando hacia defensas contra fraude impulsadas por inteligencia, combinando aprendizaje automático y análisis de comportamiento para gestionar amenazas cada vez más complejas.
Adicionalmente, el 68% de las instituciones han incrementado el gasto en detección de fraude, reflejando el papel central que estos sistemas ahora desempeñan en la gestión de riesgos operacionales. El mismo informe subraya que el fraude por terceros no autorizados ahora representa el 71% de los incidentes y pérdidas, impulsado por robo de credenciales y tomas de control de cuentas.
Áreas críticas de implementación
Estas son precisamente las áreas donde la inteligencia artificial se despliega para hacer juicios en tiempo real sobre identidad, autorización e intención. En ese contexto, las decisiones impulsadas por IA son indistinguibles de las acciones financieras que desencadenan. Cuando un modelo aprueba un pago o permite el acceso a una cuenta, está participando en una actividad regulada.
Sin embargo, cuando falla, las consecuencias se extienden más allá de las pérdidas para incluir daño reputacional y erosión de la confianza del cliente, que la mitad de las instituciones reportan experimentar, según los datos de PYMNTS Intelligence.
De resultados tecnológicos a responsabilidad institucional
Para los bancos, las verificaciones de identidad impulsadas por IA, las decisiones de fraude y las aprobaciones de pagos no serán evaluadas como resultados tecnológicos. Serán juzgadas como decisiones financieras sujetas a marcos establecidos de protección al consumidor, antifraude y cumplimiento normativo.
Esta distinción altera cómo las instituciones deben abordar el desarrollo e implementación de modelos. Las métricas de rendimiento como velocidad y precisión siguen siendo importantes. No obstante, los modelos también deben ser explicables, auditables y consistentes con expectativas regulatorias que fueron diseñadas para la toma de decisiones humanas pero que ahora se aplican a sistemas automatizados.
El cambio también expone brechas entre adopción y preparación. Mientras que el uso de inteligencia artificial está generalizado, los datos de PYMNTS Intelligence de 2024 señalan preocupaciones persistentes en torno a la confianza del consumidor, exposición a ciberseguridad e incertidumbre regulatoria. Estas preocupaciones ahora adquieren mayor peso a medida que la política comienza a formalizar expectativas.
Competencia basada en transparencia y gobernanza
La siguiente fase de competencia dependerá de qué instituciones pueden demostrar que sus modelos producen resultados que resisten el examen de reguladores, auditores y, si es necesario, tribunales. Esto representa un tipo diferente de carrera armamentista que coloca una prima en la gobernanza y la transparencia de modelos.
También requiere una integración más estrecha entre equipos de riesgo, cumplimiento y tecnología, ya que las decisiones que antes se tomaban de forma aislada ahora están sujetas a una responsabilidad institucional más amplia. Las instituciones financieras deberán anticipar que los marcos regulatorios continuarán evolucionando a medida que el gobierno federal avanza hacia la consolidación de políticas nacionales sobre inteligencia artificial en los próximos meses.

