El sector bancario enfrenta una paradoja crítica mientras avanza hacia la adopción masiva de agentes de inteligencia artificial en servicios financieros. El mercado de agentes IA bancarios está proyectado para alcanzar $6.54 mil millones para 2035, según estimaciones recientes de la industria. Sin embargo, las instituciones financieras han registrado un aumento del 33,125% en las búsquedas sobre “riesgos de IA en bancos”, lo que refleja la creciente preocupación por la seguridad de estos sistemas.

Neal Lathia, cofundador y director de tecnología de Gradient Labs, argumenta que la clave para una implementación exitosa no está en evitar la regulación, sino en construir sistemas que la superen. Durante una conversación con The Fintech Times, Lathia compartió cinco principios fundamentales para el despliegue seguro de agentes IA en el sector financiero.

La transparencia como requisito fundamental en agentes IA bancarios

El principal obstáculo para los ejecutivos bancarios que consideran la IA agéntica es la falta de transparencia. Los modelos de lenguaje grandes tradicionales funcionan como cajas negras donde los datos entran y las respuestas salen, pero el razonamiento permanece opaco. Según Lathia, Gradient Labs ha abordado este desafío asegurando que el agente no sea un sistema cerrado.

La compañía ha desarrollado un “harness” o arnés de agente que mantiene un registro estricto de las trazas de decisión que pueden ser inspeccionadas, comprendidas y reproducidas. Al vincular los modelos de lenguaje no deterministas a tareas específicas y limitadas, las instituciones financieras pueden rastrear no solo lo que hizo el agente, sino la lógica exacta que siguió para llegar a una conclusión.

Superar el estándar humano en rendimiento de IA

Determinar cuándo un sistema está listo para producción es uno de los temas más debatidos en la implementación de agentes IA bancarios. Lathia sugiere que el estándar lo establece la experiencia humana existente. Para superarlo, Gradient Labs utiliza procesos internos de control de calidad que comparan el rendimiento de la IA contra agentes humanos.

Para pasar a producción, un agente debe demostrar que puede igualar o superar las métricas humanas en precisión y cumplimiento normativo. Esto no se trata solo de velocidad, sino de manejar el volumen masivo de consultas inherentes a la banca. Mientras una plataforma de comercio electrónico podría enfrentar 10 consultas distintas, un banco maneja un orden de magnitud mayor, requiriendo un grado significativamente más alto de matiz y confiabilidad.

Riesgos de responsabilidad penal en la IA financiera

En el Reino Unido, alertar a un cliente sobre un reporte de actividad sospechosa o una investigación en curso constituye un delito penal conocido como “tipping off”. Para un agente de IA que extrae información de vastas cantidades de datos internos, el riesgo de revelar inadvertidamente un estado sensible representa una pesadilla técnica para los oficiales de cumplimiento.

Lathia señaló que es casi imposible evitar que una IA esté expuesta a información que podría conducir a una filtración. Para mitigar este riesgo, Gradient Labs ha construido un control independiente y auditable que opera sobre toda salida del agente. Esta barrera secundaria actúa como un oficial de cumplimiento automatizado, escaneando cada respuesta antes de que llegue al cliente para garantizar que no se filtren detalles investigativos sensibles.

Extracción de conocimiento verificado de datos históricos

Un temor común entre los directores de riesgo es que fundamentar una IA en datos históricos haga que herede sesgos humanos pasados o errores procedimentales obsoletos. Gradient Labs aborda esto mediante un agente especializado de incorporación que extrae “fragmentos de conocimiento” o hechos de conversaciones históricas.

Además, estos hechos no se aceptan al pie de la letra. Deben ser sustanciados en múltiples conversaciones y estar ausentes del resto del conocimiento del agente para calificar para su inclusión, según explicó Lathia. Este proceso se refuerza con un sistema de humano en el bucle, donde operadores humanos aprueban y editan los hechos, garantizando que la IA aprenda del pasado sin repetir errores.

Métricas de control para la alta dirección

Para la alta dirección, el éxito de una implementación de IA se mide por su impacto en el apetito de riesgo. Lathia identifica tres métricas de plano de control que deben reportarse a la junta directiva para demostrar que un sistema opera de manera segura: tasas de resolución, satisfacción reportada por clientes y métricas especializadas como volúmenes de quejas que capturan fallas en los resultados.

Estas métricas permiten a un director de riesgo monitorear la salud del sistema en tiempo real, alineando el rendimiento de la IA con las expectativas regulatorias. Al enfocarse en estos resultados de alto nivel, los bancos pueden pasar de ver la IA como un experimento riesgoso a una utilidad estable y escalable.

Perspectivas hacia 2035

A medida que la industria apunta a la oportunidad multimillonaria de la próxima década, persiste la pregunta sobre si el obstáculo es tecnológico o cultural. Lathia cree que ambos están inextricablemente vinculados y sostiene que la gran tecnología no subvierte la regulación, sino que se potencia con ella.

Mientras la IA avanza en la cadena de valor y comienza a reemplazar la toma de decisiones humanas en el ámbito financiero, el papel del regulador será aún más vital para proteger la experiencia del cliente. Para los bancos, la estrategia ganadora no será encontrar formas de eludir las reglas, sino construir sistemas transparentes, auditables y matizados que faciliten el cumplimiento normativo. La industria observará de cerca cómo evolucionan los estándares regulatorios y las capacidades técnicas en los próximos años para determinar qué instituciones liderarán la adopción segura de agentes IA bancarios.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta