El organismo de control regulatorio hace sonar la alarma sobre las amenazas de la inteligencia artificial a las instituciones financieras e insta a un esfuerzo de supervisión unificada

La vicepresidenta de Supervisión de la Reserva Federal, Michelle Bowman, instó a los reguladores a trabajar más estrechamente a medida que las herramientas de inteligencia artificial se abren paso rápidamente en el sistema bancario, advirtiendo que la misma tecnología que ayuda a las empresas a defenderse también podría volverse en su contra.
En su intervención en una mesa redonda del Consejo de Supervisión de la Estabilidad Financiera sobre ciberseguridad e inteligencia artificial, Bowman dijo que los reguladores todavía están descubriendo “la mejor manera de supervisar” estas tecnologías de rápido movimiento a medida que los bancos comienzan a integrarlas en sus operaciones principales. Un ejemplo que mencionó fue Mythos, un sistema avanzado creado por Anthropic que puede escanear software en busca de vulnerabilidades.
"El Mythos de Anthropic... muestra la naturaleza dinámica de esta tecnología y la rapidez con la que se pueden desarrollar sus capacidades".
La preocupación, indicó Bowman, es sencilla pero seria: los atacantes podrían utilizar fácilmente las herramientas que ayudan a los bancos a encontrar debilidades en sus sistemas para explotarlas.
Formas más seguras para que los bancos adopten la IA
Entre bastidores, los reguladores ahora luchan con una cuestión práctica: si las normas existentes son suficientes.
Durante años, los bancos han operado bajo marcos de riesgo modelo diseñados para mantener bajo control los sistemas cuantitativos. Pero la IA, especialmente los modelos generativos más nuevos, no siempre se comporta de manera predecible. Eso hace que sea más difícil probar, monitorear y explicar, todo lo que los reguladores suelen esperar.
Los funcionarios de la Reserva Federal, la Oficina del Contralor de la Moneda y la Corporación Federal de Seguro de Depósitos ahora están trabajando juntos en una guía destinada a delinear formas más seguras para que los bancos adopten la IA, dijo Bowman.
El enfoque, al menos por ahora, se inclina hacia la supervisión más que hacia una reglamentación estricta, dando a los bancos flexibilidad, pero también dejando cierta incertidumbre sobre dónde se trazarán los límites en última instancia.
Los inversores en criptomonedas ven efectos dominó
Las implicaciones de la IA no se limitan a los bancos. Los inversores en activos digitales también están observando de cerca, particularmente a medida que los flujos de dinero cambian entre sectores.
La macroestratega Lyn Alden advirtió que el entusiasmo en torno a las acciones relacionadas con la IA podría llegar a tocar techo:
"Podría ser que las acciones de IA eventualmente alcancen su punto máximo, se vuelvan tan grandes que, de manera realista, no puedan subir mucho más".
Si eso sucede, sugiere, el capital podría rotar hacia otra parte, potencialmente hacia activos como Bitcoin.
Mientras tanto, el inversor Raoul Pal señaló un tema más amplio que impulsa tanto la IA como las criptomonedas:
"Ambos son realmente efectos de red".
Esa dinámica (donde el valor crece a medida que se expande la adopción) es una de las razones por las que ambos sectores han atraído un intenso interés de los inversores.
EE.UU. adopta un toque regulatorio más ligero
En comparación con Europa, los reguladores estadounidenses todavía están adoptando un enfoque relativamente flexible.
La Ley de IA de la UE de la Unión Europea establece requisitos estrictos para los sistemas de IA de alto riesgo, incluidos los utilizados en finanzas. Estados Unidos, por el contrario, está actuando con más cautela y basándose en principios amplios en lugar de reglas detalladas, al menos por ahora.
Esa brecha podría ser importante para los bancos globales que operan en jurisdicciones, donde las expectativas de cumplimiento pueden comenzar a divergir.
Tensiones dentro de Washington
Para complicar aún más las cosas, existe una creciente división política dentro del gobierno de Estados Unidos sobre la propia Anthropic.
Según Reuters, el Departamento de Defensa de Estados Unidos ha calificado a la empresa como un riesgo para la cadena de suministro después de que se negó a flexibilizar las salvaguardias sobre cómo se puede utilizar su IA.
Al mismo tiempo, la Casa Blanca está explorando formas de mantener abierto el acceso a la IA de vanguardia, lo que podría permitir a las agencias evitar esa designación. La división pone de relieve una tensión más amplia: cómo equilibrar las preocupaciones de seguridad nacional con el impulso para seguir siendo competitivos en IA.
Altos funcionarios, entre ellos el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, ya se han reunido con los principales bancos para discutir los riesgos, una señal de que la cuestión se está tomando en serio en los niveles más altos.
Cronología: cómo se desarrolló el problema
Principios de 2026: Anthropic desarrolla sistemas avanzados de inteligencia artificial, incluido Mythos
Abril de 2026: el Pentágono designa a Anthropic como un riesgo para la cadena de suministro
Finales de abril de 2026: la Casa Blanca redacta una guía que podría eludir la designación
Abril de 2026: el Tesoro y la Reserva Federal se reúnen con los bancos para evaluar los riesgos de la IA
1 de mayo de 2026: Bowman pide una supervisión coordinada
La coordinación, no la fragmentación, es la clave
Para los bancos, el desafío inmediato es práctico: cómo utilizar herramientas de inteligencia artificial sin exponerse a nuevos tipos de riesgos.
Para los reguladores, el desafío es más amplio: construir un marco que siga el ritmo de una tecnología que evoluciona más rápido que las reglas diseñadas para regirla.
El mensaje de Bowman fue claro: la coordinación, no la fragmentación, será clave a medida que la IA se integre más profundamente en el sistema financiero.