Tesoro, Fed Instan a los Grandes Bancos a Probar la Herramienta de Vulnerabilidad de Inteligencia Artificial Mythos de Anthropic

Treasury, Fed Urge Major Banks to Test Anthropic’s Mythos AI Vulnerability Tool

Puntos clave

  • Treasury Secretary Scott Bessent and Fed Chair Jerome Powell urged top banks to test Anthropic's Mythos AI model.
  • JPMorgan Chase receives first access; Goldman Sachs, Citigroup, Bank of America, and Morgan Stanley are also testing.
  • Anthropic says Mythos is not a dedicated cybersecurity tool but can uncover hidden vulnerabilities.
  • Company limits model access, citing concerns over exposing its architecture.
  • Anthropic is contesting a Trump administration lawsuit over a DoD supply‑chain risk designation.
  • UK regulators are examining Mythos for potential security and data‑privacy risks.
  • Bank executives stress the need for rigorous vetting and transparency before wider adoption.
  • Regulators will compile a report on Mythos's effectiveness and any emerging concerns.

El secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron a los altos ejecutivos de los bancos más grandes del país a una reunión a puerta cerrada esta semana, instándolos a probar el modelo Mythos de Anthropic, recientemente presentado, para detectar fallos de seguridad. JPMorgan Chase es el primer banco que tiene acceso, mientras que Goldman Sachs, Citigroup, Bank of America y Morgan Stanley ya están probando el sistema. Anthropic afirma que el modelo no es una herramienta de ciberseguridad dedicada, pero su capacidad para descubrir vulnerabilidades ha generado interés y escepticismo, especialmente ya que la empresa lucha contra una demanda de la administración Trump sobre una designación de riesgo de cadena de suministro del DoD.

Los principales reguladores financieros de Washington reunieron a los CEOs y directores de riesgo de los bancos más grandes de Estados Unidos para una rara sesión de información fuera de registro el jueves. El secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, utilizaron la sesión para promocionar el modelo Mythos de Anthropic, un sistema de inteligencia artificial generativa que, según la empresa, sobresale en la identificación de debilidades de seguridad ocultas.

JPMorgan Chase fue nombrado la primera institución en recibir acceso directo a Mythos. En cuestión de horas, representantes de Goldman Sachs, Citigroup, Bank of America y Morgan Stanley confirmaron que también estaban evaluando la herramienta. Los bancos, que aún se recuperan de los recientes ciberataques al sector financiero, acogieron con beneplácito la perspectiva de una capa adicional de defensa.

Anthropic, una startup de inteligencia artificial en rápido crecimiento, describió a Mythos como un modelo de "propósito general" que no fue entrenado específicamente para la ciberseguridad. Sin embargo, las pruebas iniciales mostraron que el sistema podría señalarizar fallos de código, malas configuraciones y otras exposiciones que los escáneres tradicionales pasan por alto. La empresa ha limitado la distribución por ahora, citando preocupaciones de que el uso sin restricciones podría revelar información sensible sobre su arquitectura subyacente.

Los observadores de la industria están divididos. Algunos ven el impulso de la Tesorería y la Reserva Federal como un paso pragmático hacia el fortalecimiento de la ciberresiliencia financiera de la nación. Otros sospechan que el movimiento es una táctica de ventas astuta diseñada para asegurar contratos empresariales de alto valor antes de que los competidores se pongan al día.

La reunión se produce en medio de una batalla legal más amplia entre Anthropic y la administración Trump. El Departamento de Defensa etiquetó recientemente a la empresa como un "riesgo de cadena de suministro", una designación que la empresa está impugnando en los tribunales. El movimiento del DoD siguió a un colapso en las conversaciones sobre la insistencia de Anthropic en restringir cómo las agencias gubernamentales podrían implementar sus modelos.

Al otro lado del Atlántico, los reguladores financieros del Reino Unido también están sopesando los riesgos que plantea Mythos. El Financial Times informó que los funcionarios del Banco de Inglaterra y la Autoridad de Conducta Financiera están examinando si la capacidad del modelo para descubrir vulnerabilidades podría ser utilizada como arma o exponer inadvertidamente datos propietarios.

Los ejecutivos bancarios que asistieron a la reunión enfatizaron que cualquier nueva tecnología debe ser sometida a un examen riguroso. "Estamos interesados en herramientas que nos den una ventaja contra amenazas sofisticadas", dijo un alto funcionario de riesgo de un banco importante, que pidió permanecer en el anonimato. "Pero también necesitamos entender las compensaciones, especialmente en torno a la privacidad de los datos y la transparencia del modelo".

El CEO de Anthropic, Dario Amodei, defendió el potencial del modelo, señalando que Mythos fue diseñado para complementar las pilas de seguridad existentes, no reemplazarlas. "Nuestro objetivo es empoderar a las organizaciones para encontrar problemas ocultos más rápido", le dijo a los reporteros después del anuncio. "Estamos trabajando en estrecha colaboración con socios para garantizar una implementación responsable".

Los críticos advirtieron que depender de un sistema de inteligencia artificial propietario podría crear una nueva concentración de riesgo. Si múltiples bancos dependen del mismo modelo, un fallo o una puerta trasera en Mythos podría propagarse por todo el sistema financiero. Los reguladores parecen ser conscientes de esa posibilidad, lo que llevó a la reunión de alto nivel para discutir mecanismos de supervisión.

A medida que se amplía la fase de prueba, los bancos participantes compartirán sus hallazgos con la Tesorería y la Reserva Federal, que planean compilar un informe sobre la eficacia del modelo y cualquier preocupación que surja. Las agencias no se han comprometido a hacer obligatorio el uso de Mythos, pero el respaldo señala una disposición a explorar herramientas de vanguardia en la lucha contra las amenazas cibernéticas.

El resultado de la demanda de Anthropic podría dar forma al futuro de la implementación de la inteligencia artificial en infraestructuras críticas. Un fallo favorable podría abrir la puerta a una adopción más amplia por parte del gobierno, mientras que un revés podría reforzar la postura de la empresa sobre limitar el acceso. De cualquier manera, la conversación iniciada en Washington esta semana subraya la creciente intersección de la innovación en inteligencia artificial, la seguridad nacional y la estabilidad financiera.

#anthropic#mythos#artificial intelligence#cybersecurity#banking#federal reserve#treasury department#financial regulation#uk regulators#supply chain risk#ai model#security vulnerabilities

También disponible en:

Tesoro, Fed Instan a los Grandes Bancos a Probar la Herramienta de Vulnerabilidad de Inteligencia Artificial Mythos de Anthropic | AI News