Anthropic limita el acceso a Claude Mythos, su nuevo modelo de inteligencia artificial para la ciberseguridad

Anthropic Limits Access to Claude Mythos, Its New Cybersecurity AI Model

Puntos clave

  • Anthropic lanzó Claude Mythos Preview a una lista verificada de clientes, que incluye a Amazon, Apple, Microsoft, Broadcom, Cisco y CrowdStrike.
  • El lanzamiento sigue a dos filtraciones de datos que expusieron documentos internos y código fuente, que la empresa atribuyó a errores humanos.
  • Mythos puede identificar vulnerabilidades de ciberseguridad a una escala más allá de los analistas humanos, pero también podría ser utilizado para desarrollar exploits.
  • Anthropic está en conversaciones con el gobierno de los EE. UU. sobre posibles usos del modelo.
  • La empresa dice que el lanzamiento limitado busca dar a los adoptantes tempranos una ventaja en la seguridad mientras previene el mal uso.

Anthropic anunció una implementación limitada de Claude Mythos Preview, un modelo de inteligencia artificial enfocado en la ciberseguridad, a un puñado de clientes verificados como Amazon, Apple, Microsoft, Broadcom, Cisco y CrowdStrike. Este movimiento sigue a dos filtraciones de datos recientes que expusieron documentos internos y código fuente, lo que llevó a la empresa a restringir la distribución mientras continúa las conversaciones con el gobierno de los EE. UU. sobre el uso del modelo. Anthropic afirma que Mythos puede detectar vulnerabilidades a una escala más allá de los analistas humanos, pero también podría ser utilizado como arma si cae en las manos equivocadas.

Anthropic lanzó Claude Mythos Preview, su modelo de inteligencia artificial más nuevo diseñado para la ciberseguridad, a un grupo selecto de clientes el martes. La lista incluye gigantes de la industria como Amazon, Apple y Microsoft, así como empresas de seguridad como Broadcom, Cisco y CrowdStrike. Anthropic dijo que el modelo permanecerá disponible solo para organizaciones que cumplan con criterios de verificación estrictos y que se están llevando a cabo conversaciones con el gobierno de los EE. UU. sobre posibles despliegues.

El anuncio llega después de dos incidentes de datos de alto perfil en la startup con sede en San Francisco. El mes pasado, una caché de datos de acceso público reveló documentos internos que describían Mythos y otros proyectos. Una semana después, el código fuente interno del modelo de asistente personal de Anthropic Claude Code se publicó en línea. Ambas filtraciones fueron atribuidas por la empresa a errores humanos, lo que plantea preocupaciones sobre sus prácticas de manejo de datos.

A pesar de los contratiempos, Anthropic dijo que Mythos ya ha estado en uso con socios durante varias semanas. El modelo se presenta como una inteligencia artificial de "propósito general" con capacidades más amplias que las ofertas anteriores, pero Anthropic es la primera en limitar su lanzamiento debido a la naturaleza dual de la tecnología. "Creemos que tecnologías como esta son lo suficientemente poderosas como para hacer mucho bien, pero también potencialmente malas si caen en las manos equivocadas", dijo Dianne Na Penn, jefa de gestión de productos e investigación en Anthropic.

Según la empresa, Mythos puede identificar vulnerabilidades de ciberseguridad a una escala que supera a los analistas humanos. Puede analizar enormes bases de código, señalar debilidades y sugerir pasos de remediación más rápido que las herramientas tradicionales. Al mismo tiempo, el mismo poder analítico podría permitir que el modelo descubra nuevas formas de explotar esas vulnerabilidades, un riesgo que Anthropic no está dispuesta a asumir con un lanzamiento público amplio.

El enfoque cauteloso de Anthropic refleja un debate creciente en la industria sobre la implementación responsable de sistemas de inteligencia artificial poderosos. Al restringir el acceso a un conjunto curado de clientes, la empresa espera dar a los adoptantes tempranos una "ventaja" en la seguridad de sus entornos mientras limita la posibilidad de que actores maliciosos obtengan las mismas capacidades.

Los clientes que reciben Mythos podrán detectar fallos de código y vectores de ataque potenciales a una escala anteriormente inalcanzable. La empresa cree que esto podría cambiar las prácticas de ciberseguridad en todos los sectores, desplazando el equilibrio hacia la defensa proactiva en lugar de la reparación reactiva.

Mientras que el lanzamiento limitado busca mitigar el mal uso, Anthropic no ha revelado un cronograma para un lanzamiento más amplio. La empresa enfatizó que el modelo permanecerá sin estar disponible para el mercado general hasta que pueda garantizar que las salvaguardias robustas estén en su lugar.

Los observadores de la industria señalan que el movimiento subraya la tensión entre la innovación y la seguridad en el desarrollo de la inteligencia artificial. A medida que más empresas exploran soluciones de seguridad impulsadas por la inteligencia artificial, la presión para equilibrar el avance rápido con consideraciones éticas probablemente se intensificará.

#inteligencia artificial#ciberseguridad#modelo de inteligencia artificial#filtración de datos#empresas de tecnología#seguridad#ética de la inteligencia artificial#gobierno de los EE. UU.

También disponible en: