Anthropic Limita Acesso ao Claude Mythos, Seu Novo Modelo de Inteligência Artificial para Cibersegurança

Anthropic Limits Access to Claude Mythos, Its New Cybersecurity AI Model

Pontos principais

  • A Anthropic lançou o Claude Mythos Preview para uma lista selecionada de clientes, incluindo Amazon, Apple, Microsoft, Broadcom, Cisco e CrowdStrike.
  • O lançamento segue dois vazamentos de dados que expuseram documentos internos e código-fonte, que a empresa atribuiu a erros humanos.
  • O Mythos pode identificar vulnerabilidades de cibersegurança em uma escala além da capacidade de analistas humanos, mas também pode ser utilizado para desenvolver exploits.
  • A Anthropic está em discussões com o governo dos EUA sobre possíveis usos do modelo.
  • A empresa diz que o lançamento limitado visa dar aos primeiros adotantes uma vantagem em segurança enquanto previne o uso indevido.

A Anthropic anunciou um lançamento limitado do Claude Mythos Preview, um modelo de inteligência artificial focado em cibersegurança, para um pequeno grupo de clientes selecionados, como Amazon, Apple, Microsoft, Broadcom, Cisco e CrowdStrike. A medida segue dois vazamentos de dados recentes que expuseram documentos internos e código-fonte, levando a empresa a restringir a distribuição enquanto continua as discussões com o governo dos EUA sobre o uso do modelo. A Anthropic afirma que o Mythos pode identificar vulnerabilidades em uma escala além da capacidade de analistas humanos, mas também pode ser utilizado para desenvolver exploits se cair em mãos erradas.

A Anthropic lançou o Claude Mythos Preview, seu novo modelo de inteligência artificial projetado para cibersegurança, para um grupo seleto de clientes na terça-feira. A lista inclui gigantes da indústria como Amazon, Apple e Microsoft, bem como empresas de segurança focadas como Broadcom, Cisco e CrowdStrike. A Anthropic disse que o modelo permanecerá disponível apenas para organizações que atendam a critérios de seleção rigorosos e que discussões estão em andamento com o governo dos EUA sobre possíveis implantações.

O anúncio vem após dois incidentes de vazamento de dados de alto perfil na startup sediada em San Francisco. No mês passado, um cache de dados acessível publicamente revelou documentos internos que descreviam o Mythos e outros projetos. Uma semana depois, o código-fonte interno do modelo de assistente pessoal Claude Code da Anthropic foi publicado online. Ambos os vazamentos foram atribuídos pela empresa a erros humanos, levantando preocupações sobre suas práticas de manipulação de dados.

Apesar dos contratempos, a Anthropic disse que o Mythos já está em uso com parceiros há várias semanas. O modelo é apresentado como um "modelo de propósito geral" com capacidades mais amplas do que as ofertas anteriores, mas a Anthropic é a primeira a limitar seu lançamento devido à natureza de uso duplo da tecnologia. "Acreditamos que tecnologias como essa são poderosas o suficiente para fazer muito bem, mas também podem ser ruins se caírem em mãos erradas", disse Dianne Na Penn, chefe de gestão de produtos e pesquisa da Anthropic.

De acordo com a empresa, o Mythos pode identificar vulnerabilidades de cibersegurança em uma escala que excede a capacidade de analistas humanos. Ele pode analisar grandes bases de código, sinalizar fraquezas e sugerir etapas de remediação mais rápido do que as ferramentas tradicionais. Ao mesmo tempo, o mesmo poder analítico pode permitir que o modelo descubra novas maneiras de explorar essas vulnerabilidades, um risco que a Anthropic não está disposta a correr com um lançamento público amplo.

A abordagem cautelosa da Anthropic reflete um debate crescente na indústria sobre o lançamento responsável de sistemas de inteligência artificial poderosos. Ao restringir o acesso a um conjunto curado de clientes, a empresa espera dar aos primeiros adotantes uma "vantagem" na segurança de seus ambientes, limitando a chance de que atores mal-intencionados obtenham as mesmas capacidades.

Os clientes que receberão o Mythos ganharão aparentemente a capacidade de detectar falhas de código e vetores de ataque potenciais em uma escala anteriormente inatingível. A empresa acredita que isso pode redefinir as práticas de cibersegurança em vários setores, mudando o equilíbrio em direção à defesa proativa em vez de patching reativo.

Embora o lançamento limitado tenha como objetivo mitigar o uso indevido, a Anthropic não divulgou um cronograma para um lançamento mais amplo. A empresa enfatizou que o modelo permanecerá indisponível para o mercado geral até que possa garantir salvaguardas robustas estejam em vigor.

Observadores da indústria notam que a medida destaca a tensão entre inovação e segurança no desenvolvimento de inteligência artificial. À medida que mais empresas exploram soluções de segurança impulsionadas por inteligência artificial, a pressão para equilibrar o avanço rápido com considerações éticas provavelmente se intensificará.

#Anthropic#Claude Mythos#cibersegurança#inteligência artificial#modelo de IA#vazamento de dados#empresas de tecnologia#segurança#ética de IA#governo dos EUA

Também disponível em: