OpenAI alerta que futuros modelos de IA podem aumentar riscos de cibersegurança

OpenAI admits new models likely to pose 'high' cybersecurity risk

Pontos principais

  • A OpenAI alerta que os futuros LLMs podem ajudar a criar exploits de zero dia e ciberespionagem avançada.
  • A empresa está investindo em ferramentas defensivas e workflows para auditoria de código e patching de vulnerabilidades.
  • Um programa de acesso em camadas dará às equipes de segurança capacidades aprimoradas, enquanto gerencia o risco de mau uso.
  • A OpenAI formará um Conselho de Risco de Fronteira de especialistas em cibersegurança para orientar salvaguardas.
  • A participação no Fórum de Modelo de Fronteira permite o compartilhamento de boas práticas com parceiros da indústria.

A OpenAI advertiu que os próximos grandes modelos de linguagem podem ser capazes de ajudar a criar exploits de zero dia e ciberespionagem sofisticada, aumentando o potencial de ameaças de cibersegurança. A empresa afirmou que está investindo em ferramentas defensivas, controles de acesso e um programa em camadas para dar às equipes de segurança capacidades aprimoradas.

Potenciais ameaças de cibersegurança de futuros modelos

A OpenAI anunciou que sua próxima geração de grandes modelos de linguagem pode, teoricamente, ajudar a desenvolver exploits de zero dia remoto contra sistemas bem defendidos ou assistência significativa com campanhas de ciberespionagem complexas e sigilosas. A empresa descreveu essas capacidades cibernéticas emergentes como "avançando rapidamente" e observou que elas podem ser aproveitadas por qualquer modelo de fronteira na indústria.

Investimentos defensivos e ferramentas

Para se preparar para esses riscos, a OpenAI disse que está investindo no fortalecimento de modelos para tarefas de cibersegurança defensiva e criando ferramentas que permitem que os defensores realizem workflows como auditoria de código e patching de vulnerabilidades com mais facilidade. A abordagem inclui uma combinação de controles de acesso, endurecimento de infraestrutura, controles de saída e monitoramento.

Programa de acesso em camadas para profissionais de segurança

A OpenAI planeja introduzir um programa que dará aos usuários e clientes que trabalham em tarefas de cibersegurança acesso a capacidades aprimoradas de forma em camadas. Esse programa pretende fornecer às equipes de segurança os recursos avançados de que precisam, enquanto gerencia o potencial de mau uso.

Conselho de Risco de Fronteira

A empresa estabelecerá um grupo consultivo chamado Conselho de Risco de Fronteira, composto por especialistas e praticantes experientes em cibersegurança. O conselho se concentrará inicialmente na cibersegurança, aconselhando sobre a fronteira entre capacidade útil e responsável e potencial mau uso, e suas percepções informarão diretamente as avaliações e salvaguardas da OpenAI.

Colaboração por meio do Fórum de Modelo de Fronteira

A OpenAI destacou sua participação no Fórum de Modelo de Fronteira, onde compartilha conhecimento e boas práticas com parceiros da indústria. O fórum ajuda a identificar como as capacidades de IA podem ser armadas, onde existem gargalos críticos para diferentes atores de ameaça e como os modelos de fronteira podem fornecer uma melhoria significativa para ambos os atacantes e defensores.

Equilibrando risco e benefício

Embora reconheça o risco aumentado, a OpenAI enfatizou que os avanços também trazem "benefícios significativos para a ciberdefesa". Ao investir em ferramentas defensivas, acesso em camadas e grupos consultivos de especialistas, a empresa busca mitigar ameaças potenciais, enquanto apoia os profissionais de segurança na proteção de sistemas digitais.

#OpenAI#Inteligência Artificial#Modelos de Linguagem Grande#Cibersegurança#Exploits de Zero Dia#Ciberespionagem#Ferramentas Defensivas#Conselho de Risco de Fronteira#Fórum de Modelo de Fronteira#Microsoft

Também disponível em:

OpenAI alerta que futuros modelos de IA podem aumentar riscos de cibersegurança | AI News