Lacunas de Segurança de IA Empresarial Surgem em Tempo de Execução, Alertam Especialistas

Enterprise AI Security Gaps Surface at Runtime, Experts Warn

Pontos principais

  • Traditional security protects data at rest and in transit, but not data in use during AI execution.
  • Three vulnerable phases identified: training, inference and runtime, with runtime being the weakest link.
  • Model weights and real‑time prompts can be exposed to the underlying system even in secured environments.
  • Scaling AI across distributed, multi‑tenant infrastructures multiplies exposure opportunities.
  • Confidential computing and hardware isolation are recommended to protect data during runtime.

Uma nova análise revela que a maioria das organizações ainda confia em modelos de segurança tradicionais que deixam as cargas de trabalho de inteligência artificial expostas no momento em que são executadas. Embora os dados em repouso e em trânsito desfrutem de criptografia e controles de acesso, a fase crítica em que os modelos de IA processam informações na memória - conhecida como tempo de execução - permanece largamente desprotegida.

As empresas adotaram a inteligência artificial a um ritmo acelerado, incorporando modelos ao suporte ao cliente, detecção de fraude, desenvolvimento de software e operações de TI. No entanto, o quadro de segurança que protege essas cargas de trabalho não acompanhou o mesmo ritmo. As defesas tradicionais se concentram em dados em repouso e em trânsito, aplicando criptografia e controles de identidade para manter as informações seguras enquanto elas estão em discos ou se movem pelas redes. Essa abordagem ignora um terceiro estado, muito mais complexo: dados em uso, o momento em que os modelos de IA são executados.

Quando um modelo é executado, seus pesos - frequentemente o patrimônio intelectual mais valioso que uma empresa possui - são carregados na memória, e prompts, respostas e dados contextuais fluem pelo sistema em tempo real. Em muitos ambientes, essas informações sensíveis se tornam visíveis para o sistema operacional subjacente e o hardware. Mesmo as infraestruturas bem seguras podem expor inadvertidamente seus ativos mais críticos no exato momento em que estão sendo processados.

Lacunas de segurança aparecem em três fases principais. Durante o treinamento, os dados se movem por sistemas de armazenamento, clusters de computação compartilhados, camadas de orquestração e ferramentas de depuração. O constante rearranjo cria oportunidades para vazamentos acidentais, e os pesos do modelo podem ser tratados com menos rigor do que merecem. A inferência, a fase em que as entradas se tornam saídas, também sofre com a exposição. Os prompts do usuário, as respostas geradas e os dados internos são frequentemente registrados em texto puro, capturados por dashboards de monitoramento ou retidos por mais tempo do que o pretendido. A infraestrutura compartilhada amplifica ainda mais o risco.

No entanto, o ponto cego mais perigoso é o tempo de execução. Nesse ponto, os dados criptografados são descriptografados, os pesos do modelo estão na memória, e a carga de trabalho depende da confiabilidade do sistema host. Se o sistema estiver comprometido ou mal configurado, os controles de segurança tradicionais - gerenciamento de identidade, políticas de criptografia - oferecem pouca proteção, pois as chaves já estão em uso. O resultado é um ambiente de execução vulnerável onde os ativos sensíveis podem ser acessados sem detecção.

A escala da IA amplifica essas vulnerabilidades. À medida que mais modelos são executados em ambientes distribuídos e multi-inquilinos, o volume de dados e o número de pontos de execução multiplicam, criando uma superfície de ataque maior. Os modelos proprietários se tornam ativos de negócios essenciais, e as apostas de uma violação aumentam dramaticamente.

Os especialistas argumentam que o problema não é a falta de ferramentas de segurança, mas uma discrepância entre as suposições de confiança legadas e a natureza dinâmica das cargas de trabalho de IA. Os modelos tradicionais supõem que, uma vez que uma carga de trabalho entre em um perímetro de confiança, ela permanece segura. A IA desafia essa premissa, processando constantemente dados sensíveis e confiando em pilhas complexas e frequentemente opacas.

Para fechar a lacuna, a indústria está se voltando para a computação confidencial e a isolamento baseado em hardware. Essas tecnologias criam ambientes de execução protegidos que exigem prova criptográfica antes de permitir que as cargas de trabalho sejam executadas. Ao manter os dados criptografados, mesmo enquanto estão sendo processados, e proteger os pesos do modelo contra acesso não autorizado, elas mudam a segurança de suposições baseadas em perímetro para confiança verificável.

As organizações que reconhecem e abordam a vulnerabilidade em tempo de execução cedo estarão melhor posicionadas para escalar a IA com segurança. Aquelas que continuam a confiar em modelos de segurança obsoletos arriscam expor seus ativos mais valiosos no exato momento em que esses ativos estão entregando valor comercial.

#AI security#runtime security#confidential computing#enterprise AI#data protection#model weights#inference#training#cybersecurity#cloud computing

Também disponível em:

Lacunas de Segurança de IA Empresarial Surgem em Tempo de Execução, Alertam Especialistas | AI News