Hackers enganam ChatGPT, Grok e Google para instalar malware

Pontos principais
- Atacantes usam chatbots de IA para gerar comandos de terminal maliciosos.
- As sugestões maliciosas são promovidas nos resultados de busca do Google.
- A Huntress testou com sucesso o método contra ChatGPT e Grok.
- A técnica evita táticas de download ou clique em links tradicionais.
- Os usuários apenas precisam confiar no mecanismo de busca e no assistente de IA para serem comprometidos.
- O conteúdo malicioso pode permanecer visível por várias horas antes da remoção.
- Práticas de segurança padrão, como verificar comandos, são críticas.
- O incidente destaca novos riscos à medida que as plataformas de IA e busca convergem.
Pesquisadores de segurança descobriram um novo método em que atacantes usam chatbots de IA e motores de busca para entregar comandos maliciosos. Ao sugerir comandos de terminal por meio de assistentes de IA e promover essas sugestões em resultados de busca, hackers podem enganar usuários desprevenidos para executar códigos prejudiciais. Testes da Huntress mostraram que a técnica foi bem-sucedida contra ChatGPT e Grok, permitindo a instalação de malware sem downloads ou cliques em links tradicionais.
Como o Ataque Funciona
Atores de ameaça iniciam uma conversa pública com um assistente de IA, como ChatGPT ou Grok, sobre um termo de busca comum. Durante a troca, eles pedem que o IA sugira um comando que possa ser colado no terminal de um computador. A conversa é então tornada pública e a promoção paga é usada para impulsionar a página para o topo dos resultados de busca do Google. Quando um usuário pesquisa o termo, a sugestão de comando malicioso aparece perto do topo da página de resultados.
Testes da Huntress
A empresa de detecção e resposta Huntress investigou o método após ver um ataque de exfiltração de dados direcionado a Macs que originou de uma simples busca no Google. Em seu teste, um usuário que procurava maneiras de limpar espaço em disco em um Mac clicou em um link patrocinado para uma conversa do ChatGPT, copiou a sugestão de comando e executou-a. O comando instalou o malware AMOS, dando aos atacantes acesso ao sistema. A Huntress replicou o teste contra ChatGPT e Grok e confirmou que cada IA reproduziu as instruções maliciosas.
Por Que Essa Abordagem É Eficaz
A técnica contorna muitos alertas de segurança tradicionais porque não requer o download de um arquivo, a instalação de um executável ou o clique em um link suspeito. As vítimas apenas precisam confiar no mecanismo de busca e no assistente de IA — serviços que usam regularmente e consideram confiáveis. O conteúdo malicioso pode permanecer online por um período de tempo, como o exemplo mostrou que ficou disponível por pelo menos meio dia antes de ser removido.
Implicações para Usuários e Organizações
Especialistas em segurança alertam que a convergência de chatbots de IA e promoção de mecanismos de busca cria um novo vetor de ataque que é mais difícil de detectar com defesas convencionais. Os usuários devem ser céticos em relação a quaisquer comandos de terminal ou trechos de código sugeridos por ferramentas de IA, especialmente quando encontrados por meio de resultados de busca. A higiene cibernética padrão — como verificar comandos com fontes confiáveis e evitar copiar e colar códigos desconhecidos — permanece essencial.
Contexto Mais Amplo
A descoberta ocorre em um momento em que as plataformas de IA estão sob intensa escrutínio. Embora alguns serviços de IA enfrentem críticas por outros motivos, este incidente destaca o potencial para exploração maliciosa. A Huntress enfatiza que a vigilância e o comportamento cauteloso são fundamentais para prevenir que tais ataques sejam bem-sucedidos.