Hackers Resistem Contra Postagens de IA em Fóruns Subterrâneos

Hackers Push Back Against AI Posts on Underground Forums

Pontos principais

  • Estudo examinou 97.895 postagens relacionadas à IA em fóruns de cibercrime de fins de 2022 a 2023.
  • Membros de fóruns repetidamente exigiram o fim do conteúdo gerado por IA, chamando-o de "merda de IA".
  • Pesquisadores encontraram que a IA não diminuiu a barreira de habilidade para ataques sofisticados.
  • A IA principalmente impulsionou golpes automatizados, como fraude de SEO, bots e golpes de romance.
  • A Flashpoint notou que atores sofisticados podem contornar as barreiras da IA, mas permanecem cautelosos com mercados carregados de IA.
  • Uma minoria sugeriu assistência limitada de IA para gramática, não geração completa de postagens.
  • Propostas para mercados de cibercrime aprimorados por IA encontraram forte oposição de usuários de fóruns.

Pesquisadores que monitoram conversas em quadros de mensagens de cibercrime descobriram uma crescente reação contra conteúdo gerado por inteligência artificial. De fins de 2022 a 2023, membros de fóruns reclamaram que tutoriais gerados por IA, explicações em forma de bullet points e postagens de baixa qualidade estavam poluindo seus espaços e ameaçando a credibilidade de hackers experientes.

Fóruns de cibercrime que antes prosperavam com interações humanas agora estão lidando com um novo incômodo: inteligência artificial gerativa. Um estudo conjunto de pesquisadores da Universidade de Edimburgo, da Universidade de Cambridge e da Universidade de Strathclyde examinou quase 98.000 postagens relacionadas à IA em mercados subterrâneos e quadros de discussão desde o lançamento do ChatGPT em fins de 2022 até o final de 2023. A análise revelou um fluxo constante de reclamações de membros de fóruns que sentiam que o conteúdo gerado por IA diminuía a qualidade do discurso e ameaçava suas reputações.

“As pessoas não gostam disso”, disse Ben Collier, um professor sênior de pesquisa de segurança em Edimburgo, referindo-se ao tom de dezenas de postagens que explicitamente exigiam o fim das explicações impulsionadas por IA. No Hack Forums, um espaço bem conhecido para entusiastas de hacking, os usuários postaram mensagens como “Parem de postar merda de IA” e lamentaram que novatos estavam usando IA para produzir tutoriais básicos sem qualquer esforço. O sentimento ecoou em várias plataformas de origem russa, onde golpistas experientes e script-kiddies alike dependem de pontuações de reputação para garantir negócios e trocar dados roubados.

Pesquisadores traçaram o aumento do burburinho da IA ao hype mais amplo em torno de grandes modelos de linguagem. No início do lançamento do ChatGPT, muitos atores de baixo nível experimentaram com IA para automatizar tarefas mundanas: redigir scripts de phishing, traduzir mensagens de engenharia social ou gerar trechos de código. Embora alguns elogiassem os ganhos de eficiência, uma facção crescente ficou cética, argumentando que a dependência de IA diluía a cultura baseada em habilidades que sustenta essas comunidades.

A Flashpoint, uma empresa de inteligência cibernética, observou uma tendência paralela. Seus analistas notaram que atores de ameaça mais sofisticados já estavam contornando as barreiras construídas em modelos comerciais, mas permaneciam cautelosos com mercados carregados de IA. “Existem fraquezas e vulnerabilidades, às vezes expostas a infraestrutura subjacente”, disse Ian Gray, vice-presidente de inteligência da Flashpoint, descrevendo o possível impacto da integração incontrolada de IA.

O estudo encontrou que o impacto da IA na economia subterrânea foi desigual. Não diminuiu dramaticamente a barreira de entrada para ataques complexos, nem derrubou modelos de negócios estabelecidos. Em vez disso, a IA parece ter acelerado esquemas já automatizados, como fraude de SEO, bots de mídia social e golpes de romance. Nesses nichos, o conteúdo gerado por IA pode escalar rapidamente, inundando a internet com spam de baixo custo e alto volume.

Apesar da irritação, uma minoria de membros de fóruns expressou uma visão matizada. Alguns sugeriram que um assistente de IA poderia ajudar a polir a gramática ou estruturar postagens, traçando uma linha no envio de submissões totalmente automatizadas. “Um gerador de postagens de IA transformaria isso em um fórum de merda de IA falando com outros IA”, um usuário advertiu, sublinhando o desejo de preservar a interação humana como o valor central desses espaços.

A Flashpoint também relatou discussões sobre um “mercado de cibercrime aprimorado por IA”, uma proposta para simplificar a venda de credenciais roubadas usando matchmaking impulsionado por IA. A ideia despertou uma oposição feroz, com um posteiro rotulando-a de “uma ideia estúpida para colocar IA no seu mercado”. A reação destaca um choque cultural mais amplo: atores subterrâneos valorizam a percepção de expertise e temem que a IA possa erodir o mistério que alimenta suas reputações ilícitas.

No geral, a pesquisa pinta um quadro de uma comunidade em transição. Embora as ferramentas de IA ofereçam conveniência inegável, o tecido social dos fóruns de hacking — construído sobre confiança, reputação e um senso de camaradagem — resiste à automação completa. As descobertas sugerem que qualquer integração futura de IA nos ecossistemas de cibercrime terá que lidar com uma audiência cautelosa que prefere a ingenuidade humana às soluções geradas por máquina.

#cibercrime#fóruns de hacking#IA gerativa#ChatGPT#pesquisa de segurança cibernética#mercados subterrâneos#conteúdo gerado por IA#Flashpoint#pesquisadores de segurança#fraude online

Também disponível em:

Hackers Resistem Contra Postagens de IA em Fóruns Subterrâneos | AI News