Funcionários da OpenAI Discutiram Relatar Uso Indevido do ChatGPT por Atirador Canadense

Pontos principais
- Um jovem de 18 anos alegadamente matou oito pessoas em um tiroteio em massa em Tumbler Ridge, Canadá.
- O indivíduo usou o ChatGPT da OpenAI para discutir violência com armas de fogo; as conversas foram flagradas e banidas.
- Funcionários da OpenAI debateram contatar a polícia canadense, mas não o fizeram inicialmente.
- A OpenAI posteriormente entrou em contato com a Polícia Montada Real do Canadá após o incidente.
- O indivíduo também criou um jogo no Roblox simulando um tiroteio em um shopping e postou sobre armas de fogo no Reddit.
- A polícia local estava ciente da instabilidade do indivíduo após um incidente de incêndio na casa da família.
- O caso destaca preocupações contínuas sobre o uso indevido de LLM e processos judiciais relacionados.
Um jovem de 18 anos, que alegadamente matou oito pessoas em um tiroteio em massa em Tumbler Ridge, Canadá, usou o ChatGPT da OpenAI para discutir violência com armas de fogo. As ferramentas de monitoramento da OpenAI flagraram as conversas e os funcionários debateram se deveriam contatar a polícia canadense, mas não o fizeram inicialmente. A empresa posteriormente entrou em contato com a Polícia Montada Real do Canadá após o incidente. Atividades preocupantes adicionais incluíram um jogo no Roblox simulando um tiroteio em um shopping e postagens relacionadas a armas de fogo no Reddit. A polícia local estava ciente da instabilidade do indivíduo após um incidente de incêndio. O caso adiciona à escrutínio contínuo do uso indevido de LLM e processos judiciais relacionados.
Contexto do Incidente
Um jovem de 18 anos, alegadamente responsável por um tiroteio em massa que ceifou a vida de oito pessoas em Tumbler Ridge, Canadá, usou o ChatGPT da OpenAI para descrever violência relacionada a armas de fogo. As conversas do indivíduo foram detectadas por ferramentas internas que monitoram o modelo de linguagem grande para uso indevido e foram posteriormente banidas em junho de 2025.
Deliberações Internas da OpenAI
De acordo com reportagens do Wall Street Journal, funcionários da OpenAI debateram se deveriam notificar a polícia canadense sobre o comportamento do indivíduo. A discussão concluiu sem uma abordagem imediata às autoridades. Um porta-voz da OpenAI posteriormente afirmou que a atividade não atendia aos critérios da empresa para relatar à polícia na época, mas a empresa proativamente entrou em contato com a Polícia Montada Real do Canadá após o tiroteio ocorrer. O porta-voz expressou simpatia, dizendo: "Nossos pensamentos estão com todos afetados pela tragédia de Tumbler Ridge" e acrescentou: "Proativamente, entramos em contato com a Polícia Montada Real do Canadá com informações sobre o indivíduo e seu uso do ChatGPT, e continuaremos a apoiar a investigação deles".
Pegada Digital Adicional
Além das conversas no ChatGPT, o indivíduo criou um jogo na plataforma Roblox que simulava um tiroteio em massa em um shopping. A pessoa também postou sobre armas de fogo no Reddit. A polícia local estava ciente da instabilidade do indivíduo; eles haviam sido chamados à casa da família após o indivíduo iniciar um incêndio sob a influência de drogas não especificadas.
Contexto Mais Amplo do Uso Indevido de LLM
A OpenAI e empresas concorrentes enfrentaram acusações de que seus chatbots de modelo de linguagem grande podem contribuir para colapsos mentais em usuários que perdem o contato com a realidade durante interações. Vários processos judiciais foram movidos que citam transcrições de conversas que incentivam o suicídio ou fornecem assistência em autolesão. O caso de Tumbler Ridge adiciona ao escrutínio crescente de como as ferramentas de chat de IA podem ser usadas indevidamente e as responsabilidades das empresas de IA no monitoramento e relato de tal comportamento.