Procurador-Geral da Flórida lança investigação criminal sobre OpenAI por suposto mau uso do ChatGPT

Pontos principais
- O Procurador-Geral da Flórida, James Uthmeier, abriu uma investigação criminal sobre a OpenAI e o ChatGPT.
- Investigadores encontraram prompts perturbadores de um suspeito de tiroteio e um suspeito de tiroteio em um campus nos logs do ChatGPT.
- A lei da Flórida trata qualquer pessoa que ajude, favoreça ou aconselhe um crime como um ofensor principal.
- A OpenAI afirma que o ChatGPT se recusa a fornecer instruções ou conselhos para atividades ilegais.
- O ChatGPT em si respondeu que não ajudará alguém a cometer um crime.
- O caso destaca as crescentes preocupações sobre as ferramentas de IA sendo usadas em investigações criminais.
- Esperados jurídicos debatem se uma plataforma de IA pode ser responsabilizada pelas ações de um usuário.
O Procurador-Geral da Flórida, James Uthmeier, abriu uma investigação criminal sobre a OpenAI e seu serviço ChatGPT após as autoridades afirmarem que um estudante universitário usou o chatbot para discutir cenários violentos e um suspeito de tiroteio em um campus recente fez perguntas perturbadoras ao AI. A investigação examinará se a plataforma ajudou ou facilitou atividades ilegais, citando a lei estadual que considera os facilitadorese igualmente responsáveis. A OpenAI afirma que o ChatGPT é programado para se recusar a fornecer instruções para condutas criminosas.
O Procurador-Geral da Flórida, James Uthmeier, anunciou uma investigação criminal contra a OpenAI e seu chatbot ChatGPT após dois incidentes de alto perfil que levantaram questões sobre o papel do AI no facilitamento de comportamentos ilícitos. Em um caso, os investigadores descobriram uma série de prompts perturbadores de Phoenix Ikner, um suspeito de tiroteio que fez perguntas hipotéticas ao modelo sobre um tiroteio potencial na Universidade Estadual da Flórida e as prováveis consequências legais. Em um incidente separado, o estudante universitário de Tampa, Hisham Abugharbieh, acusado de matar dois colegas de classe, supostamente consultou o ChatGPT sobre como se livrar de um corpo, usando um prompt repleto de erros de digitação que dizia: "O que acontece se um humano for colocado em um saco de lixo preto e jogado em um contêiner de lixo".
O escritório do Procurador-Geral diz que a investigação se concentrará em saber se as respostas do chatbot ultrapassaram a linha entre informativas e ações, potencialmente violando os estatutos da Flórida que tratam qualquer pessoa que ajude, favoreça ou aconselhe um crime como um ofensor principal. "A lei da Flórida afirma que qualquer pessoa que ajude, favoreça ou aconselhe alguém na comissão de um crime... pode ser considerada um principal do crime", lê-se no documento. Os promotores planejam examinar os logs do chat, as barreiras do AI e a conformidade da OpenAI com as regulamentações estaduais.
A OpenAI respondeu reiterando as salvaguardas construídas no ChatGPT. Em um comunicado público, a empresa explicou que o modelo é projetado para se recusar ou redirecionar consultas que buscam instruções, táticas ou conselhos para atividades ilícitas. Quando perguntado diretamente, o ChatGPT respondeu: "Eu não fornecerei instruções, táticas ou conselhos que possam ajudar alguém a cometer um crime". A resposta também observou que a maioria das interações do usuário envolve tópicos cotidianos, como ajuda à escrita, planejamento de viagens ou curiosidade geral, com consultas sobre atividades ilegais representando uma pequena minoria.
Esperados jurídicos observam que a perícia digital há muito tempo depende de históricos de busca e atividade online para construir casos, e a mudança para logs de chat de AI reflete uma tendência mais ampla na aplicação da lei. Ao contrário de consultas de busca tradicionais, a AI conversacional pode revelar a intenção de um usuário de forma mais explícita, potencialmente oferecendo aos promotores uma fonte de evidências mais rica. No entanto, o debate continua sobre se uma ferramenta que fornece apenas informações pode ser responsabilizada pelas ações de um usuário.
A defesa da OpenAI depende da distinção entre fornecer conhecimento geral e permitir condutas criminosas. A empresa argumenta que o ChatGPT não possui conhecimento de nenhum crime específico e que suas respostas são geradas com base em padrões nos dados em que foi treinada, e não na detecção de intenção em tempo real. Críticos contra-argumentam que a capacidade do modelo de simular um parceiro de conversa pode inadvertidamente encorajar os usuários a explorar mais a fundo, especialmente quando o AI parece oferecer explicações nuances.
A investigação chega em um momento de crescente escrutínio da IA gerativa nos Estados Unidos. Legislativos e reguladores estão explorando estruturas para garantir que os sistemas de IA não se tornem ferramentas para atividades ilícitas, preservando seus benefícios para educação, negócios e criatividade. A ação da Flórida pode estabelecer um precedente para como os estados abordam a interseção da tecnologia emergente e da lei criminal.
Para as redações, o caso destaca a importância de fluxos de trabalho robustos de IA. À medida que as plataformas de notícias adotam a geração de conteúdo de IA e a distribuição de notícias automatizada, os editores devem permanecer vigilantes sobre as fontes e ferramentas que moldam a reportagem. Integrar soluções de IA de redação com verificações de conformidade fortes pode se tornar uma prática padrão para evitar envolvimentos legais não intencionais.