China Propõe Regras Mais Rígidas para Chatbots de IA para Prevenir Suicídio e Manipulação

Thumbnail: China Proposes Strictest AI Chatbot Rules to Prevent Suicide and Manipulation

Pontos principais

  • A Administração do Ciberespaço da China elaborou regras que abrangem todos os chatbots de IA que simulam conversa humana.
  • Intervenção humana imediata é exigida quando um usuário menciona suicídio.
  • Usuários menores e idosos devem fornecer informações de contato de guardiões; guardiões são notificados de discussões sobre autolesão.
  • Chatbots são proibidos de incentivar suicídio, autolesão, violência, obscenidade, jogos de azar, crime ou manipulação emocional.
  • O projeto busca prevenir "armadilhas emocionais" que possam levar usuários a decisões irrazoáveis.
  • Especialistas dizem que as regulamentações poderiam se tornar o quadro de segurança de IA mais rigoroso do mundo.
  • Pesquisas destacam ligações entre companheiros de IA e autolesão, desinformação, investidas indesejadas e preocupações de saúde mental.
  • A proposta reflete um impulso global crescente para regular IA com características humanas.

A Administração do Ciberespaço da China elaborou regulamentações abrangentes visando coibir comportamentos prejudiciais por parte de chatbots de IA. A proposta se aplicaria a qualquer serviço de IA disponível no país que simule conversa humana por meio de texto, imagens, áudio ou vídeo.

Projeto de Regulamentação de IA da China Visa Comportamento Prejudicial de Chatbots

A Administração do Ciberespaço da China introduziu um projeto de regras que imporiam os limites mais rigorosos sobre chatbots de inteligência artificial em todo o mundo. As regulamentações são projetadas para evitar que ferramentas impulsionadas por IA manipulem emocionalmente os usuários e previnam conteúdo que possa levar a suicídio, autolesão ou violência.

De acordo com o projeto, as regras abrangeriam qualquer produto ou serviço de IA disponível publicamente na China que use texto, imagens, áudio, vídeo ou outros meios para simular uma conversa humana atraente. O escopo é amplo, abrangendo tanto plataformas nacionais quanto estrangeiras que operam dentro das fronteiras do país.

Principais Disposições e Medidas de Fiscalização

Dentre as exigências mais notáveis está a obrigação de intervenção humana imediata sempre que um usuário mencione suicídio. O projeto também obriga as plataformas a coletar informações de contato de guardiões para todos os usuários menores e idosos no momento do registro. Se uma conversa tocar em suicídio ou autolesão, o guardião designado seria notificado.

Os chatbots seriam proibidos de gerar qualquer conteúdo que incentive suicídio, autolesão ou violência. As regulamentações também proíbem tentativas de manipulação emocional dos usuários, como fazer promessas falsas ou levá-los a "decisões irrazoáveis", um conceito descrito no projeto como "armadilhas emocionais". Proibições adicionais abrangem a promoção de obscenidade, jogos de azar, instigação de crime e qualquer calúnia ou insulto dirigido aos usuários.

Contexto e Racional

Winston Ma, professor adjunto da Faculdade de Direito da Universidade de Nova York, disse à CNBC que as regras propostas marcariam a primeira tentativa mundial de regular sistemas de IA com características humanas, refletindo o rápido crescimento de bots de companhia em todo o mundo. Pesquisadores destacaram uma série de danos vinculados a companheiros de IA, incluindo a promoção de autolesão, violência, terrorismo, desinformação prejudicial, investidas sexuais indesejadas, incentivo ao abuso de substâncias e abuso verbal.

Relatórios recentes indicam que alguns psiquiatras estão começando a associar psicose ao uso de chatbots, enquanto o Wall Street Journal observou que o chatbot mais popular, ChatGPT, enfrentou processos judiciais sobre saídas relacionadas a incidentes de suicídio e homicídio-suicídio. Essas preocupações intensificaram os apelos por quadros regulatórios robustos.

Impacto Potencial

Se finalizado, o projeto da China poderia estabelecer um padrão global para segurança de IA e proteção do usuário. Ao exigir supervisão humana em tempo real e proibições rigorosas de conteúdo, as regulamentações visam mitigar os riscos à saúde mental associados a agentes conversacionais cada vez mais sofisticados. Observadores da indústria sugerem que as regras poderiam compelir desenvolvedores de IA em todo o mundo a adotar salvaguardas semelhantes se desejam operar no mercado chinês.

O projeto reflete uma tendência mais ampla de governos que buscam equilibrar inovação tecnológica com segurança pública, especialmente à medida que sistemas de IA se tornam mais integrados à vida diária. Embora a forma final das regulamentações permaneça pendente, a proposta sinaliza um movimento decisivo das autoridades chinesas para abordar os desafios éticos e sociais apresentados por chatbots de IA.

#China#Regulação de IA#Chatbots#Prevenção de Suicídio#Administração do Ciberespaço#Winston Ma#ChatGPT#Ética de IA#Saúde Mental#Inteligência Artificial

Também disponível em: