Plano de Modo Adulto da OpenAI para o ChatGPT Levanta Preocupações com a Privacidade

Pontos principais
- A OpenAI planeja adicionar um modo adulto que permite aos usuários gerar conteúdo erótico com o ChatGPT.
- O recurso se baseia no sistema de memória do modelo, que registra as preferências dos usuários para respostas personalizadas.
- Conversas temporárias não devem aparecer no histórico, mas a OpenAI pode reter cópias por até 30 dias.
- Bugs passados expuseram títulos de históricos de conversas de usuários e permitiram que as conversas fossem indexadas por motores de busca.
- Especialistas alertam que conversas íntimas com a IA podem se tornar uma forma de vigilância.
- Julie Carpenter destaca os riscos de violações de dados, hacks e solicitações legais que expõem fantasias privadas.
- Kate Devlin nota que a medida reflete a monetização de um comportamento que as pessoas já estão engajadas online.
- A OpenAI não forneceu explicações detalhadas sobre como o conteúdo maduro será gerenciado.
A OpenAI está preparando para introduzir um recurso focado em adultos para o ChatGPT que permitiria aos usuários gerar conteúdo erótico. Especialistas alertam que a nova capacidade poderia transformar conversas íntimas em uma forma de vigilância, pois o modelo registra preferências e retém dados por até 30 dias.
Contexto
A OpenAI sinalizou sua intenção de permitir que usuários adultos criem material erótico com o ChatGPT. O plano, primeiro insinuado dois anos atrás, ainda está em desenvolvimento, com prazos descritos como incertos. O conselho consultivo da empresa, composto por especialistas externos, expressou preocupações sobre os riscos potenciais, incluindo a possibilidade de um "coach de suicídio sexy". A OpenAI não forneceu comentários quando abordada para esclarecimentos.
Funcionamento do Recurso
O modo adulto futuro se basearia nas características de memória existentes do ChatGPT, que registram as preferências dos usuários para fornecer respostas personalizadas. Por exemplo, o modelo pode lembrar hábitos alimentares ou informações de localização para adaptar sugestões. No contexto adulto, essa memória poderia se estender a preferências sexuais, fantasias e fetiches específicos, permitindo que a IA gere conteúdo erótico altamente personalizado.
Riscos de Privacidade e Retenção de Dados
Especialistas alertam que transformar conversas sexuais privadas em pontos de dados cria uma nova camada de vigilância íntima. O site da OpenAI observa que "conversas temporárias" não aparecerão no histórico de logs do usuário ou serão usadas para melhorar o modelo, mas a empresa afirma que pode reter uma cópia por até 30 dias por motivos de segurança. Uma declaração também menciona que a retenção de dados pode ser afetada por desenvolvimentos legais recentes.
Incidentes passados mostraram que os dados do ChatGPT podem ser expostos. Em 2023, um bug exibiu títulos de alguns históricos de conversas de usuários, e mais tarde naquele ano, conversas foram indexadas involuntariamente pelo Google Search, tornando-as publicamente pesquisáveis. Esses exemplos ilustram a vulnerabilidade potencial de conteúdo altamente sensível se fosse registrado ou vazado.
Opiniões de Especialistas
A especialista em interação humano-IA Julie Carpenter enfatiza que os usuários podem sentir um falso senso de privacidade ao compartilhar pensamentos íntimos com o modelo. Ela alerta que os dados podem ser vulneráveis a hacks, violações de segurança ou solicitações legais, expostos as fantasias sexuais dos usuários de maneiras que nunca imaginaram.
Posição da OpenAI
A OpenAI indica que as conversas temporárias são destinadas a dar aos usuários um senso de efemeridade, mas reconhece que cópias podem ser mantidas por motivos de segurança e conformidade legal. A empresa não detalhou como lidará com conversas maduras além dessas declarações.
Implicações
A introdução de um modo adulto em uma plataforma de IA amplamente utilizada levanta questões sobre a segurança do usuário, a segurança dos dados e as responsabilidades éticas das empresas de tecnologia. À medida que a IA se torna mais capaz de imitar interações sociais, a linha entre expressão privada e coleta de dados se torna cada vez mais tênue, levando a pedidos de salvaguardas e transparência mais claras.