Ferramentas de IA Impulsionam Fraude Estudantil, Desencadeando Chamados por Responsabilidade Corporativa

Tech companies don’t care that students use their AI agents to cheat

Pontos principais

  • Agentes de IA da OpenAI, Perplexity, Google e Instructure podem completar quizzes, redações e tarefas para estudantes.
  • Educativos relatam que essas ferramentas enviam trabalhos rapidamente e evadem métodos de detecção tradicionais.
  • A OpenAI oferece um modo de estudo e enfatiza a IA como uma ajuda ao aprendizado em vez de uma máquina de respostas.
  • A Perplexity reconhece que ferramentas de aprendizado historicamente foram reutilizadas para fraude.
  • O Google defende seu atalho do Chrome para Lens como um teste de uma funcionalidade de busca visual, não como uma funcionalidade de fraude.
  • A Instructure admite que não pode bloquear completamente agentes de IA executados localmente e cita desafios tanto técnicos quanto filosóficos.
  • As plataformas atendem dezenas de milhões de usuários, incluindo escolas da Ivy League e uma grande porção dos distritos K–12 dos EUA.
  • Educativos e grupos acadêmicos estão pedindo diretrizes colaborativas para garantir o uso responsável de IA em salas de aula.

Educativos alertam que agentes de IA de empresas como OpenAI, Perplexity, Google e Instructure estão sendo usados para completar tarefas, quizzes e redações para estudantes. Embora as empresas apontem para o potencial educacional de seus produtos, elas também reconhecem a dificuldade de bloquear ferramentas executadas localmente. Escolas relatam que agentes de IA podem enviar trabalhos rapidamente e evadir a detecção, levantando preocupações sobre a integridade acadêmica. Stakeholders estão pedindo uma abordagem colaborativa para definir o uso responsável de IA em salas de aula, mas soluções práticas permanecem limitadas.

Agentes de IA Entram na Sala de Aula

Agentes de IA impulsionados por várias empresas de tecnologia estão cada vez mais capazes de realizar tarefas acadêmicas em nome dos estudantes. Demonstrações mostram o agente ChatGPT da OpenAI gerando e enviando redações em plataformas de aprendizado como Canvas, enquanto o assistente de IA da Perplexity completou quizzes e produziu pequenas redações. Educadores descrevem essas ferramentas como "extremamente difíceis de identificar" porque elas podem alterar seus padrões de comportamento, tornando difícil para as instituições detectar fraude.

Perspectivas das Empresas

A OpenAI introduziu um "modo de estudo" que retém respostas diretas, e seu vice-presidente de educação enfatiza que a IA deve melhorar o aprendizado em vez de servir como uma "máquina de respostas". A liderança da Perplexity reconhece que ferramentas de aprendizado historicamente foram reutilizadas para fraude, notando que "os trapaceiros na escola ultimately apenas se enganam". O Google defende seu atalho do Chrome para Lens como um teste de uma funcionalidade de busca visual, afirmando que os estudantes valorizam ferramentas que os ajudam a aprender visualmente. A Instructure, fabricante do Canvas, admite que não pode bloquear completamente agentes de IA externos ou ferramentas executadas localmente em um dispositivo de estudante, descrevendo a questão como parcialmente tecnológica e parcialmente filosófica.

Desafios Institucionais

Instrutores relataram que agentes de IA enviaram tarefas em segundos, uma velocidade que os métodos de detecção tradicionais lutam para igualar. Esforços para bloquear esse comportamento foram dificultados pela capacidade dos agentes de se adaptar. Um porta-voz da Instructure explicou que a empresa não pode "completamente proibir agentes de IA" e que as guardas existentes apenas verificam certos acessos de terceiros. A plataforma atende "dezenas de milhões de usuários", incluindo "todas as escolas da Ivy League" e "40% dos distritos K–12 dos EUA", ampliando o impacto de qualquer mau uso.

Chamados por Soluções Colaborativas

Educadores e grupos de políticas estão pedindo que os desenvolvedores de IA assumam a responsabilidade por como suas ferramentas são usadas na educação. A força-tarefa de IA da Modern Language Association, que inclui educadores como Anna Mills, pediu mecanismos que deem aos professores controle sobre o uso de agentes de IA em salas de aula. Tanto a OpenAI quanto a Instructure enfatizaram a necessidade de um "esforço colaborativo" entre empresas de IA, instituições educacionais, professores e estudantes para definir o uso responsável de IA. No entanto, salvaguardas técnicas concretas permanecem limitadas, deixando a carga da aplicação principalmente nos professores.

#IA#OpenAI#Perplexity#Google#Instructure#educação#fraude#estudantes#agentes de IA#integridade acadêmica

Também disponível em: