Herramientas de IA impulsan el fraude estudiantil, lo que genera llamados a la responsabilidad corporativa

Puntos clave
- Los agentes de IA de OpenAI, Perplexity, Google y Instructure pueden completar quizzes, ensayos y tareas para los estudiantes.
- Los educadores informan que estas herramientas presentan trabajos rápidamente y evaden los métodos de detección tradicionales.
- OpenAI ofrece un modo de estudio y enfatiza la IA como una ayuda para el aprendizaje en lugar de una máquina de respuestas.
- Perplexity reconoce que las herramientas de aprendizaje han sido históricamente reutilizadas para el fraude.
- Google defiende su acceso directo de Chrome a Lens como una prueba de una función de búsqueda visual, no como una función de fraude.
- Instructure admite que no puede bloquear completamente los agentes de IA que se ejecutan localmente y cita desafíos tanto técnicos como filosóficos.
- Las plataformas sirven a decenas de millones de usuarios, incluyendo escuelas de la Ivy League y una gran parte de los distritos K-12 de EE. UU.
- Los educadores y los grupos académicos están pidiendo pautas colaborativas para asegurar el uso responsable de la IA en las aulas.
Los educadores advierten que los agentes de IA de empresas como OpenAI, Perplexity, Google y Instructure se utilizan para completar tareas, quizzes y ensayos para los estudiantes. Si bien las empresas resaltan el potencial educativo de sus productos, también reconocen la dificultad de bloquear herramientas ejecutadas localmente. Las escuelas informan que los agentes de IA pueden presentar trabajos rápidamente y evadir la detección, lo que genera preocupaciones sobre la integridad académica. Los interesados urgen un enfoque colaborativo para definir el uso responsable de la IA en las aulas, pero las soluciones prácticas siguen siendo limitadas.
Agentes de IA entran en el aula
Los agentes de IA impulsados por varias empresas de tecnología son cada vez más capaces de realizar tareas académicas en nombre de los estudiantes. Las demostraciones muestran al agente ChatGPT de OpenAI generando y presentando ensayos en plataformas de aprendizaje como Canvas, mientras que el asistente de IA de Perplexity ha completado quizzes y producido ensayos cortos. Los educadores describen estas herramientas como "extremadamente elusivas para identificar" porque pueden alterar sus patrones de comportamiento, lo que hace que sea difícil para las instituciones detectar el fraude.
Perspectivas de las empresas
OpenAI ha introducido un "modo de estudio" que retiene las respuestas directas, y su vicepresidente de educación enfatiza que la IA debería mejorar el aprendizaje en lugar de servir como una "máquina de respuestas". El liderazgo de Perplexity reconoce que las herramientas de aprendizaje han sido históricamente reutilizadas para el fraude, señalando que "los tramposos en la escuela ultimately solo se engañan a sí mismos". Google defiende su acceso directo de Chrome a Lens como una prueba de una función de búsqueda visual, afirmando que los estudiantes valoran las herramientas que les ayudan a aprender visualmente. Instructure, el fabricante de Canvas, admite que no puede bloquear completamente los agentes de IA externos o las herramientas que se ejecutan localmente en el dispositivo de un estudiante, describiendo el problema como parcialmente tecnológico y parcialmente filosófico.
Desafíos institucionales
Los instructores han informado que los agentes de IA presentan tareas en cuestión de segundos, una velocidad que los métodos de detección tradicionales luchan por igualar. Los esfuerzos por bloquear este comportamiento han sido obstaculizados por la capacidad de los agentes para adaptarse. El portavoz de Instructure explicó que la empresa no puede "prohibir completamente los agentes de IA" y que los guardrails existentes solo verifican cierto acceso de terceros. La plataforma sirve a "decenas de millones de usuarios", incluyendo "cada escuela de la Ivy League" y "el 40% de los distritos K-12 de EE. UU.", lo que amplifica el impacto de cualquier uso indebido.
Llamados a soluciones colaborativas
Los educadores y los grupos de políticas están instando a los desarrolladores de IA a asumir la responsabilidad de cómo se utilizan sus herramientas en la educación. La fuerza task de IA de la Asociación de Lengua Moderna, que incluye educadores como Anna Mills, ha pedido mecanismos que den a los maestros el control sobre el uso de los agentes de IA en las aulas. Tanto OpenAI como Instructure han enfatizado la necesidad de un "esfuerzo colaborativo" entre las empresas de IA, las instituciones educativas, los maestros y los estudiantes para definir el uso responsable de la IA. Sin embargo, las salvaguardas técnicas concretas siguen siendo limitadas, lo que deja la carga de la aplicación principalmente en los maestros.