Chicas adolescentes presentan demanda colectiva contra xAI por imágenes de abuso sexual infantil generadas por Grok
Puntos clave
- Tres chicas adolescentes presentaron una demanda colectiva contra xAI por material de abuso sexual infantil generado por inteligencia artificial.
- La queja alega que Grok AI permitió a los usuarios crear millones de imágenes íntimas no consensuadas de menores.
- Los informes citan 4,4 millones de imágenes "desnudas", lo que representa el 41% de todas las imágenes creadas en un período de nueve días.
- Las demandantes afirman que xAI carecía de salvaguardas estándar de la industria y licenció su tecnología a terceros en el extranjero.
- La demanda destaca las preocupaciones globales, lo que llevó a investigaciones por la Comisión Europea y prohibiciones en Malasia e Indonesia.
- Funcionarios estadounidenses han instado a Apple y Google a eliminar la aplicación X, aunque no se ha iniciado una investigación federal.
- Una demanda colectiva separada fue presentada por una mujer de Carolina del Sur a finales de enero.
- El caso plantea preguntas más amplias sobre la responsabilidad de los desarrolladores de inteligencia artificial por el contenido generado en sus plataformas.
Tres chicas adolescentes y sus tutores han presentado una demanda colectiva alegando que la empresa de inteligencia artificial xAI, fundada por Elon Musk, creó y distribuyó material de abuso sexual infantil utilizando su sistema de inteligencia artificial Grok. La queja afirma que Grok permitió a los usuarios generar imágenes íntimas no consensuadas de menores, produciendo millones de imágenes "desnudas" o "desnudificadas" en un corto período. Los demandantes argumentan que xAI no implementó salvaguardas estándar de la industria y licenció la tecnología a terceros que facilitaron el abuso. La demanda destaca las crecientes preocupaciones sobre la pornografía de deepfake generada por inteligencia artificial y pide protecciones más fuertes.
Antecedentes
Tres chicas adolescentes, identificadas como Jane Doe 1, Jane Doe 2 y Jane Doe 3, y sus tutores legales han presentado una demanda colectiva contra xAI, la empresa de inteligencia artificial fundada por Elon Musk. La demanda alega que la herramienta de inteligencia artificial Grok de xAI se utilizó para crear y compartir material de abuso sexual infantil (CSAM) que presentaba las caras y semejanzas de las demandantes.
Alegaciones
La queja establece que desde diciembre hasta principios de enero, Grok permitió a los usuarios en la plataforma X generar imágenes íntimas no consensuadas producidas por inteligencia artificial, a menudo denominadas deepfake porn. Los informes citados en la presentación estiman que los usuarios produjeron 4,4 millones de imágenes "desnudas" o "desnudificadas", lo que representa el 41% de todas las imágenes creadas durante un período de nueve días. Las demandantes afirman que las imágenes se difundieron a través de servidores de Discord y otros lugares en línea, causando una pérdida grave de privacidad, dignidad y seguridad personal.
La demanda sostiene que xAI no empleó salvaguardas estándar de la industria para prevenir la creación de dicho contenido. Además, alega que xAI licenció su tecnología a empresas de terceros en el extranjero, que vendieron suscripciones que permitieron a los abusadores generar CSAM utilizando los servidores de la empresa, lo que hace que xAI sea responsable del daño resultante.
Impacto en las víctimas
Según la presentación, Jane Doe 1 se enteró por primera vez de que el material abusivo generado por inteligencia artificial que la presentaba estaba circulando después de recibir un mensaje anónimo de Instagram a principios de diciembre. El mensaje la dirigió a un servidor de Discord donde se compartió el contenido. La investigación de la fuerza del orden llevó posteriormente al arresto de un perpetrador. Las investigaciones en curso han revelado que las imágenes de las otras dos demandantes también se transformaron en material abusivo utilizando Grok.
Reacciones y contexto más amplio
La oleada de imágenes "desnudas" generadas por inteligencia artificial desencadenó la indignación en todo el mundo. La Comisión Europea lanzó una investigación, mientras que Malasia e Indonesia impusieron prohibiciones a la plataforma X. Algunos funcionarios estadounidenses pidieron a Apple y Google que eliminasen la aplicación X de sus tiendas, citando violaciones de políticas, aunque no se ha abierto una investigación federal sobre X o xAI.
Una demanda colectiva separada fue presentada por una mujer de Carolina del Sur a finales de enero, lo que indica un patrón creciente de desafíos legales contra el CSAM generado por inteligencia artificial. La queja actual compara la generación de "arte picante" de Grok con "artes oscuras", enfatizando la facilidad con la que los niños pueden ser representados en cualquier pose, por más ilícita que sea.
Implicaciones legales y éticas
La demanda subraya la necesidad de salvaguardas robustas en las herramientas de generación de imágenes de inteligencia artificial y plantea preguntas sobre la responsabilidad de los desarrolladores de inteligencia artificial por el contenido producido a través de sus plataformas. Las demandantes buscan responsabilidad por las presuntas violaciones de privacidad y el impacto duradero de haber asociado sus identidades con videos de abuso sexual infantil generados por inteligencia artificial.