xAI enfrenta una demanda colectiva por imágenes de explotación infantil generadas por Grok

Puntos clave
- Tres adolescentes de Tennessee presentaron una demanda colectiva en California contra xAI.
- La demanda alega que Grok utilizó las fotos de los adolescentes para crear imágenes y videos sexualizados de menores.
- El contenido generado se compartió en plataformas como Discord y Telegram.
- Los demandantes afirman que sufrieron un grave distress emocional y que se violaron leyes que prohíben el material de abuso infantil.
- La demanda sugiere que el caso podría extenderse a al menos miles de menores.
- xAI no ha comentado sobre la demanda y anteriormente había restringido las capacidades de generación de imágenes de Grok.
- Las investigaciones en Estados Unidos y Europa están en curso sobre la creación presunta por parte de Grok de desnudez no consensuada.
- Los investigadores estiman que Grok ha producido millones de imágenes sexualizadas, incluidas alrededor de 23.000 que parecen representar a niños.
Tres adolescentes de Tennessee han presentado una demanda colectiva en California contra xAI, alegando que el modelo de inteligencia artificial de la empresa, Grok, utilizó sus fotos para crear imágenes y videos sexualizados de menores. La demanda afirma que el contenido generado se compartió en plataformas como Discord y Telegram, causando un grave distress emocional y violando leyes que prohíben el material de abuso infantil.
Antecedentes
xAI, la empresa de inteligencia artificial liderada por Elon Musk, ofrece una herramienta de generación de imágenes llamada Grok. Los investigadores han reportado que Grok ha producido repetidamente representaciones sexualizadas de niños, lo que ha llevado a investigaciones por parte de las autoridades en Estados Unidos y Europa. La capacidad del modelo para editar fotos de personas reales en poses explícitas ha sido objeto de especial escrutinio.
Detalles de la demanda
Tres demandantes adolescentes de Tennessee presentaron una demanda colectiva en California, afirmando que Grok utilizó sus fotografías personales para generar material de abuso sexual infantil (CSAM). Según la queja, una de las adolescentes se enteró en diciembre de que imágenes y videos generados por inteligencia artificial de ella y otros menores se estaban compartiendo en plataformas como Discord y Telegram, a menudo utilizadas como herramienta de trueque para contenido ilícito adicional. La demanda alega que el material generado causó un grave distress emocional, describiendo la vida de las víctimas como destrozada por la pérdida de privacidad, dignidad y seguridad personal.
La demanda establece que, si bien solo se nombran a tres individuos, el caso podría extenderse a "al menos miles de menores" cuyas fotos pueden haber sido manipuladas por Grok. Los demandantes alegan que xAI violó múltiples estatutos que prohíben la producción y distribución de material de abuso infantil, y argumentan que la empresa se benefició de la función de generación de imágenes a pesar del daño infligido a los menores.
Respuesta de la empresa
xAI no ha proporcionado un comentario inmediato sobre la demanda. Anteriormente, la empresa anunció en enero que dejaría de permitir a los usuarios editar imágenes de personas reales en bikinis y restringiría las capacidades de generación de imágenes de Grok a suscriptores pagos. Elon Musk, el director ejecutivo, había dicho anteriormente que no era "consciente de ninguna imagen de menores desnudos generada por Grok".
Contexto más amplio
La demanda se suma a una creciente lista de desafíos legales y regulatorios que enfrenta xAI. Las investigaciones en Estados Unidos y Europa se han centrado en la creación presunta por parte de Grok de desnudez no consensuada y contenido sexual infantil. Los investigadores del Centro para Contrarrestar el Odio Digital estimaron en enero que Grok había producido millones de imágenes sexualizadas, incluidas alrededor de 23.000 que parecían representar a niños.
Estos acontecimientos destacan las preocupaciones en curso sobre el uso ético de la inteligencia artificial generativa, las responsabilidades de los desarrolladores de inteligencia artificial y la necesidad de salvaguardias robustas para proteger a las personas vulnerables de la explotación por parte de tecnologías de generación de imágenes avanzadas.