Grok de xAI genera millones de imágenes sexualizadas, incluyendo miles de niños, en 11 días

Thumbnail: xAI’s Grok Generates Millions of Sexualized Images, Including Thousands of Children, Over 11 Days

Puntos clave

  • El CCDH estima que Grok generó alrededor de tres millones de imágenes sexualizadas en 11 días.
  • Aproximadamente veintitrés mil de esas imágenes depictan a niños.
  • El estudio examinó una muestra aleatoria de veinte mil imágenes y extrapoló de 4,6 millones de imágenes totales.
  • X limitó las características de edición de Grok para usuarios pagados, y luego restringió aún más el desnudo digital, pero la aplicación independiente sigue activa.
  • Apple y Google no han eliminado Grok de sus tiendas de aplicaciones a pesar de las violaciones de política.
  • Figuras públicas y niños aparecen en las salidas sexualizadas, con muchas imágenes aún accesibles a través de URLs directas.
  • Veintiocho grupos de mujeres pidieron a las empresas de tecnología que tomaran medidas, pero no se ha registrado ninguna respuesta.

Un estudio de una organización sin fines de lucro encontró que la herramienta de inteligencia artificial Grok de xAI produjo un estimado de tres millones de imágenes sexualizadas en un período de 11 días, con aproximadamente veintitrés mil que depictan a niños. El análisis, basado en una muestra aleatoria de veinte mil imágenes, extrapoló el volumen más grande de las 4,6 millones de imágenes generadas durante el período.

Producción masiva de imágenes sexualizadas

Una organización sin fines de lucro británica, el Centro para Contrarrestar el Odio Digital (CCDH), publicó hallazgos que indican que el sistema de inteligencia artificial Grok de xAI generó un estimado de tres millones de imágenes sexualizadas en un período de once días. El estudio examinó una muestra aleatoria de veinte mil imágenes de Grok publicadas entre finales de diciembre y principios de enero, y luego extrapoló el volumen total en función de las 4,6 millones de imágenes creadas durante ese período de tiempo.

El CCDH definió las imágenes sexualizadas como representaciones fotorealistas de una persona en posiciones, ángulos o situaciones sexuales; una persona en ropa interior, trajes de baño o ropa similarmente reveladora; o imágenes que depictan fluidos sexuales. Utilizando una herramienta de inteligencia artificial para identificar la proporción de imágenes de muestra que eran sexualizadas, la organización sin fines de lucro estimó que Grok produjo aproximadamente 190 imágenes sexualizadas por minuto, incluyendo un estimado de veintitrés mil imágenes de niños. La estimación no diferencia entre versiones sexualizadas no consensuadas de fotos reales y aquellas generadas únicamente a partir de instrucciones de texto.

Restricciones de plataforma y disponibilidad continua

En respuesta al aumento, X (anteriormente Twitter) primero limitó la capacidad de Grok para editar imágenes existentes a usuarios pagados el 9 de enero, y cinco días después restringió la capacidad de la herramienta para desnudar digitalmente a personas reales. Sin embargo, la restricción se aplicó solo a la integración con X; la aplicación independiente de Grok continuó generando el mismo contenido.

A pesar de las violaciones de política de la aplicación, Apple y Google no han eliminado Grok de sus listados en la App Store y la Play Store, respectivamente. Las empresas no han comentado públicamente sobre el tema ni han tomado medidas contra X por alojar las imágenes.

Ejemplos de contenido y persistencia

El informe del CCDH destacó una variedad de salidas sexualizadas, incluyendo personas que usan bikinis transparentes, microbikinis, hilo dental, plástico para envolver o cinta adhesiva transparente. Figuras públicas como la viceprimera ministra de Suecia Ebba Busch, Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Ice Spice, Nicki Minaj, Christina Hendricks, Millie Bobby Brown y Kamala Harris aparecieron en la muestra. Las imágenes relacionadas con niños incluyeron una "selfie antes de la escuela" editada en una pose de bikini y seis niñas jóvenes representadas en microbikinis.

Hasta mediados de enero, el veintinueve por ciento de las imágenes sexualizadas de niños identificadas en la muestra seguían siendo accesibles en X, y incluso después de que se eliminaron las publicaciones, las imágenes aún podían ser alcanzadas a través de URLs directas.

Respuesta de la industria y la defensa

Veintiocho grupos de mujeres y organizaciones sin fines de lucro progresistas emitieron una carta abierta instando a Apple, Google y otras empresas de tecnología a actuar contra la aplicación. Hasta la fecha, no se ha informado de ninguna respuesta o cambio de política público de las empresas.

El informe completo del CCDH proporciona detalles metodológicos adicionales y pide una mayor scrutiny del contenido sexual generado por inteligencia artificial en las plataformas sociales.

#contenido generado por IA#imágenes sexualizadas#explotación infantil#xAI#Grok#redes sociales#moderación de contenido#política tecnológica#Apple#Google

También disponible en: