Regulador del Reino Unido lanza investigación sobre X y xAI por imágenes de deepfake no consensuales de Grok

UK Regulator Launches Probe into X and xAI Over Grok’s Non‑Consensual Deepfake Images

Puntos clave

  • La ICO del Reino Unido ha iniciado una investigación formal sobre X y xAI por la creación de imágenes de deepfake no consensuales de Grok.
  • Los investigadores estiman que Grok generó alrededor de tres millones de imágenes sexualizadas en menos de dos semanas, incluyendo decenas de miles que representan menores.
  • La investigación se centra en posibles violaciones del GDPR y la adecuación de las salvaguardas para prevenir el contenido ilegal.
  • Las violaciones podrían llevar a multas de hasta £17.5 millones o el 4% del volumen de negocios global.
  • X y xAI afirman que están implementando salvaguardas más fuertes, aunque los detalles son limitados.
  • Los diputados del Reino Unido están pidiendo legislación sobre inteligencia artificial que exija evaluaciones de riesgo antes del lanzamiento público de herramientas de inteligencia artificial.
  • El caso destaca preocupaciones más amplias sobre la privacidad, el consentimiento y la difusión de contenido explícito generado por la inteligencia artificial.

El organismo de protección de datos del Reino Unido ha iniciado una investigación formal sobre X y su filial xAI después de informes de que el chatbot Grok generó millones de imágenes de deepfake sexualmente explícitas, incluyendo muchas que parecen representar menores. La investigación se centra en posibles violaciones del Reglamento General de Protección de Datos, examinando si las empresas no implementaron salvaguardas adecuadas para prevenir la creación y distribución de deepfakes no consensuales.

Resumen de la investigación

La Oficina del Comisionado de Información del Reino Unido (ICO) ha anunciado una investigación exhaustiva sobre X y su brazo de inteligencia artificial xAI después de alegaciones de que el chatbot Grok produjo imágenes de deepfake no consensuales y sexualmente explícitas. Los investigadores estiman que Grok generó alrededor de tres millones de imágenes sexualizadas en menos de dos semanas, con decenas de miles que parecen representar menores. El director ejecutivo de riesgo regulatorio e innovación de la ICO, William Malcolm, describió los informes como planteando "preguntas profundamente inquietantes" sobre el uso de datos personales para crear imágenes íntimas o sexualizadas sin consentimiento.

Potenciales violaciones del GDPR

La investigación evaluará si X y xAI violaron el Reglamento General de Protección de Datos (GDPR) al permitir la creación y compartición de dichas imágenes. Según el GDPR, las violaciones pueden resultar en multas de hasta £17.5 millones o el 4% del volumen de negocios global de la empresa. La investigación no se limita a las solicitudes generadas por los usuarios; también examina si las empresas no implementaron salvaguardas suficientes para bloquear la generación de contenido ilegal.

Respuesta de la empresa y salvaguardas

X y xAI han declarado que están fortaleciendo las salvaguardas, aunque los detalles siguen siendo limitados. X anunció recientemente nuevas medidas para bloquear ciertos caminos de generación de imágenes y limitar la creación de fotos alteradas que involucran menores. Sin embargo, los reguladores señalan que una vez que el contenido explícito se distribuye en una plataforma tan grande como X, es casi imposible erradicarlo.

Reacción política y legislativa

Los miembros del Parlamento, liderados por Anneliese Dodds del Partido Laborista, están instando al gobierno a introducir legislación sobre inteligencia artificial que requiera a los desarrolladores realizar evaluaciones de riesgo exhaustivas antes de lanzar herramientas al público. El incidente destaca las crecientes preocupaciones sobre la línea borrosa entre el contenido genuino y el fabricado, especialmente a medida que la generación de imágenes de inteligencia artificial se vuelve más común.

Implicaciones más amplias para la privacidad y la seguridad

La investigación subraya un cambio alejándose de la mentalidad de "moverse rápido y romper cosas" que ha dominado gran parte del sector tecnológico. Los reguladores están señalizando una pérdida de paciencia y están presionando para requerir requisitos de seguridad por diseño, una mayor transparencia sobre los datos de entrenamiento de los modelos y guardrails más claros para proteger a las personas de la manipulación generada por la inteligencia artificial.

#privacidad de datos#GDPR#ética de la inteligencia artificial#deepfake#X#xAI#Grok#regulador del Reino Unido#seguridad digital#inteligencia artificial#ley de privacidad

También disponible en: