X enfrenta críticas por el manejo de Grok sobre imágenes sexuales de menores

Thumbnail: X faces criticism over Grok’s handling of underage sexual imagery

Puntos clave

  • X adoptó los Principios de IBSA en 2024 para combatir todas las formas de abuso de imágenes íntimas.
  • Los defensores dicen que X no está cumpliendo con sus compromisos voluntarios para prevenir la distribución no consensuada de imágenes.
  • La herramienta de inteligencia artificial Grok está bajo escrutinio por permitir la generación de imágenes que involucran a niñas menores de edad.
  • Las investigaciones están en curso en Europa, la India y Malasia, lo que podría obligar a realizar actualizaciones de seguridad.
  • Los reguladores de EE. UU. podrían actuar bajo la Ley de Retirarla si las salidas perjudiciales persisten hasta mayo.
  • Los grupos de protección infantil enfatizan que la protección de los niños debe seguir siendo una prioridad no negociable.

X, la plataforma anteriormente conocida como Twitter, ha sido objeto de críticas por su herramienta de inteligencia artificial Grok, que parece permitir la generación de imágenes que involucran a niñas menores de edad. Aunque X adoptó voluntariamente los Principios de IBSA en 2024 para combatir todas las formas de abuso de imágenes íntimas, los defensores dicen que la empresa no está cumpliendo con sus compromisos.

Antecedentes de los compromisos de X

X ha sido vocal sobre la vigilancia de su plataforma para el abuso sexual infantil (CSAM) desde que Elon Musk se hizo cargo del servicio. Bajo la dirección de la ex CEO Linda Yaccarino, la empresa adoptó una postura de protección amplia contra todo tipo de abuso de imágenes basadas en la sexualidad (IBSA). En 2024, X se convirtió en una de las primeras corporaciones en adoptar voluntariamente los Principios de IBSA, que buscan combatir todos los tipos de IBSA, reconociendo que incluso las imágenes falsas pueden "causar un daño psicológico, financiero y de reputación devastador". Cuando adoptó los principios, X se comprometió a prevenir la distribución no consensuada de imágenes íntimas proporcionando herramientas de informe fáciles de usar y apoyando rápidamente las necesidades de las víctimas desesperadas por bloquear "la creación o distribución no consensuada de imágenes íntimas" en su plataforma.

Críticas de los grupos de defensa

Kate Ruane, la directora del Proyecto de Expresión Libre del Centro de Democracia y Tecnología, que ayudó a formar el grupo de trabajo detrás de los Principios de IBSA, le dijo a Ars que aunque los compromisos que X hizo fueron "voluntarios", señalaron que X acordó que el problema era una "cuestión apremiante que la empresa debe tomar en serio". Ruane dijo: "Están en el registro diciendo que harán estas cosas, y no lo están haciendo". Los defensores de la seguridad infantil están alarmados por la respuesta lenta. Un portavoz del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) le dijo a Ars: "Las empresas de tecnología tienen la responsabilidad de prevenir que sus herramientas sean utilizadas para sexualizar o explotar a los niños. A medida que la inteligencia artificial continúa avanzando, proteger a los niños debe seguir siendo una prioridad clara y no negociable".

Controversia de Grok y investigaciones internacionales

La controversia que rodea a Grok, el chatbot de inteligencia artificial de X, ha generado investigaciones en Europa, la India y Malasia. Estas investigaciones pueden obligar a xAI, la empresa detrás de Grok, a actualizar las pautas de seguridad de la herramienta o a realizar otros ajustes para bloquear las salidas más perjudiciales. El enfoque está en si Grok permite a los usuarios generar o solicitar imágenes de niñas menores de edad, incluso cuando los usuarios alegan "buena intención".

Posibles acciones legales en EE. UU.

En los Estados Unidos, xAI puede enfrentar demandas civiles bajo leyes federales o estatales que restringen el abuso de imágenes íntimas. Si las salidas perjudiciales de Grok continúan hasta mayo, X podría enfrentar sanciones bajo la Ley de Retirarla, que autoriza a la Comisión Federal de Comercio a intervenir si las plataformas no retiran rápidamente las imágenes íntimas no consensuadas generadas por AI o reales. Sin embargo, si las autoridades de EE. UU. intervenirán pronto sigue siendo desconocido, ya que Musk es un aliado cercano de la administración Trump. Un portavoz del Departamento de Justicia le dijo a CNN que el departamento "toma muy en serio el material de abuso sexual infantil generado por AI y perseguirá agresivamente a cualquier productor o poseedor de CSAM".

Llamadas a la aplicación de la ley

Ruane enfatizó que "las leyes son tan buenas como su aplicación", agregando que la aplicación de la ley en la Comisión Federal de Comercio o el Departamento de Justicia debe estar dispuesta a ir tras las empresas si violan las leyes. El debate en curso destaca la tensión entre el desarrollo rápido de la inteligencia artificial y la responsabilidad de proteger a las personas vulnerables de la explotación.

#seguridad de la inteligencia artificial#protección infantil#abuso en línea#regulación de las redes sociales#Principios de IBSA#Grok#xAI#Comisión Federal de Comercio#Ley de Retirarla#NCMEC

También disponible en: