Inicio de sesión de base de datos de startup de generador de imágenes de IA expone millones de imágenes desnudas no consensuadas

Huge Trove of Nude Images Leaked by AI Image Generator Startup’s Exposed Database

Puntos clave

  • El investigador de seguridad Jeremiah Fowler encontró un depósito de almacenamiento en la nube mal configurado que expuso más de un millón de imágenes y videos generados por IA.
  • La mayoría del contenido era explícito, incluyendo "desnudificaciones" no consensuadas y imágenes generadas por IA de menores.
  • DreamX, el operador de MagicEdit y DreamPal, cerró el acceso público, suspendió sus productos y inició una investigación interna.
  • Las marcas relacionadas BoostInsider y SocialBook se aclararon como entidades separadas que no son responsables del almacenamiento expuesto.
  • Se retiraron las aplicaciones MagicEdit y DreamPal de la Apple App Store y Google Play debido a violaciones de políticas.
  • El incidente destaca los desafíos persistentes en la moderación de contenido sexual generado por IA y la protección de los niños en línea.
  • Los grupos de defensa advierten que el crecimiento rápido de las startups de IA a menudo supera las salvaguardias de confianza y seguridad.

Un fallo de seguridad dejó el almacenamiento en la nube de una startup de generación de imágenes de IA públicamente accesible, revelando más de un millón de imágenes y videos, la mayoría de ellos explícitos y muchos con sujetos no consensuados o menores de edad. La brecha involucró a las empresas MagicEdit, DreamPal y su entidad matriz DreamX, así como a las marcas relacionadas BoostInsider y SocialBook.

Antecedentes

El investigador de seguridad Jeremiah Fowler descubrió que un depósito de almacenamiento en la nube utilizado por una startup de generación de imágenes de IA estaba mal configurado, lo que permitió a cualquiera en Internet acceder a su contenido. El depósito albergaba activos para los servicios de cara al consumidor de la empresa, MagicEdit y DreamPal, que operan bajo la marca DreamX. La investigación de Fowler, informada por primera vez en el blog de ExpressVPN, reveló la magnitud de la exposición y provocó un contacto inmediato con la empresa.

Alcance de la exposición

El depósito públicamente accesible contenía 1.099.985 registros, la mayoría de los cuales eran imágenes o videos pornográficos. La colección incluía "desnudificaciones" de personas reales, contenido con cambio de cara y representaciones generadas por IA de menores. Fowler señaló que en el momento del descubrimiento, alrededor de 10.000 nuevas imágenes se agregaban cada día, lo que indica una línea de generación de contenido activa. El conjunto de datos abarcaba una variedad de estilos, desde gráficos de estilo anime hasta representaciones hiperrealistas que parecían basadas en personas reales.

Respuestas de la empresa

Después de ser contactada, DreamX confirmó que había cerrado el acceso público al depósito y había iniciado una investigación interna con asesoramiento legal externo. La empresa también suspendió el acceso a sus productos en espera del resultado de la investigación. Las declaraciones de DreamX enfatizaron un compromiso con la seguridad del usuario, el cumplimiento legal y la transparencia, y destacaron las salvaguardias de moderación existentes, como la API de moderación de OpenAI y el filtrado automático de solicitudes.

Las entidades relacionadas también fueron abordadas. Un portavoz de SocialBook, una firma de marketing de influencia vinculada al depósito, aclaró que SocialBook no opera ni administra el almacenamiento expuesto y es una entidad legal separada. BoostInsider, el desarrollador enumerado para las aplicaciones MagicEdit y DreamPal en la Apple App Store, se describió como una entidad inactiva cuyas aplicaciones se eliminaron como parte de una reestructuración más amplia y para fortalecer los marcos de moderación de contenido.

Se retiraron tanto MagicEdit como DreamPal de las tiendas de aplicaciones principales. Google confirmó que las aplicaciones se eliminaron por violaciones de políticas relacionadas con contenido explícito sexual, mientras que Apple indicó que las aplicaciones se habían retirado de su tienda.

Implicaciones para la industria

La brecha subraya los riesgos persistentes asociados con la generación de imágenes impulsada por IA, particularmente la creación y distribución de imágenes sexuales no consensuadas y material de abuso sexual infantil (CSAM). Grupos de defensa como el fundador de EndTAB, Adam Dodge, advirtieron que el incidente refleja un patrón más amplio de startups que priorizan el crecimiento rápido sobre medidas de confianza y seguridad robustas. Los hallazgos de Fowler se suman a informes anteriores sobre bases de datos de imágenes de IA mal configuradas que contenían contenido abusivo similar.

Se notificó a las fuerzas del orden y a las organizaciones de protección infantil, incluido el Centro Nacional para Menores Desaparecidos y Explotados, aunque no divulgan detalles de pistas específicas recibidas. El episodio ha provocado llamadas renovadas a una supervisión más estricta, moderación de contenido obligatoria y mecanismos de rendición de cuentas más claros para las empresas que despliegan tecnologías de IA generativas.

#DreamX#MagicEdit#DreamPal#BoostInsider#SocialBook#Jeremiah Fowler#generación de imágenes de IA#violación de datos#imágenes no consensuadas#material de abuso sexual infantil#seguridad de IA

También disponible en: