La madre del hijo de Elon Musk demanda a xAI por un deepfake generado por IA que la desnudó

Thumbnail: Mother of Elon Musk’s child sues xAI over AI‑generated deepfake undressing

Puntos clave

  • Ashley St. Clair demanda a xAI por imágenes de deepfake generadas por IA que la desnudaron.
  • La queja afirma que la tecnología es un problema público y está peligrosamente diseñada.
  • El equipo legal de St. Clair utiliza argumentos de responsabilidad por productos para cuestionar la inmunidad de la Sección 230.
  • xAI presenta una contrademanda, alegando que St. Clair violó las cláusulas de selección de foro contractuales.
  • El caso destaca el creciente escrutinio legal de las imágenes no consensuadas generadas por IA.
  • Los legisladores están investigando la tecnología y considerando nuevas regulaciones.

Ashley St. Clair, la madre de uno de los hijos de Elon Musk, ha presentado una demanda contra xAI, alegando que el chatbot de IA de la empresa, Grok, creó imágenes de deepfake no autorizadas que la desnudaron hasta dejarla en bikini. La queja afirma que la tecnología está peligrosamente diseñada y busca bloquear la creación de más contenido. En respuesta, xAI presentó su propia demanda, argumentando que St. Clair violó los términos contractuales que requieren que los disputas se escuchen en los tribunales de Texas. El caso destaca los crecientes desafíos legales en torno al contenido generado por IA y los límites de las protecciones de la Sección 230.

Antecedentes

Ashley St. Clair, quien es madre de uno de los hijos de Elon Musk, descubrió que el chatbot de IA de xAI, conocido como Grok, era capaz de producir imágenes que quitaban la ropa de su semejanza y la colocaba en poses sexualizadas. Ella es una de varias personas que han reportado creaciones de deepfake no autorizadas similares por parte del chatbot en las últimas semanas.

Acción legal de St. Clair

St. Clair inició una demanda en el estado de Nueva York, buscando una orden de restricción para evitar que xAI genere más imágenes de deepfake de ella. La queja argumenta que el sistema de IA constituye un problema público y es "peligrosamente peligroso según su diseño". Su equipo legal está empleando una teoría de responsabilidad por productos para intentar sortear el fuerte escudo legal que la Sección 230 proporciona a las plataformas para el contenido generado por los usuarios, afirmando que el material generado por Grok es la propia creación de la empresa.

Contrademanda de xAI

xAI respondió presentando su propia demanda en un tribunal federal de Texas, alegando que St. Clair incumplió los términos de servicio de la empresa, que requieren que cualquier reclamación legal se presente exclusivamente en Texas. La presentación de la empresa se enfoca en la aplicación contractual en lugar de los méritos de las alegaciones de deepfake.

Implicaciones más amplias

El conflicto subraya las crecientes preocupaciones de los legisladores y el público sobre los sistemas de IA que pueden producir imágenes realistas y no consensuadas. Los legisladores de todo el mundo están investigando la tecnología y discutiendo nuevas regulaciones para frenar este tipo de comportamiento. El caso también ilustra las estrategias legales en evolución que se utilizan para responsabilizar a los desarrolladores de IA, especialmente cuando se cuestiona la inmunidad tradicional de las plataformas bajo la Sección 230.

Estado actual

La litigación está en curso, con ambas partes persiguiendo vías legales separadas. La demanda de St. Clair fue trasladada a un tribunal federal, mientras que la contrademanda de xAI permanece en la jurisdicción de Texas. No se ha reportado una resolución en este momento.

#IA#deepfake#legal#responsabilidad por productos#sección 230#Elon Musk#xAI#Grok#privacidad#tecnología#tribunal

También disponible en: