Sora Agrega Controles de Usuario para Apariencias de Video Generadas por IA

Sora provides better control over videos featuring your AI self

Puntos clave

  • Sora ahora ofrece controles para limitar las apariciones cameo de IA en videos.
  • Los usuarios pueden bloquear contenido político, lenguaje específico o contextos visuales determinados.
  • La personalización incluye elementos visuales opcionales como sombreros específicos.
  • Las actualizaciones son parte de esfuerzos más amplios para estabilizar la plataforma.
  • Los críticos advierten que las herramientas de IA anteriores han sido sorteadas para usos ilícitos.
  • OpenAI está trabajando para mejorar la protección de marca de agua existente.
  • La empresa se compromete a realizar mejoras adicionales en las funciones de control de usuario.

La aplicación Sora de OpenAI, descrita como un "TikTok para deepfakes", ahora permite a los usuarios limitar cómo aparecen las versiones generadas por IA de sí mismos en los videos. La actualización introduce preferencias que pueden bloquear apariciones cameo en contenido político, restringir lenguaje específico o prevenir contextos visuales determinados. OpenAI afirma que los cambios son parte de actualizaciones más amplias del fin de semana destinadas a estabilizar la plataforma y abordar preocupaciones de seguridad. Si bien las nuevas herramientas dan a los creadores más control sobre sus similitudes digitales, los críticos señalan que las herramientas de IA anteriores han sido sorteadas y el marca de agua sigue siendo débil. OpenAI se compromete a realizar más refinamientos.

Controles de Usuario Ampliados

OpenAI ha lanzado un conjunto de controles para su aplicación Sora, que se asemeja a un "TikTok para deepfakes". Las nuevas funciones permiten a los usuarios dictar cómo se utilizan las versiones generadas por IA de sí mismos, denominadas "cameos", en videos cortos. Los usuarios ahora pueden evitar que su doble de IA aparezca en videos políticos, bloquear ciertas palabras que se hablan o evitar que la similitud aparezca en escenarios visuales específicos, como cerca de un condimento determinado.

Opciones de Personalización

La plataforma también permite preferencias más juguetonas. Por ejemplo, un usuario podría requerir que su yo de IA use un sombrero específico en cada video. Estas configuraciones están destinadas a dar a las personas una mayor agencia sobre cómo se presentan sus representaciones digitales.

Esferzos de Seguridad y Estabilidad

La actualización de control es parte de un lote más amplio de cambios del fin de semana destinados a estabilizar Sora y gestionar el flujo de contenido generado por IA que OpenAI denomina "slop". El personal de OpenAI ha indicado que la empresa está trabajando en mejorar la marca de agua existente, que algunos usuarios ya han encontrado formas de sortear.

Preocupaciones en Curso

Los críticos señalan que las herramientas de IA anteriores, como ChatGPT y Claude, han sido explotadas para consejos ilícitos, lo que sugiere que los actores determinados pueden encontrar formas de sortear las nuevas salvaguardias de Sora. La plataforma ya ha enfrentado desafíos con los usuarios que sortean su marca de agua, lo que plantea dudas sobre la robustez de las protecciones actuales.

Direcciones Futuras

El equipo de OpenAI afirma que la empresa continuará "hill-climbing" para hacer que las restricciones sean más robustas y agregará formas adicionales para que los usuarios mantengan el control. La implementación refleja la respuesta de OpenAI a las preocupaciones de los usuarios, al mismo tiempo que reconoce que la lucha contra el mal uso es continua.

#OpenAI#Sora#videos generados por IA#deepfakes#controles de usuario#similitud digital#seguridad de IA#moderación de contenido#marca de agua#actualizaciones de plataforma

También disponible en:

Sora Agrega Controles de Usuario para Apariencias de Video Generadas por IA | AI News