Contenido generado por IA abruma a las redes sociales, planteando preocupaciones sobre autenticidad y confianza

AI Slop Has Turned Social Media Into an Antisocial Wasteland

Puntos clave

  • Herramientas de IA generativas como Sora de OpenAI, Veo de Google y Midjourney permiten la creación fácil de videos realistas desde textos.
  • El aumento de contenido de baja calidad generado por IA, llamado "suciedad de IA", está inundando Facebook, Instagram, TikTok y otras plataformas.
  • Los videos deepfake de figuras públicas agregan a la dificultad de distinguir entre medios reales y fabricados.
  • La investigación de Raptive muestra que los usuarios confían menos en las publicaciones creadas por IA y sienten conexiones emocionales más débiles con ellas.
  • Los expertos advierten que el contenido de IA puede amplificar expectativas poco realistas y erosionar interacciones sociales auténticas.
  • Las plataformas prometen etiquetar el contenido de IA pero luchan con la moderación en medio de un rápido aumento en el material generado por IA.
  • Los marcos regulatorios se quedan atrás de los avances de la IA, dejando a los usuarios vulnerables a la desinformación.
  • Se sugieren opciones para que los usuarios limiten el contenido de IA, similares al sistema de filtros de Pinterest.

Las plataformas sociales como Facebook, Instagram y TikTok están cada vez más saturadas de contenido de baja calidad generado por IA, a menudo llamado "suciedad de IA", y videos deepfake de figuras públicas. Las herramientas generativas como Sora de OpenAI, Veo de Google y Midjourney permiten a cualquiera crear videos realistas desde simples textos, difuminando la línea entre el contenido real y el fabricado. Los usuarios informan una reducción de la confianza y la conexión emocional con las publicaciones creadas por IA, mientras que las plataformas luchan por etiquetar y moderar dicho material. Los expertos advierten que sin una regulación más fuerte, la inundación de contenido artificial podría erosionar aún más la autenticidad y exacerbar la desinformación en las redes sociales.

Problema de contenido generado por IA

Las redes sociales han sido criticadas durante mucho tiempo por presentar contenido demasiado pulido y aspiracional. Recientemente, el problema ha empeorado ya que las herramientas generativas de inteligencia artificial, como Sora de OpenAI, Veo de Google y la plataforma de imagen a video Midjourney, permiten a los usuarios producir videos y imágenes realistas desde simples textos. Esta capacidad ha llevado a un aumento de publicaciones de baja calidad generadas por IA, un fenómeno llamado "suciedad de IA". El término captura una avalancha de contenido que va desde videos de animales caprichosos hasta fotos de vacaciones creadas por IA y personajes de influencia completamente fabricados.

Deepfakes y la erosión de la confianza

Junta a la suciedad de IA, la tecnología deepfake ha hecho que sea más fácil crear videos convincentes de figuras públicas diciendo o haciendo cosas que nunca ocurrieron. La difusión de dicho material fabricado desafía la capacidad de los usuarios para discernir entre hecho y ficción. Según un estudio realizado por la firma de medios Raptive, cuando la gente sospecha que un contenido es generado por IA, es menos probable que confíe en él y sienta una conexión emocional más débil. El estudio encontró que casi la mitad de los encuestados veían el contenido creado por IA como menos confiable.

Perspectivas de expertos sobre los cambios en las plataformas

Alexios Mantzarlis, director de la Iniciativa de Seguridad, Confianza y Seguridad de Cornell Tech, observa que las plataformas sociales parecen priorizar mantener a los usuarios comprometidos con la tecnología en sí misma en lugar de fomentar conexiones humanas genuinas. Él nota que las empresas de tecnología están mostrando capacidades de IA para mejorar el desempeño de las acciones, a menudo a expensas de la experiencia del usuario. Mantzarlis advierte que el contenido impulsado por IA puede amplificar los estándares corporales poco realistas y distorsionar aún más la realidad para los espectadores.

Respuesta de la industria y lagunas regulatorias

En respuesta a las crecientes preocupaciones, las principales plataformas han prometido etiquetar el material generado por IA y prohibir publicaciones dañinas, como aquellas que malversan las semejanzas de personas privadas. Sin embargo, el ritmo de la regulación se queda atrás de los rápidos avances de la IA, dejando a las plataformas para hacer cumplir el contenido en gran medida por su cuenta. Paul Bannister, director de estrategia de Raptive, destaca que mientras las herramientas de IA democratizan la creación expandiendo el grupo de posibles creadores, el volumen abrumador de medios generados plantea importantes desafíos de moderación.

Caminos posibles hacia adelante

Los interesados sugieren dar a los usuarios más control sobre la cantidad de contenido de IA que encuentran, citando los filtros de contenido de IA opcionales de Pinterest como un modelo posible. Dichas medidas podrían ayudar a restaurar un grado de autenticidad a las fuentes de alimentación y mitigar la difusión de la desinformación. Hasta que surjan marcos regulatorios más claros, el equilibrio entre fomentar el uso creativo de la IA y preservar la confianza en las redes sociales sigue siendo un frente controvertido.

#OpenAI#Google#Midjourney#Raptive#Cornell Tech#Alexios Mantzarlis#Paul Bannister#suciedad de IA#deepfakes#redes sociales#autenticidad#desinformación#regulación

También disponible en: