Sam Altman dice que los bots hacen que las redes sociales se sientan falsas

Sam Altman says that bots are making social media feel ‘fake’

Puntos clave

  • Sam Altman publicó en X expresando su preocupación de que los bots están haciendo que las redes sociales se sientan falsas.
  • Señaló una inundación de publicaciones en Reddit sobre OpenAI Codex como potencialmente impulsadas por bots.
  • Altman citó factores como el lenguaje al estilo de los grandes modelos de lenguaje, la publicación coordinada, los incentivos de compromiso de la plataforma y el astroturfing.
  • Los datos de la industria muestran que más de la mitad del tráfico de Internet en 2024 fue no humano, en gran medida debido a las salidas de IA.
  • La mezcla de contenido humano y de IA plantea preguntas sobre la autenticidad, los ingresos de los creadores y la mensajería coordinada.

El jefe de OpenAI, Sam Altman, publicó en X que el aumento de los bots está convirtiendo a las redes sociales en un paisaje donde es difícil determinar si las publicaciones son escritas por personas reales. Citó la inundación de publicaciones en Reddit sobre Codex de OpenAI como un ejemplo, señalando que muchas pueden ser generadas por cuentas automatizadas o campañas de astroturfing.

El fundador de OpenAI, Sam Altman, expresó una creciente inquietud sobre la autenticidad de las conversaciones en las redes sociales. Observó que el volumen de publicaciones en Reddit que elogiaban el programa Codex de OpenAI había llegado a ser tan alto que era difícil determinar si los comentarios provenían de usuarios genuinos o de bots automatizados. Altman sugirió que la mezcla de usuarios reales que adoptan los patrones de lenguaje de los grandes modelos de lenguaje, el comportamiento de publicación coordinado, los incentivos de las plataformas para el compromiso y el posible astroturfing estaban contribuyendo a una sensación de que el diálogo en línea se sentía "falso".

Los comentarios de Altman llegaron después de que notó que el subreddit r/Claudecode estaba lleno de usuarios de Codex que anunciaban migraciones a la plataforma. Se preguntó cuántas de esas publicaciones eran auténticas, señalando que la proliferación de los bots podría estar inflando el aparente entusiasmo por el servicio.

Datos de la industria sobre el tráfico de bots

En apoyo a sus preocupaciones, Altman se refirió a los hallazgos de la industria que indican que más de la mitad de todo el tráfico de Internet en 2024 se identificó como no humano, impulsado en gran medida por las salidas de los grandes modelos de lenguaje. Esta estadística subraya la escala a la que el contenido automatizado está presente en los canales digitales.

Posibles implicaciones

El director ejecutivo advirtió que la mezcla de contenido humano y generado por IA podría distorsionar la percepción pública, afectar la monetización de los creadores y amplificar los esfuerzos de mensajería coordinada. También insinuó que el astroturfing, donde individuos pagados o bots promueven una narrativa en nombre de un tercero, podría estar influyendo en la conversación sobre los productos de OpenAI.

Los comentarios de Altman reflejan ansiedades más amplias dentro de la comunidad tecnológica sobre el impacto de la IA cada vez más sofisticada en la credibilidad de las plataformas en línea. A medida que los grandes modelos de lenguaje se vuelven más hábiles para imitar la escritura humana, distinguir el sentimiento de los usuarios genuinos del amplificación automatizada se convierte en un desafío cada vez mayor para cả las plataformas y los consumidores.

#Sam Altman#OpenAI#X#Reddit#bots#redes sociales#Codex#astroturfing#IA#grandes modelos de lenguaje

También disponible en: