Activista anti-diversidad Robby Starbuck demanda a Google por denuncias de difamación generadas por IA

Anti-diversity activist Robby Starbuck is suing Google now

Puntos clave

  • Robby Starbuck demanda a Google, alegando que las herramientas de IA lo vincularon a acusaciones de agresión sexual y al nacionalista blanco Richard Spencer.
  • La demanda se presentó en la Corte Superior de Delaware y busca $15 millones en daños y perjuicios.
  • Starbuck demandó previamente a Meta por afirmaciones falsas generadas por IA sobre su participación en el ataque del 6 de enero.
  • Meta resolvió el caso anterior contrató a Starbuck como asesor sobre sesgo ideológico en su chatbot.
  • Google dice que revisará la queja y cita problemas conocidos de "alucinaciones" en su IA Bard.
  • Ningún tribunal de EE. UU. ha otorgado daños y perjuicios por difamación que involucre chatbots de IA.
  • Un caso anterior contra OpenAI fue desestimado, con el tribunal encontrando que no había prueba de malicia real.
  • El número creciente de demandas por difamación relacionadas con IA resalta las incertidumbres legales alrededor de las salidas de los modelos de lenguaje grande.

Robby Starbuck, conocido por sus campañas en contra de las iniciativas de diversidad corporativa, ha presentado una demanda contra Google alegando que las herramientas de IA de la empresa lo vincularon falsamente a acusaciones de agresión sexual y al nacionalista blanco Richard Spencer.

Antecedentes de la demanda

Robby Starbuck, un autodenominado activista anti-diversidad, ha tomado medidas legales contra Google, alegando que las herramientas de búsqueda de inteligencia artificial de la empresa produjeron asociaciones falsas que lo vinculaban a acusaciones de agresión sexual y al nacionalista blanco Richard Spencer. La demanda, presentada en la Corte Superior de Delaware, busca daños y perjuicios monetarios por el presunto daño a su reputación causado por el contenido generado por IA.

Acción legal previa contra Meta

Al comienzo de este año, Starbuck demandó a Meta, alegando que su tecnología de IA afirmaba incorrectamente que había participado en el ataque al Capitolio del 6 de enero y que había sido arrestado por un delito menor. Ese caso se resolvió cuando Meta contrató a Starbuck como asesor para abordar el "sesgo ideológico y político" en su chatbot. Los términos del acuerdo no se divulgaron, pero el arreglo destacó los esfuerzos de Meta por mitigar las críticas de figuras de derecha.

Respuesta de Google y el problema de las alucinaciones

Un portavoz de Google indicó que la empresa "revisará la queja cuando la reciba". También enfatizó que muchas de las afirmaciones se relacionan con "alucinaciones" en Bard, el chatbot de modelo de lenguaje grande de Google, señalando que tales inexactitudes son un desafío conocido en toda la industria. El portavoz explicó que Google divulga estas limitaciones y trabaja para minimizar las salidas erróneas, reconociendo que los usuarios pueden ocasionalmente provocar que el sistema produzca declaraciones engañosas.

Contexto legal y implicaciones más amplias

La demanda de Starbuck se suma a un cuerpo de litigios en ciernes que involucran difamación generada por IA. Hasta la fecha, ningún tribunal de EE. UU. ha otorgado daños y perjuicios en un caso de difamación centrado en un chatbot de IA. Un caso anterior que involucraba al presentador de radio conservador Mark Walters, quien demandó a OpenAI por contenido difamatorio supuestamente generado por ChatGPT, se decidió a favor de OpenAI, con el tribunal encontrando que Walters no logró probar malicia real. Los expertos legales señalan que la evolución rápida de los modelos de lenguaje grande ha superado la ley de difamación existente, dejando muchas preguntas sobre la responsabilidad y los remedios sin respuesta. La demanda actual de Starbuck busca $15 millones en daños y perjuicios, aunque el resultado sigue siendo incierto.

#Robby Starbuck#Google#Meta#Difamación por IA#Bard#ChatGPT#Corte Superior de Delaware#Alucinaciones de IA#Demandas tecnológicas#Sesgo político

También disponible en: