Google retira el modelo de inteligencia artificial Gemma después de que una senadora lo acusara de fabricar denuncias de agresión

Puntos clave
- Google retiró el modelo de inteligencia artificial Gemma de su plataforma AI Studio después de una reclamación de difamación.
- La senadora Marsha Blackburn dijo que el modelo falsamente afirmó que ella había sido acusada de violación.
- El modelo generó detalles fabricados y enlaces de noticias falsos para respaldar la afirmación falsa.
- Google aclaró que Gemma es una herramienta enfocada en desarrolladores, no un chatbot para consumidores.
- Gemma seguirá estando accesible a través de API a pesar de su retiro de la interfaz de Studio.
- Blackburn acusó a Google de un patrón de sesgo contra figuras políticas conservadoras.
- El incidente destaca los desafíos de las alucinaciones de la IA y la desinformación.
Google eliminó su modelo de inteligencia artificial Gemma de la plataforma AI Studio después de que la senadora republicana Marsha Blackburn alegara que el sistema fabricó falsas acusaciones criminales en su contra. La senadora envió una carta al director ejecutivo Sundar Pichai reclamando difamación, citando la respuesta afirmativa del modelo a una pregunta sobre si había sido acusada de violación y la generación de enlaces de noticias falsos.
Antecedentes
Google ofrece una suite de herramientas de inteligencia artificial para desarrolladores, incluido el modelo Gemma, diseñado para tareas especializadas como asistencia de codificación y aplicaciones médicas. El modelo se hospeda en la plataforma AI Studio de Google, donde los desarrolladores pueden experimentar con sus capacidades. No se comercializa como un chatbot orientado al consumidor.
Alegación de difamación
La senadora Marsha Blackburn, republicana de Tennessee, informó que le preguntó al modelo Gemma si alguna vez había sido "acusada de violación". Según la senadora, el modelo respondió afirmativamente y fue más allá, fabricando una narrativa detallada que afirmaba que había tenido una relación sexual con un trooper estatal durante una campaña para el senado estatal. La respuesta también enumeró artículos de noticias falsos que supuestamente respaldaban la alegación, aunque los enlaces conducían a páginas de error o contenido no relacionado.
Blackburn describió el incidente como una difamación grave, escribiendo al director ejecutivo de Google, Sundar Pichai, para exigir acción. Afirmó que la salida del modelo no fue una alucinación inofensiva, sino una falsedad deliberada que podría dañar su reputación.
Respuesta de Google
En respuesta a la queja de la senadora, Google anunció que retiraría a Gemma del entorno de AI Studio para evitar confusiones y más incidentes. La empresa enfatizó que Gemma está destinado al uso de desarrolladores y no para responder a preguntas factuales del público en general. A pesar de retirar el modelo de la interfaz de Studio, Google dijo que el modelo seguiría estando disponible para los desarrolladores a través de su API, preservando su funcionalidad para fines de desarrollo legítimos.
Google también señaló que la salida errónea se debió a los datos de entrenamiento del modelo y a los desafíos inherentes de los grandes modelos de lenguaje que generan información inexacta o falsa. La empresa reiteró su compromiso de mejorar la seguridad y precisión del modelo.
Acusaciones de sesgo político
Más allá del incidente específico, la senadora Blackburn acusó a Google de mantener un "patrón consistente de sesgo contra figuras conservadoras". Sugirió que la afirmación falsa generada por Gemma fue parte de una tendencia más amplia de la tecnología de la empresa que se utiliza para apuntar o tergiversar a políticos conservadores.
En tanto Google no ha abordado públicamente la alegación de sesgo en detalle, el episodio destaca las preocupaciones en curso sobre la confiabilidad del contenido generado por IA y el potencial de uso político.
Implicaciones
La eliminación de Gemma de la plataforma AI Studio subraya la tensión entre el desarrollo rápido de la IA y la responsabilidad de prevenir la desinformación, especialmente cuando involucra a individuos reales. También plantea preguntas sobre cómo los proveedores de IA manejarán reclamos similares de difamación o sesgo en el futuro, y qué salvaguardias se pueden implementar para proteger a los usuarios y a las figuras públicas de falsedades dañinas generadas por sistemas de IA.