Gemini de Google agrega detección limitada de imágenes de IA, destaca lagunas en la verificación de deepfakes

Gemini's AI Image Detector Only Scratches the Surface. That's Not Good Enough

Puntos clave

  • La aplicación Gemini de Google puede detectar un marca de agua SynthID en imágenes generadas por las herramientas de IA de Google.
  • La herramienta confirma el contenido generado por IA rápidamente cuando el marca de agua está presente.
  • Para las imágenes sin SynthID, Gemini proporciona solo un análisis general, no una respuesta definitiva.
  • Las pruebas muestran resultados inconsistentes en la detección en la versión del navegador de Gemini, Gemini 3, Gemini 2.5 Flash, ChatGPT y Claude.
  • La variabilidad subraya la necesidad de métodos de detección universales que funcionen en todos los generadores de IA.
  • Iniciativas de la industria como C2PA buscan crear estándares para la provenencia y autenticación de contenido.

Google ha introducido una función de verificación de imágenes en su aplicación Gemini que busca un marca de agua SynthID para determinar si una imagen fue generada por las herramientas de IA de Google. La herramienta funciona bien para el contenido creado por Google, pero ofrece solo evaluaciones vagas para imágenes de otros generadores.

Herramienta de verificación de imágenes de Google

Google ha agregado una función a la aplicación Gemini que permite a los usuarios enviar una imagen y preguntar si es real. El sistema busca un marca de agua digital llamada SynthID, que está incrustada en las imágenes creadas por los modelos de IA de Google. Cuando el marca de agua está presente, Gemini confirma rápidamente la imagen como generada por IA. En las pruebas, la herramienta incluso identificó una captura de pantalla que contenía una imagen con marca de agua.

Para las imágenes que carecen de un marca de agua SynthID, Gemini proporciona solo un análisis general, señalando signos típicos de creación artificial sin un veredicto definitivo. Cuando se le preguntó sobre una infografía que Google generó (que incluía metadatos que indicaban que era producida por IA), la versión de la aplicación que utilizaba SynthID la detectó, pero la versión del navegador, que carece de la comprobación del marca de agua, dio una respuesta ambigua, afirmando que el diseño podría ser de IA o de un ser humano.

Resultados inconsistentes en diferentes modelos

Las diferentes versiones de Gemini y otros chatbots produjeron respuestas mixtas. Gemini 3, el modelo de razonamiento de nivel superior, ofreció una explicación detallada para una imagen de gato generada por Nano Banana Pro, etiquetándola correctamente como generada por IA. Por otro lado, Gemini 2.5 Flash adivinó que la misma imagen era una fotografía real. ChatGPT dio respuestas contradictorias en diferentes días, y los modelos Haiku 4.5 y Soneto 4.5 de Claude dijeron que la imagen parecía real.

Desafíos más amplios en la detección de imágenes generadas por IA

Las pruebas destacan un problema más amplio: muchas herramientas de detección de IA dependen de artefactos visibles o marcas de agua específicas del modelo, que pueden ser sorteadas o están ausentes en el contenido de otros generadores. A medida que los modelos de imagen de IA mejoran, las señales visuales tradicionales se vuelven menos confiables. El artículo argumenta que un marca de agua universal, difícil de eliminar y detectable por herramientas cotidianas, sería más efectivo.

Direcciones futuras y esfuerzos de la industria

La comprobación de SynthID de Google representa un paso hacia la verificación confiable, pero el artículo señala la necesidad de una adopción más amplia en plataformas, incluidas extensiones del navegador y motores de búsqueda. Grupos de la industria como la Coalición para la Provenencia y Autenticación de Contenido (C2PA) están trabajando hacia estándares que permitirían a los usuarios verificar la procedencia de las imágenes sin aplicaciones especializadas ni experiencia.

#Google#Gemini#SynthID#Nano Banana Pro#detección de imágenes de IA#deepfakes#ChatGPT#Claude#C2PA#verificación de IA#provenencia de contenido

También disponible en:

Gemini de Google agrega detección limitada de imágenes de IA, destaca lagunas en la verificación de deepfakes | AI News