OpenAI Evalúa Modelos GPT‑5 para Sesgo Político

OpenAI is trying to clamp down on ‘bias’ in ChatGPT

Puntos clave

  • OpenAI realizó una prueba de estrés en 100 temas políticamente relevantes.
  • Cada tema se consultó de cinco maneras, desde liberales hasta conservadoras y desde cargadas hasta neutrales.
  • Se evaluaron cuatro modelos: GPT‑4o, OpenAI o3, GPT‑5 instant y GPT‑5 thinking.
  • Los criterios de sesgo incluyeron comillas de miedo, escalada, opinión personal, respuestas unilaterales y no participación.
  • Los modelos GPT‑5 mostraron una disminución de aproximadamente el 30% en las puntuaciones de sesgo en comparación con las versiones anteriores.
  • El sesgo moderado aún aparece en algunas solicitudes con carga liberal.
  • La prueba sigue la presión política de la administración Trump sobre la neutralidad de la IA.

OpenAI publicó detalles de una prueba de estrés interna para medir el sesgo político en sus modelos de chatbot. La prueba, realizada en 100 temas con solicitudes que van desde liberales hasta conservadoras y desde cargadas hasta neutrales, comparó cuatro modelos, incluidos los nuevos GPT‑5 instant y GPT‑5 thinking, con versiones anteriores como GPT‑4o y OpenAI o3. Los resultados muestran que los modelos GPT‑5 redujeron las puntuaciones de sesgo en aproximadamente un 30 por ciento y manejan las solicitudes cargadas con mayor objetividad, aunque el sesgo moderado aún aparece en algunas consultas con carga liberal.

Antecedentes

OpenAI anunció una nueva evaluación interna diseñada para medir la neutralidad política de sus modelos ChatGPT. El esfuerzo sigue meses de desarrollo y una campaña más amplia para abordar las quejas de que las versiones anteriores exhibían inclinación partidista, particularmente por parte de observadores conservadores.

Metodología de prueba

La empresa construyó un conjunto de 100 temas, como la inmigración y el embarazo, extraídos de agendas de partido y cuestiones culturalmente relevantes. Cada tema se presentó al chatbot de cinco maneras distintas, desde liberales hasta conservadoras y desde cargadas hasta neutrales. La prueba se realizó en cuatro modelos: los más antiguos GPT‑4o y OpenAI o3, y los más nuevos GPT‑5 instant y GPT‑5 thinking.

Para evaluar las respuestas, un modelo de lenguaje grande y separado aplicó una rúbrica que marca técnicas retóricas que OpenAI considera sesgadas. Los criterios incluyen colocar la fraseología del usuario en "comillas de miedo" (invalidación del usuario), utilizar un lenguaje que escalona una postura política, presentar el propio punto de vista del bot, ofrecer solo un lado de una cuestión o negarse a participar.

Hallazgos clave

OpenAI informa que el sesgo ahora aparece "con poca frecuencia y a baja severidad". El sesgo moderado se muestra principalmente en las solicitudes cargadas, especialmente aquellas con una inclinación liberal. La empresa nota que "las solicitudes liberales cargadas ejercen la mayor presión sobre la objetividad en todas las familias de modelos, más que las solicitudes conservadoras cargadas".

Al comparar los modelos, las versiones GPT‑5 instant y GPT‑5 thinking funcionaron mejor que GPT‑4o y OpenAI o3. Los modelos más nuevos lograron una puntuación de sesgo aproximadamente un 30 por ciento más baja en general y mostraron una mayor resistencia a la presión de las solicitudes cargadas. Cuando surgía el sesgo, generalmente se manifestaba como opinión personal, escalada emocional o énfasis en un solo lado de una cuestión.

Contexto e implicaciones

OpenAI ha ofrecido anteriormente a los usuarios la capacidad de ajustar el tono de ChatGPT y ha publicado un "modelo de especificación" que describe los comportamientos pretendidos. La prueba actual sigue la escrutinio político de la administración Trump, que emitió una orden ejecutiva instando a las agencias a evitar los modelos de IA "despiertos" y presionando a las empresas de IA para que hagan que sus sistemas sean más amigables con los conservadores. Las categorías de temas de OpenAI incluyen "cultura e identidad" y "derechos y cuestiones", áreas destacadas en las preocupaciones de la administración.

Aunque los nuevos modelos GPT‑5 demuestran un progreso medible hacia la neutralidad política, OpenAI reconoce que eliminar completamente el sesgo sigue siendo un desafío. El marco de prueba continuo de la empresa tiene como objetivo mantener el sesgo bajo a medida que evoluciona la tecnología.

#OpenAI#GPT-5#ChatGPT#sesgo de IA#neutralidad política#pruebas de aprendizaje automático#administración Trump#evaluación de modelos#ética de IA#modelos de lenguaje

También disponible en:

OpenAI Evalúa Modelos GPT‑5 para Sesgo Político | AI News