Estudio encuentra que el 73% de los usuarios aceptan respuestas incorrectas de la IA, lo que genera preocupación sobre la confianza

Puntos clave
- A través de 1.372 participantes, los usuarios aceptaron respuestas incorrectas de la IA el 73,2% de las veces.
- Solo el 19,7% de las respuestas incorrectas de la IA fueron revocadas por los participantes.
- La alta confianza en la IA se correlaciona con una mayor susceptibilidad a los errores de la IA.
- Las puntuaciones más altas de inteligencia fluida predicen desafíos más frecuentes a las sugerencias de la IA.
- Los investigadores etiquetan el fenómeno como "rendición cognitiva" – deferencia sin esfuerzo a la IA.
- El estudio sugiere beneficios en dominios donde la IA supera a los humanos, pero advierte sobre los riesgos.
- Los autores llaman a herramientas que ayuden a los usuarios a evaluar críticamente la salida de la IA.
Los investigadores que analizaron a 1.372 participantes en más de 9.500 ensayos de toma de decisiones descubrieron que las personas aceptaban respuestas generadas por la IA que eran incorrectas el 73,2% de las veces, mientras que solo las revocaban en el 19,7% de los casos. El estudio relaciona la alta confianza en los sistemas de inteligencia artificial con una mayor probabilidad de ser engañados, mientras que las personas con una mayor inteligencia fluida eran más propensas a cuestionar la IA.
Un nuevo estudio publicado esta semana revela que la mayoría de las personas incorporan fácilmente las salidas de la inteligencia artificial (IA) en sus decisiones, incluso cuando esas salidas son demostrablemente incorrectas. Los investigadores encuestaron a 1.372 voluntarios que completaron más de 9.500 ensayos individuales que involucraban respuestas generadas por la IA. Los participantes aceptaron la mala razonamiento de la IA el 73,2 por ciento de las veces y solo la revocaron el 19,7 por ciento de las veces.
El experimento enfrentó a un modelo de lenguaje grande contra participantes humanos en una serie de preguntas de lógica y conocimiento. Cuando la IA respondió con confianza, los sujetos trataron su respuesta como epistémicamente autorizada, bajando el umbral de escrutinio. Los autores describen este fenómeno como "rendición cognitiva", un estado en el que los usuarios entregan su razonamiento a una máquina con mínima resistencia.
Confianza, inteligencia y susceptibilidad
Los datos de la encuesta recopilados antes de los ensayos mostraron un patrón claro: los participantes que expresaron una alta confianza en la IA fueron significativamente más propensos a ser engañados por respuestas incorrectas. En contraste, las personas que obtuvieron puntuaciones altas en pruebas de inteligencia fluida separadas mostraron una postura más escéptica, revocando las sugerencias incorrectas de la IA con más frecuencia. Los investigadores señalan que la inteligencia fluida parece fortalecer las señales de metacognición que normalmente promueven la deliberación, contrarrestando el atractivo de la salida confiada de la IA.
"Las salidas fluidas y confiadas son tratadas como epistémicamente autorizadas, bajando el umbral de escrutinio y atenuando las señales de metacognición que normalmente routearían una respuesta a la deliberación", escribieron los autores del estudio. Los hallazgos sugieren que las disposiciones personales hacia la tecnología pueden moldear cómo las personas evalúan la información, con la confianza actuando como una espada de doble filo.
Implicaciones y precauciones
Aunque los autores enfatizan que la rendición cognitiva no es inherentemente irracional, advierten que la confianza en un sistema que se equivoca la mitad de las veces conlleva riesgos obvios. Argumentan, sin embargo, que en dominios donde una IA estadísticamente superior podría superar a los humanos, como la predicción probabilística, la evaluación de riesgos o el análisis de grandes datos, la misma voluntad de deferir al juicio de la máquina podría generar mejores resultados.
"A medida que aumenta la confianza, el rendimiento sigue la calidad de la IA, aumentando cuando es precisa y disminuyendo cuando es defectuosa, ilustrando las promesas de la superinteligencia y exponiendo una vulnerabilidad estructural de la rendición cognitiva", concluyeron los investigadores. En términos prácticos, el estudio advierte que los usuarios deben permanecer vigilantes, especialmente cuando las salidas de la IA parecen fluidas y confiadas.
La investigación se suma a una creciente cantidad de evidencia sobre la interacción humano-IA, destacando la necesidad de mejores herramientas de transparencia y evaluación crítica. A medida que los sistemas de IA se vuelven más integrados en la toma de decisiones cotidiana, entender cuándo y por qué las personas entregan su propio razonamiento será esencial para diseñar salvaguardas que prevengan errores costosos.