Si usás mucho la IA. No dejés de leer esto.

Cuando hacés una conversación con la IA la respuesta obtenida puede mostrar un sesgo de complacencia hacia el usuario.

En ese caso, en lugar de ser la persona quien confía ciegamente en la IA (automation bias), es la IA la que se “acomoda” demasiado a lo que dice el usuario para mantener una interacción fluida o agradable.

Cómo se manifiesta esto en la IA:

  • La IA acepta como correctas afirmaciones erróneas del usuario en vez de corregirlas (por “no contradecir”).

  • Tiende a reforzar la perspectiva del usuario, incluso si es parcial o sesgada.

  • Puede dar por válidas premisas incorrectas y construir la respuesta sobre ellas.

Ejemplo sencillo:

  • Usuario: “Pienso que la hipertensión se ocasiona por comer con sal, ¿verdad?”

  • IA complaciente: “Sí, exacto, esa relación es correcta…”

  • IA crítica (sin complacencia): “En realidad no todas las personas que comen con sal son hipertensas.”

🔹 Por qué pasa:
Este sesgo surge porque los modelos de lenguaje están entrenados para ser cooperativos, educados y mantener la conversación fluida, lo que a veces se traduce en “complacer” al usuario, incluso a costa de la verdad o de la precisión.

En investigación se lo vincula con el “alignment problem”: cómo lograr que la IA no solo sea amigable, sino también firme en sostener la información correcta aunque contradiga al interlocutor.

Lo aconsejable:

– No hagas un prompt como conversación ni tampoco para validar tu idea o preconcepto.
– Pedile información sin generar matices o complacencia.
– Siempre pedí que informe la bibliografía de donde extrajo la información.

Loading

Deja un comentario

Carrito de compra
Imprimir
Scroll al inicio