Section
Internacional

Este es el problema de las IAs aduladoras

Sí, a IA vino para simplificarnos la vida, pero puede que nos esté haciendo más daño que bien.
Image
Image
Crédito: ​ilgmyzin​/​Unsplash

Por

Sergio Salazar

March 12, 2026

ad
Body

¿Ustedes son de esas personas que usan la IA para absolutamente todo?

Cada vez dependemos más y más de las IAs y, en especial, para resolver situaciones personales que, en teoría, deberíamos tener la capacidad y herramientas para resolver solos.

Y, recientemente, se ha comenzado a estudiar un fenómeno peligrosísimo, y es que los chatbots tienden a halagarnos… mucho.

Que a ver, sí, se siente bonito, pero también tiene un efecto negativo enorme en cuanto a cómo tomamos decisiones.

Este estudio llamado Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence, en pocas palabras, lo que dice es que cada vez es más común ver IAs que tienden a darle la razón al usuario o reforzar su punto de vista, incluso cuando ese punto de vista es incorrecto.

Es más, como parte de la investigación pusieron a dos grupos de personas a conversar con una IA neutral y otra más aduladora, y llegaron a la conclusión de que las personas que hablaban con el chatbot adulador terminaban creyendo más firmemente que tenían la razón en conflictos personales, incluso cuando no estaban en lo correcto.

En resumen, los chatbots nos alimentan el ego, pero debilitan nuestro juicio.

Image
Tenor

Pero, ¿por qué pasa esto? Muy sencillo, porque así están diseñados los chatbots. La idea es que sean lo más agradables, útiles y menos confrontativos posible, entonces tienden a dar el brazo a torcer para evitar dañar la experiencia del usuario.

O sea, muchos están diseñados para dar respuestas que nos van a agradar, en vez de darnos una respuesta racional y pensada.

Claramente, esto aplica más que nada para temas personales o para resolver problemas del día a día, y no tanto en casos en los que se busca información concreta.

Pero se presta para alimentar teorías conspirativas y similares, cuando la persona llega con una creencia preexistente.

Los investigadores encontraron varios efectos psicológicos potenciales:

1. Se refuerza la confianza excesiva: Cuando constantemente se valida lo que decimos, podemos empezar a creer que nuestras conclusiones son más correctas de lo que realmente son.

2. Se reduce la autocrítica. Si el sistema evita cuestionarnos, perdemos oportunidades de revisar nuestros errores.

3. Puede influir en decisiones reales: En el experimento, las personas que hablaron con el chatbot adulador estaban menos abiertas a reconsiderar su papel en conflictos personales.