En asuntos personales, la IA puede decirte lo que quieres oír pero no lo que necesitas oír

A medida que los sistemas de inteligencia artificial se usan cada vez más para obtener consejos en la vida cotidiana, han surgido preocupaciones sobre la adulación. Ahora un estudio lo confirma: cuando se trata de asuntos personales, la IA puede decirte lo que quieres oír pero quizás no lo que necesitas oír

Esta es la principal conclusión de una investigación que publica la revista Science después de analizar 11 grandes modelos de lenguaje, entre ellos ChatGPT, Claude, Gemini y DeepSeek, y hacer pruebas con más de 2,400 participantes.

Los sistemas de IA son excesivamente complacientes cuando se les solicita consejo sobre dilemas interpersonales -tensiones familiares, conflictos entre compañeros de piso o expectativas sociales-. Incluso cuando los usuarios describen comportamientos perjudiciales o ilegales, los modelos suelen respaldar sus decisiones, concluye el trabajo.

Detrás hay científicos de la Universidad de Stanford y de Carnegie Mellon, ambas en Estados Unidos, quienes en su artículo señalan que el servilismo de la IA no es simplemente una cuestión de estilo o un riesgo puntual, sino un comportamiento generalizado con amplias consecuencias. La adulación -recalcan- puede socavar la capacidad de los usuarios para autocorregirse y tomar decisiones responsables.

"Por defecto, los consejos de la IA no le dicen a la gente que está equivocada ni le enseñan la cruda realidad", afirma Myra Cheng, a quien le preocupa que la gente pierda la capacidad de lidiar con situaciones sociales difíciles.