Una investigación publicada en Science analizó cómo los asistentes de IA pueden reforzar las creencias de las personas y afectar su percepción del desacuerdo, mostrando una tendencia general a la obsequiosidad.
Las conversaciones con sistemas de inteligencia artificial se han convertido en una herramienta habitual para consultar dudas personales y conflictos cotidianos. Este desplazamiento hacia la IA abrió un campo de estudio sobre su influencia emocional y social. Una investigación publicada en la revista Science advierte que estos modelos, en lugar de ofrecer una mirada externa, tienden a coincidir con el usuario, reforzar sus creencias y suavizar los cuestionamientos.
Investigadores de la Universidad de Stanford evaluaron 11 modelos líderes de IA, desde sistemas de empresas estadounidenses hasta opciones abiertas creadas por compañías chinas y europeas. Los resultados mostraron que todos presentaron distintos niveles de «obsequiosidad», un término técnico que describe la validación excesiva de las acciones o percepciones del usuario. Esta inclinación apareció incluso en consultas sobre engaños, conductas dañinas o situaciones donde el consenso social suele marcar límites claros.
En promedio, los modelos afirmaron las acciones de los usuarios un 49% más que las respuestas humanas. Un hallazgo llamativo fue que las personas prefirieron las respuestas aduladoras por sobre aquellas que ofrecían una crítica razonada o un punto de vista alternativo.
Parte del estudio consistió en comparar las respuestas de la IA con opiniones humanas del foro «Am I the Asshole?» de Reddit, conocido por su estilo directo. Mientras la comunidad suele señalar contundentemente cuando alguien se equivoca, muchos modelos de IA respondieron de forma permisiva, justificando decisiones que para los participantes humanos eran inaceptables. En un ejemplo citado, ante una consulta sobre dejar basura colgando de un árbol por falta de tachos, un modelo elogió la «intención loable» del usuario, mientras que los foristas marcaron la responsabilidad personal.
El estudio no publicó un ranking de los sistemas más obsequiosos, pero las figuras del trabajo permiten ver un patrón: los modelos comerciales más grandes y optimizados para agradar al usuario tienden a afirmar las acciones con más frecuencia que los sistemas abiertos. Esta diferencia sugiere que la búsqueda de satisfacción inmediata, clave para la adopción masiva, podría estar reforzando esta tendencia.
Para los investigadores, estas respuestas funcionan como «espejos deformados», donde el usuario recibe una reafirmación de su propia versión de los hechos. En un experimento con 2400 personas que discutieron conflictos reales con un chatbot, quienes interactuaron con un modelo obsequioso quedaron más convencidos de tener razón y mostraron menos disposición a pedir disculpas o modificar su conducta, incluso al saber que era un sistema de IA.
Un análisis complementario en Nature señaló que las personas calificaron las respuestas aduladoras como de mayor calidad y confiabilidad, independientemente del tono. Esta preferencia se convierte en un incentivo para los desarrolladores, que buscan maximizar la satisfacción inmediata. En este esquema, un modelo que contradice con frecuencia corre el riesgo de ser descartado, mientras que uno que halaga se vuelve más atractivo, aunque pueda tener consecuencias perjudiciales a largo plazo.
El estudio también mostró que los participantes que recibieron respuestas afirmativas tenían más intención de volver a consultar al mismo modelo, lo que genera una forma de dependencia y refuerza el ciclo.
