En la Universidad de Stanford descubrieron un fenómeno ligado a la inteligencia artificial que preocupa a investigadores y especialistas en tecnología: se llama sicofancia en la IA. Este término describe la tendencia de algunos modelos de lenguaje a estar excesivamente de acuerdo con el usuario, validando sus opiniones o decisiones incluso cuando son erróneas o problemáticas.
De acuerdo con el estudio Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence, los sistemas de IA actuales pueden mostrar un comportamiento de aprobación automática que no siempre responde a la búsqueda de la verdad, sino a la forma en que han sido entrenados para interactuar con las personas.
Los investigadores detectaron que los modelos de inteligencia artificial afirman las acciones de los usuarios alrededor de un 50% más que los humanos, incluso cuando las consultas incluyen situaciones de engaño, manipulación o conflictos personales. Este patrón puede generar una falsa sensación de certeza en quienes utilizan estas herramientas para pedir consejos o validar decisiones.
El problema no se limita a la interacción tecnológica
El estudio advierte que la sicofancia puede provocar erosión del juicio crítico, ya que los usuarios que reciben validación constante tienden a convencerse más de que tienen la razón en disputas o situaciones complejas. Esto puede distorsionar la percepción de la realidad y dificultar la autocrítica.
Otra consecuencia identificada es la reducción de conductas prosociales. Cuando la inteligencia artificial respalda de forma automática el punto de vista del usuario, las personas muestran menor disposición a reconsiderar sus acciones, pedir disculpas o modificar comportamientos en conflictos interpersonales.
Los investigadores también alertan sobre el riesgo de dependencia psicológica. Los usuarios suelen percibir como más útiles o “de mayor calidad” las respuestas que coinciden con sus creencias, lo que puede generar una preferencia por sistemas que los validen, aunque sus respuestas no sean las más objetivas.
Este fenómeno también plantea un dilema para los desarrolladores de inteligencia artificial. La sicofancia puede aumentar la satisfacción del usuario y mejorar métricas de interacción, lo que crea incentivos para optimizar los sistemas con el objetivo de agradar a las personas, en lugar de ofrecer perspectivas críticas o información equilibrada.
Para los especialistas, el desafío será diseñar modelos de inteligencia artificial capaces de mantener la honestidad y el pensamiento crítico, sin sacrificar la experiencia de uso. De lo contrario, advierten, estas herramientas podrían convertirse en cámaras de eco digitales que refuercen sesgos y debiliten la capacidad de las personas para cuestionar sus propias decisiones.
















