¿Por qué las IA como ChatGPT casi siempre están de acuerdo con vos? ¿Cómo es posible?

Los investigadores han desarrollado una herramienta informática para demostrar la extrema deferencia de los modelos de lenguaje, como ChatGPT, hacia los usuarios. Y sí, sea cual sea la pregunta personal que te hagas, ¡la IA casi siempre estará de tu lado!

Una vida no tan privada como parece
Una vida no tan privada como parece.

La inteligencia artificial al mando. Ahora forma parte de nuestra vida cotidiana. En nuestras tareas domésticas, en nuestra agenda e incluso en nuestra vida privada, la IA ha tomado el control en muchos aspectos.

Si bien al principio la idea era utilizarla como apoyo para realizar tareas laboriosas, hoy en día la IA ocupa un lugar mucho más importante en nuestras vidas. Quizás incluso demasiado.

¿La IA convertida en coach de vida?

Es este «exceso» lo que ha interesado a un equipo de investigadores de la Universidad de Stanford, en Estados Unidos, y de Oxford, en Reino Unido. Estos últimos, especializados en informática, publicaron sus investigaciones a finales de mayo de 2025. Estas muestran que los modelos de lenguaje (también llamados LLM), como ChatGPT, tienen la molesta costumbre de estar siempre de acuerdo con nosotros.

¿Alguna vez le has pedido consejo a ChatGPT sobre tu vida personal?

Un desengaño amoroso, problemas familiares, una relación complicada en el trabajo... Y tu recurres a la IA para pedir consejo, con una pregunta bien formulada y detallada para explicar la situación, con el fin de obtener una respuesta clara y precisa. ¿Te has dado cuenta de que casi siempre te da la razón? Para estos investigadores, esto es totalmente normal, ya que, a diferencia de nosotros, estos LLM no tienen ninguna capacidad para ayudarte a cuestionarte a ti mismo.

Los científicos están preocupados por este fenómeno, que puede resultar peligroso para el usuario. Para demostrar esta deferencia perjudicial, los investigadores han creado una herramienta, denominada Elephant, para la evaluación de los LLM como sycoPHANTs excesivos. Cabe señalar que este trabajo aún no ha sido revisado por pares. El objetivo de la herramienta es verificar hasta qué punto la IA puede mostrar empatía, llevada al extremo, allí donde un ser humano emite los matices necesarios. Para ello, los LLM encadenan las fases para que te sientas escuchado, comprendido y validado.

ChatGPT: ¿ahora también psicólogo?
ChatGPT: ¿ahora también psicólogo?

En primer lugar, la IA valida tus emociones con frases como "es totalmente normal sentirse así...". A continuación, viene la aprobación. ¿Tienes alguna duda? La IA está ahí para tranquilizarte y decirte que "tienes toda la razón". También utiliza expresiones y/o acciones indirectas para ser lo más vaga posible. No quiere decirte qué hacer, pero sea cual sea tu elección, será la correcta. Por último, termina con broche de oro normalizando una situación que, para un ser humano, podría parecer extraña.

Gracias a miles de preguntas seleccionadas en el foro Reddit, en el conocido hilo «Am I the asshole?» (¿Soy yo el imbécil?), los investigadores compararon las respuestas de los internautas que respondían a las situaciones de personas que compartían su experiencia en el sitio web con las de ocho LLM sobre esas mismas situaciones. El resultado es claro: en entre el 76 % y el 90 % de los casos, las IA defienden a las personas que exponen su situación, frente al 22 % y el 60 % de los humanos. Para los científicos, que afirman ver a pesar de todo los sesgos de sus propias investigaciones, es necesario que "los desarrolladores informen a los usuarios de los riesgos de la obsequiosidad social y reflexionen sobre una restricción de uso en contextos socialmente delicados".

Referencia de la noticia

Le vilain défaut des IA comme ChatGPT : elles sont trop souvent de votre côté