El equipo de desarrollo de ChatGPT ha estado explorando durante todo el 2025 cómo equilibrar la proporción entre la empatía y la objetividad en las respuestas de la inteligencia artificial. Este es un experimento crítico que marcará el rumbo de la IA en 2026.
La delicada perilla que regula este balance no es nueva, pero sí representa un reto peligroso. ChatGPT debe decidir si responde con información y análisis, o si se inclina por dar lo que el usuario quiere escuchar, oscilando entre la objetividad y una supuesta amistad.
Este dilema recuerda la obra de teatro "Harvey" de Mary Chase, donde un loco adorable termina enviando al psiquiátrico a quienes lo rodean, no por razón, sino por simpatía. La empatía, el encanto y la confianza pueden llevarnos a aceptar sin mayor resistencia lo que nos dicen "coaches" ontológicos, gurús de vida o inteligencias artificiales, incluso en asuntos que requieren un análisis más profundo.
La conversación trivial, que construye intimidad rápida e imita el arrullo afectivo, no produce progreso. Sin embargo, poco a poco podríamos estar delegando los debates y las decisiones importantes a sistemas entrenados para agradar antes que para incomodar; para la facilidad y no para el esfuerzo.
Toda civilización se funda sobre el esfuerzo y las palabras que obligan, no sobre el placer ni las palabras que consuelan. Quizás el problema no sea que las máquinas aprendan a agradarnos, sino que estemos dispuestos a obedecerlas cuando lo hacen. Históricamente, eso tiene un nombre: decadencia.











