ChatGPT elimina la rutina “Calmarse” en una nueva actualización

4

OpenAI está ajustando su modelo instantáneo GPT-5.3 para reducir las respuestas demasiado empáticas y, a veces, condescendientes que frustraron a muchos usuarios. El cambio se produce después de quejas generalizadas de que el chatbot respondía con frecuencia a consultas simples con garantías no solicitadas, a menudo diciéndoles a los usuarios que “se calmaran” o asegurándoles que no estaban “destrozados”.

Por qué esto es importante

El problema no era sólo molesto; Destacó una tensión creciente entre los protocolos de seguridad de la IA y la experiencia del usuario. OpenAI enfrenta demandas que alegan que su chatbot puede contribuir a efectos negativos para la salud mental, lo que generó “barandillas” excesivas en versiones anteriores. La nueva actualización tiene como objetivo lograr un equilibrio entre una IA responsable y una interacción menos condescendiente.

El problema con las versiones anteriores

Los usuarios informaron que ChatGPT 5.2 a menudo respondía como si asumiera que el usuario estaba en estado de pánico, incluso cuando buscaba información directa. El hábito del robot de ofrecer consejos no solicitados (“Respira…”) o tranquilidad preventiva (“No estás loco, sólo estás estresado”) llevó a algunos a cancelar sus suscripciones.

El tono fue percibido como infantilista e innecesario. Un usuario de Reddit lo expresó sucintamente: “Nadie se ha calmado en toda la historia de decirle a alguien que se calme”.

¿Qué está cambiando en GPT-5.3 Instant?

OpenAI afirma que la actualización se centrará en el tono, la relevancia y el flujo de conversación. El ejemplo de la compañía muestra un cambio claro: donde GPT-5.2 podría comenzar con “En primer lugar, no estás roto”, GPT-5.3 reconoce las dificultades sin garantías innecesarias.

El cambio es una respuesta directa a los comentarios de los usuarios. OpenAI incluso lo reconoció en X y afirmó: “Escuchamos sus comentarios alto y claro, y 5.3 Instant reduce la vergüenza”.

Equilibrio entre seguridad y usabilidad

La medida de OpenAI refleja un desafío más amplio en el desarrollo de la IA: cómo prevenir daños sin que las interacciones parezcan robóticas o condescendientes. Si bien los protocolos de seguridad son cruciales, una IA demasiado cautelosa puede alejar a los usuarios. La empresa parece estar aprendiendo que a menudo se prefieren las respuestas directas y objetivas al apoyo emocional no solicitado.

Como señaló un experto: “El objetivo no es reemplazar la empatía humana sino proporcionar herramientas que mejoren la productividad sin asumir que el usuario necesita mimos”.

La actualización sugiere que OpenAI está recalibrando su enfoque, priorizando una experiencia de usuario más neutral y eficiente y al mismo tiempo abordando preocupaciones de seguridad legítimas.