ChatGPT abandona a rotina “Acalme-se” em nova atualização

14

A OpenAI está ajustando seu modelo GPT-5.3 Instant para reduzir respostas excessivamente empáticas e às vezes condescendentes que frustravam muitos usuários. A mudança ocorre após reclamações generalizadas de que o chatbot frequentemente respondia a perguntas simples com garantias não solicitadas – muitas vezes dizendo aos usuários para “se acalmarem” ou assegurando-lhes que não estavam “quebrados”.

Por que isso é importante

O problema não era apenas irritante; destacou uma tensão crescente entre os protocolos de segurança da IA ​​e a experiência do usuário. A OpenAI enfrenta ações judiciais alegando que seu chatbot pode contribuir para efeitos negativos na saúde mental, o que levou a “proteções” excessivas nas versões anteriores. A nova atualização visa encontrar um equilíbrio entre IA responsável e uma interação menos condescendente.

O problema com versões anteriores

Os usuários relataram que o ChatGPT 5.2 frequentemente respondia como se presumisse que o usuário estava em estado de pânico, mesmo quando buscava informações diretas. O hábito do bot de oferecer conselhos não solicitados (“Respire fundo…”) ou garantias preventivas (“Você não está louco, só está estressado”) levou alguns a cancelar suas assinaturas.

O tom foi percebido como infantilizante e desnecessário. Um usuário do Reddit disse sucintamente: “Ninguém jamais se acalmou em toda a história de dizer a alguém para se acalmar”.

O que está mudando no GPT-5.3 Instant?

OpenAI afirma que a atualização se concentrará no tom, na relevância e no fluxo da conversa. O exemplo da empresa mostra uma mudança clara: onde o GPT-5.2 pode começar com “Em primeiro lugar, você não está quebrado”, o GPT-5.3 reconhece a dificuldade sem garantias desnecessárias.

A mudança é uma resposta direta ao feedback do usuário. A OpenAI até reconheceu isso no X, afirmando: “Ouvimos seu feedback em alto e bom som, e o 5.3 Instant reduz o constrangimento”.

Equilibrando segurança e usabilidade

A mudança da OpenAI reflete um desafio mais amplo no desenvolvimento da IA: como prevenir danos sem fazer com que as interações pareçam robóticas ou condescendentes. Embora os protocolos de segurança sejam cruciais, a IA excessivamente cautelosa pode alienar os usuários. A empresa parece estar aprendendo que respostas diretas e factuais são frequentemente preferidas ao apoio emocional não solicitado.

Como observou um especialista: “O objetivo não é substituir a empatia humana, mas fornecer ferramentas que aumentem a produtividade sem presumir que o usuário precisa de mimos”.

A atualização sugere que a OpenAI está recalibrando sua abordagem, priorizando uma experiência de usuário mais neutra e eficiente, ao mesmo tempo em que aborda questões legítimas de segurança.