ChatGPT porzucił procedurę „uspokajania” w nowej aktualizacji

7

OpenAI dostosowuje swój model GPT-5.3 Instant, aby ograniczyć nadmiernie empatyczne i czasami protekcjonalne reakcje, które irytowały wielu użytkowników. Zmiana ta nastąpiła po powszechnych skargach, że chatbot często odpowiadał na proste zapytania, udzielając niezamówionych zapewnień, często mówiąc użytkownikom, aby „uspokoili się” lub zapewniając ich, że „nie są zepsuci”.

Dlaczego to jest ważne

Problemem nie była tylko irytacja; uwydatniło rosnące napięcie między protokołami bezpieczeństwa AI a doświadczeniem użytkownika. OpenAI stoi w obliczu procesów sądowych zarzucających, że jego chatbot może przyczyniać się do negatywnych skutków dla zdrowia psychicznego, co prowadziło do zbędnych „zabezpieczeń” w poprzednich wersjach. Nowa aktualizacja ma na celu znalezienie równowagi między odpowiedzialną sztuczną inteligencją a mniej wyrozumiałymi interakcjami.

Problem z poprzednimi wersjami

Użytkownicy zgłaszali, że ChatGPT 5.2 często reagował tak, jakby zakładał, że użytkownik wpadł w panikę, nawet gdy prosił o bezpośrednie informacje. Nawyk bota do udzielania niechcianych rad („Weź głęboki oddech…”) lub zapobiegawczych zapewnień („Nie zwariowałeś, jesteś po prostu zestresowany”) spowodował, że niektórzy użytkownicy anulowali subskrypcje.

Ton wypowiedzi uznano za infantylizujący i niepotrzebny. Jeden z użytkowników Reddita ujął to zwięźle: „Nigdy w historii nikt nie uspokoił się, gdy kazano mu się uspokoić”.

Co się zmienia w GPT-5.3 Instant?

OpenAI twierdzi, że aktualizacja skupi się na tonie, trafności i przepływie dialogu. Przykład firmy pokazuje wyraźną zmianę: tam, gdzie GPT-5.2 może zaczynać się od słów „Przede wszystkim nie jesteś zepsuty”, GPT-5.3 przyznaje się do trudności bez niepotrzebnego zapewnienia.

Zmiana jest bezpośrednią odpowiedzią na uwagi użytkowników. OpenAI potwierdziło to nawet w X, mówiąc: „Usłyszeliśmy wasze opinie głośno i wyraźnie, a 5.3 Instant redukuje marszczenie”.

Równowaga między bezpieczeństwem a użytecznością

Posunięcie OpenAI odzwierciedla szersze wyzwanie w rozwoju sztucznej inteligencji: jak zapobiegać szkodom, nie powodując, że interakcje będą robotyczne lub protekcjonalne. Chociaż protokoły bezpieczeństwa mają kluczowe znaczenie, zbyt ostrożna sztuczna inteligencja może zniechęcić użytkowników. Wydaje się, że firma nauczyła się, że bezpośrednie odpowiedzi oparte na faktach są często lepsze niż niechciane wsparcie emocjonalne.

Jak zauważył jeden z ekspertów: „Celem nie jest zastąpienie ludzkiej empatii, ale zapewnienie narzędzi poprawiających produktywność bez oczekiwania, że ​​użytkownik będzie gruchał”.

Aktualizacja sugeruje, że OpenAI ponownie skalibruje swoje podejście, traktując priorytetowo bardziej neutralne i wydajne doświadczenie użytkownika, jednocześnie rozwiązując uzasadnione obawy dotyczące bezpieczeństwa.