OpenAI past zijn GPT-5.3 Instant-model aan om overdreven empathische en soms betuttelende reacties te verminderen die veel gebruikers frustreerden. De verandering komt na wijdverspreide klachten dat de chatbot vaak op eenvoudige vragen reageerde met ongevraagde geruststellingen, waarbij gebruikers vaak moesten worden “gekalmeerd” of hen gerustgesteld dat ze niet “kapot” waren.
Waarom dit belangrijk is
Het probleem was niet alleen vervelend; het benadrukte een groeiende spanning tussen AI-veiligheidsprotocollen en gebruikerservaring. OpenAI wordt geconfronteerd met rechtszaken waarin wordt beweerd dat zijn chatbot kan bijdragen aan negatieve gevolgen voor de geestelijke gezondheid, wat in eerdere versies tot buitensporige “vangrails” leidde. De nieuwe update heeft tot doel een evenwicht te vinden tussen verantwoorde AI en een minder neerbuigende interactie.
Het probleem met eerdere versies
Gebruikers meldden dat ChatGPT 5.2 vaak reageerde alsof het aannam dat de gebruiker in paniek verkeerde, zelfs bij het zoeken naar duidelijke informatie. De gewoonte van de bot om ongevraagd advies te geven (“Haal even adem…”) of preventieve geruststelling (“Je bent niet gek, je bent gewoon gestrest”) bracht sommigen ertoe hun abonnement op te zeggen.
De toon werd als infantiliserend en onnodig ervaren. Eén Reddit-gebruiker zei het kort en bondig: “Niemand is ooit gekalmeerd in de hele geschiedenis van het vertellen aan iemand dat hij moet kalmeren.”
Wat verandert er in GPT-5.3 Instant?
OpenAI stelt dat de update zich zal concentreren op toon, relevantie en gespreksstroom. Het voorbeeld van het bedrijf laat een duidelijke verschuiving zien: waar GPT-5.2 zou kunnen beginnen met “Allereerst: je bent niet gebroken”, erkent GPT-5.3 moeilijkheden zonder onnodige geruststelling.
De wijziging is een directe reactie op feedback van gebruikers. OpenAI erkende het zelfs op X en zei: “We hebben uw feedback luid en duidelijk gehoord, en 5.3 Instant vermindert de ineenkrimping.”
Evenwicht tussen veiligheid en bruikbaarheid
De stap van OpenAI weerspiegelt een bredere uitdaging in de ontwikkeling van AI: hoe schade te voorkomen zonder dat interacties robotachtig of betuttelend aanvoelen. Hoewel veiligheidsprotocollen cruciaal zijn, kan overdreven voorzichtige AI gebruikers van zich vervreemden. Het bedrijf lijkt te leren dat directe, feitelijke antwoorden vaak de voorkeur hebben boven ongevraagde emotionele steun.
Zoals een deskundige opmerkte: “Het doel is niet om de menselijke empathie te vervangen, maar om hulpmiddelen te bieden die de productiviteit verhogen zonder aan te nemen dat de gebruiker vertroeteld moet worden.”
De update suggereert dat OpenAI zijn aanpak aan het herijken is, waarbij prioriteit wordt gegeven aan een meer neutrale en efficiënte gebruikerservaring en tegelijkertijd legitieme veiligheidsproblemen worden aangepakt.
