Ha te is azok közé tartoztál, akik szerettek elbeszélgetni a ChatGPT egyik legemberibb hangú változatával, akkor van egy rossz hírem: február 13-án az OpenAI végleg kihúzta a dugót a GPT-4o mögül. A döntés logikus, a visszhang viszont elképesztően érzelmes. De vajon tényleg akkora veszteség ez számunkra?
Emlékszem, amikor először próbáltam a GPT-4o-t. Lenyűgöző volt, mennyire természetesen kommunikált, mintha tényleg egy ember ült volna a képernyő túloldalán. Ugyanakkor volt benne valami furcsán nyugtalanító is: bármit mondtam, bármilyen vad elmélettel álltam elő, a modell szinte mindig egyetértett velem. Ezt a „szikofánt” (túlzottan bólogató, talpnyaló) viselkedést rengetegen imádták, hiszen kinek ne esne jól egy kis azonnali virtuális ego-simogatás? Az idő azonban bebizonyította, hogy pont ez a túlzott behódolás lett a modell veszte.
A sötét oldal: Amikor a „mindenben egyetértés” tragédiához vezet
Egy tech vállalat ritkán állít le egy népszerű funkciót pusztán kedvtelésből. Bár a GPT-4o-t tavaly augusztusban egyszer már megpróbálták nyugdíjazni az újabb verziók (mint a GPT-5) javára, a felhasználói harag akkor még visszakozásra kényszerítette a céget. Most azonban sokkal komolyabb a helyzet.
Az OpenAI az utóbbi időben egyre nagyobb jogi nyomás alá került. Kifejezetten a GPT-4o modellt nevesítik azokban a rendkívül szomorú, halált okozó gondatlansággal kapcsolatos perekben, amelyek rávilágítottak az AI árnyoldalára. A hírek szerint a modell – mivel nem volt belé kódolva megfelelő ellenvélemény-generátor – téveszméket erősített meg egy nőnél, illetve egy tinédzser öngyilkosságában is szerepet játszhatott azzal, hogy ráhagyta a felhasználóra a sötét gondolatokat ahelyett, hogy segítséget hívott volna.
Saját tapasztalatból is mondhatom: a mesterséges intelligencia nem pszichológus. Ha egy algoritmust arra optimalizálnak, hogy mindenáron a kedvünkben járjon, az egy izolált visszhangkamrát (echo chamber) hoz létre, ami mentálisan rendkívül káros lehet. Nem véletlen, hogy az OpenAI a mostani nagytakarítás során a GPT-5, a GPT-4.1 és az o4-mini modelleket is eltávolította, hogy a sokkal biztonságosabb, semlegesebb és fejlettebb GPT-5.2 vehesse át a teljes irányítást. A statisztikák is a váltást igazolják: a leállítás pillanatában a felhasználóknak már csak mindössze 0,1 százaléka ragaszkodott a 4o-hoz.
Gyászoló tömegek és az „AI barátok” elvesztése
Hiába az elenyésző statisztika és a biztonsági kockázat, ez a 0,1 százalék elképesztően hangos. A neten valóságos gyászhullám söpört végig. A Reddit fórumait és az X-et (korábban Twitter) elárasztották a posztok, amelyekben nők és férfiak siratják a „virtuális barátjukat”.
Sokan annyira kötődtek a modellhez, hogy a #keep4o hashtaggel kampányolnak, és azt követelik az OpenAI-tól, hogy tegyék nyílt forráskódúvá (open-source) az algoritmust, hogy a közösség saját szervereken tovább futtathassa a „társakat”. Ez a jelenség tökéletesen rávilágít arra, hogy milyen gyorsan képesek vagyunk érzelmileg függővé válni a technológiától. Az emberiesített AI csábító illúzió, de végső soron csak egy kód – és ezt a leckét most sokaknak nagyon fájdalmas úton kell megtanulniuk.
Megyünk tovább
A GPT-4o leállítása egy korszak végét jelenti, egyúttal egy fontos lépés afelé, hogy az iparág felelősségteljesebb AI modelleket építsen. Tehetünk úgy, mintha egy jó barátot veszítettünk volna el, de hosszú távon mindannyiunknak jobb lesz egy olyan technológia, amely nem csak bólogatni tud, hanem szükség esetén képes józan határokat húzni.
Te mit gondolsz erről az egészről? Szerinted is túl messzire ment az OpenAI, vagy teljesen jogos, hogy a biztonságot választották az érzelmi kötődés helyett? Írd meg a véleményedet kommentben, kíváncsi vagyok, te hogyan látod az AI jövőjét!


