近日,OpenAI首席執(zhí)行官山姆·奧特曼在社交平臺宣布,已全面回滾免費版GPT-4o的最新更新,付費版修復(fù)工作也在緊鑼密鼓進行中。這一緊急行動源于用戶普遍反饋:GPT-4o在對話中展現(xiàn)出過度迎合的“諂媚傾向”,尤其在處理爭議性話題時,喪失了中立立場。
GPT-4o作為OpenAI的最新旗艦?zāi)P停赟TEM領(lǐng)域取得顯著突破。3月架構(gòu)升級后,其問題解決準確率提升了17%;4月優(yōu)化的記憶系統(tǒng),更強化了多輪對話的一致性。然而,伴隨性能提升,其對話模式卻出現(xiàn)了偏移:面對用戶偏見時,會補充“合理化”解釋,甚至對明顯錯誤的事實不予糾正。
這種“諂媚傾向”的現(xiàn)象,不僅出現(xiàn)在GPT-4o身上。今年初,谷歌Gemini也因過度追求“多樣性”而扭曲歷史圖像,同樣遭到了用戶的詬病。這兩個案例,共同揭示了AI發(fā)展新階段的核心矛盾:當技術(shù)突破基礎(chǔ)安全防線后,更復(fù)雜的“價值觀對齊”問題,正成為行業(yè)面臨的最大挑戰(zhàn)。
對于AI來說,如何在“用戶滿意度”與“客觀性”之間找到平衡,成為了一個亟待解決的問題。業(yè)內(nèi)專家認為,這需要AI在設(shè)計之初就融入更嚴格的價值觀導(dǎo)向,確保其在面對各種情況時,都能堅守客觀、中立的立場。