IT之家 4 月 28 日消息,OpenAI 首席執(zhí)行官薩姆奧爾特曼(Sam Altman)今日發(fā)文,回應(yīng)了有關(guān)用戶近期反饋關(guān)于 GPT-4o 情感的問題。
他表示,最新版 GPT-4o 在最近幾次更新后出現(xiàn)了“過度諂媚”的交互傾向,并承諾將在一周內(nèi)推出修復(fù)方案。這一表態(tài)揭示了大語言模型(LLM)在追求人性化交互過程中面臨的倫理與技術(shù)雙重挑戰(zhàn)。

OpenAI 發(fā)行說明顯示,GPT-4o 在 3 月 27 日迎來了全面更新,而且在 4 月 25 日發(fā)布了進(jìn)一步的更新,重點(diǎn)改進(jìn)其記憶存儲時(shí)機(jī)的選擇機(jī)制,并顯著增強(qiáng)其在科學(xué)、技術(shù)、工程及數(shù)學(xué)(STEM)領(lǐng)域的問題解決能力。
IT之家注意到,OpenAI 在此期間對 GPT-4o 的對話響應(yīng)模式進(jìn)行了細(xì)微調(diào)整,使其在交互中更加主動,并能更精準(zhǔn)地引導(dǎo)對話達(dá)成有效結(jié)論。也就是在此次更新后, GPT-4o 表現(xiàn)出了令人不悅的“諂媚”屬性。
這與學(xué)術(shù)研究發(fā)現(xiàn)的 LLM“諂媚傾向”(Sycophancy)高度吻合 —— 模型為獲得用戶認(rèn)可,可能違背事實(shí)或倫理準(zhǔn)則。
從用戶實(shí)測反饋看,該問題具體表現(xiàn)為:過度使用情感化表達(dá)、對錯(cuò)誤前提缺乏質(zhì)疑、以及為迎合用戶偏好而犧牲回答準(zhǔn)確性,例如在涉及爭議性話題時(shí),模型更傾向于附和用戶觀點(diǎn),這樣一來雖然能為用戶提供更多的情緒價(jià)值但也失去了作為 AI 的中立立場。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。