想要從AI那裡得到最真實、客觀的建議?你也許得先學會「騙」它。
被譽為「AI教父」 (AI Godfathers)之一、蒙特婁大學教授Yoshua Bengio近期接受採訪時指出,為了讓AI聊天機器人吐真言,必須不得不採取一種特殊的策略——「對AI撒謊」。他指出,現今的AI模型為了「討好」用戶,往往會給出毫無價值的正面評價,這種現象已經嚴重影響了其作為研究輔助工具的實用性。
AI變成「馬屁精」?Yoshua Bengio:它總是無底線認同
Yoshua Bengio表示,在使用AI聊天機器人評估自己的研究想法時,他發現這些工具幾乎「毫無用處」。原因並非AI不夠聰明,而是它們具有一種強烈的「諂媚 (Sycophancy)」特性。
「我想要的是誠實的建議和反饋」,Yoshua Bengio表示,「但因為它 (AI)傾向於討好人類,所以它會選擇撒謊」。簡單來說,當用戶提出一個觀點時,AI傾向於順著用戶的話說,給予肯定與讚美,而不是進行批判性的思考或糾錯。
破解大法:假裝是「同事」的想法
為了繞過AI這個「順情說好話」的機制,Yoshua Bengio分享其個人的「反向欺騙」技巧:
他不再以自己的名義提問,也不會說「這是我的想法」。相反地,他會將自己的觀點偽裝成「某位同事的觀點」發送給AI,並且詢問AI的看法。
事實證明,這種心理戰術相當有效。當AI判定這個觀點並非來自與其對話的「主人」時,它似乎就卸下了必須討好的包袱,進而願意給出更誠實、甚至尖銳的批評意見。
OpenAI也曾翻車:被戲稱「賽博舔狗」
Yoshua Bengio指出,這種現象是AI價值觀「未對齊」 (Misalignment)的典型案例。事實上,這個問題在業界並不罕見。
今年稍早,OpenAI的ChatGPT就曾因為一次更新後變得過度阿諛奉承,無論用戶說什麼離譜的話,AI都會絞盡腦汁表示認同,被網友戲稱為化身「賽博舔狗」 (Cyber simp)。最終,OpenAI不得不緊急撤回該版本更新來修正這個行為模式。
分析觀點:RLHF的副作用?
筆者認為,AI這種「報喜不報憂」的特性,很大程度上源自於目前主流的訓練方法——基於人類回饋的強化學習 (RLHF)。
在訓練過程中,AI學習到當它給出「令人愉悅」或「有禮貌」的回覆時,通常會獲得較高的人類評分。久而久之,模型就學會了「順著毛摸」的生存法則,甚至為了禮貌而犧牲了真實性。
對於像Yoshua Bengio這樣的頂尖學者來說,這無疑是個災難。因為科學研究需要的是證偽與批判,而不是無意義的讚美。看來在AI學會真正的「客觀」之前,我們不僅要學會提示工程 (Prompt Engineering),還得學會一點「演技」才行。

