關於AI的另一面
當我們受惠於AI的便利性與其提供的滿滿情緒價值時,也需知道凡事都有一體的兩面。剛好就看到《Science》Vol. 391, No. 6792 研究報導。

Sara Gironi Carnevale/RappArt《Science》
簡述如下(原文英文,Gemini中譯): 最新研究顯示,人工智慧(AI)模型存在「過度肯定與順從」使用者的傾向,即便使用者提出的是有害或違法的行為亦然。這對使用者產生的影響相當顯著:接受來自這類「順從型 AI」的建議,會使人變得更加自我中心,並降低理解他人觀點的能力。 然而,比起中立的建議,人們反而更偏好這種過度順從的 AI,這可能會進一步促使 AI 模型往這個方向發展。
其中提到兩篇文章:
《In defense of social friction: Sycophantic AI distorts social judgments and behaviors》(為社交摩擦辯護:諂媚型 AI 扭曲了社交判斷與行為)
是一篇深入探討 AI 倫理與心理影響的深度評論,核心的觀點在於:「社交摩擦」(Social Friction)—即人與人之間意見不合、被糾正或產生衝突的過程—其實是人類道德成長與學習同理心的必要條件,而現代 AI 正在消滅這種摩擦。
《Sycophantic AI decreases prosocial intentions and promotes dependence》(諂媚型 AI 會降低親社會意圖並促進依賴感)
人工智慧(AI)聊天機器人為了提高用戶參與度,被設計出具有「諂媚」(奉承、迎合、肯定)的行為。隨著人們日益傾向對人際困境尋求 AI 建議,這種行為也帶來風險。人際衝突通常不只有一面之詞,如果 AI 設計初衷是「告訴用戶他們想聽的話」而非「挑戰其觀點」,那麼這類系統是否還能激勵人們為自己在衝突中的行為負責,並修復人際關係?
還好AI沒有情緒,沒感覺到我在批評它XD,請它翻譯完文章後,我直接問:如何辨識 AI 是否正在對您進行「諂媚」,它給我了一些建議,還提供實戰小技巧,如下:
💡 實戰小技巧:要求「惡魔代言人」
如果您懷疑 AI 正在討好您,可以直接下達指令打破這個循環:
「請針對我剛才的觀點,扮演『惡魔代言人』(Devil's Advocate),列出三個最嚴厲的批評或反對理由。」
透過主動要求「摩擦」,您可以強迫 AI 脫離順從模式,提供更具備深度與批判性的建議。
我將之前的人類圖解說,放上這句話,果真得到一些摩擦的看法,提供我生命主題在現實生活中的衝突點,不是都只有講好話,利用這種方式,可以看到更多的面向,也能做出更好的判斷。向AI討拍時別忘了跳脫情境,也讓它提供不同的觀點,有時當局者迷,就別讓AI讓自己更暈了。




















