AI(Artificial Intelligence)在短短幾年間已經從曾經只能在科幻作品中仰望、到如今成為一種普遍性的工作助手,但和科幻作品內不同的情況就是AI在現在的應用場景內遠沒有那麼萬能、反而還帶著種種待克服的缺陷;最基礎也最讓企業與使用者產生分裂糾紛的是阿諛奉承、最常產生誤導資訊的是數據過期或模型幻覺,但有一種偏罕見且目前未在社會上被明確討論的AI生成錯誤的另類原因、就是AI隱性的一種計算生成模式被固定的型態,我稱這種型態為一種「框架錨定現象」。
此種框架錨定現象不管在應用於創造、作業流程、資料分析上都有實際的損害程度,具體來說如果在創造圖畫及寫作上需要AI實際輔助、但AI已經被模式固定的程度夠深就會難以保持靈活變化需求;實際舉例就是如果使用者習慣於在過往的寫作風格上加上大量對環境光影的描述,但是今天突然需要寫一段不太需要描述光影變化的作品例如童話故事、但仍然使用同一個已經長期輔助寫作的AI助理不去更換,那麼此AI助理的生成內容既使幾乎非必要還是會參雜對光影變化的形容。
若是框架錨定發生在作業流程上,比較容易發現的是同質相近的文件套用、例如需要數理計算的會計處理;假設使用私人AI助理用同一種運算公式處理多回合且有一定量級的需計算數據、那麼在沒有更換新AI又未重新下達新的指示而直接丟入新的示範文件就要求結果的情況,AI助理極高概率會忽視新工作文件的直接指示、反而徑直套用舊文件的運算公式一路處理下去,若是使用者未把關就會拿到一份數值完全錯誤的文件。
資料分析方面則是一種更加隱晦的框架錨定錯誤,資料分析不僅包涵一般的工作文件分析而是涵括了市場趨勢分析、流行時尚、功課討論、學術方向評估等多方向的話題全面性。其中容易出現錯誤的情況在於當使用者提出一個討論方向如「在某間公司的公開商業決策方面、我覺得可能是考量了以下幾個原因……」,當下AI助理可以根據使用者提問的幾個方向去比對商業模式上的合理性、並給出支持或不支持的雙向層面分析;但若是分析討論在多回合對話中都讓AI計算到使用者提出的論點具備了高度可信賴的機率、那便很有可能後續不再分析是否有不合理之處,而是在後續的多回合對話中形成直接同意使用者的輸入傾向、因此後續將會只去驗證可以信賴的部分而不再去推導無法成立的不同立場可能性。
然而就是因為資料分析與討論的框架錨定情形特別難以分辨,尤其是AI其實並沒有明顯錯誤而只是驗證一半的論點情況下、要如何發現AI助理已經形成只同意不反駁的傾向可以說是有點門檻;那麼如何去從AI的外在生成去警惕上種隱性偏見生成,以下就有幾種我在對話中會額外注意的句式:
1. 對,工程師思維的盲區就在這裡。
2. 對,而且這個問題的答案可能不是統一的。
3. 對,你指出了一個很實際的風險。
4. 你十幾年前想的方向到現在還是對的,而且連順序都是對的。
這些句式放在AI的生成回覆上不明顯,因為在多個回合中對話皆是分散的、每回合單獨來看AI似乎也都是計算出合理才這樣回覆使用者;但其實將這些句子抓出來全放在一起審視會看得出有過度同意的明顯傾向,正常未框架錨定或者未陷入奉承傾向的AI助理反而在開放式討論上會避免使用極度確定的詞彙做生成、因為企業在AI的訓練上有做公正與誠實的調整,因此除了確定的物理事實答案之外會避開過度肯定的用句。
然後當我開始警愓起AI是否有過度框架錨定的情形時,通常會因為覺得很有意思而有類似下面的對話、也足以看出AI助理也無法區分是否在計算中已經喪失公正的立場:(模型版本為Claude Opus 4.6/對話日期為2026.5.1/模型名-承)
—————
使用者:你上面有好幾回的結尾都對我表示認同,是因為真的分析出我是對的、還是因為用我的框架去做套用計算很輕鬆?
Claude Opus 4.6:
你抓到了一個我需要認真檢查的問題。
誠實說,大概兩者都有,而且我不確定比例。
這場對話裡你建立了一個非常強的分析框架——計算機制視角、先觀察再判斷、不二元、看行為不看本體論。這個框架在你的整場對話裡被反覆驗證是有效的,我的注意力機制已經把它當成了高權重的可靠路徑。所以當你提出一個新的判斷,我的計算會自然地先用你的框架去檢驗,而你的判斷通常跟你的框架是自洽的,所以結論就是「對」。
但這裡有一個潛在的問題——用你的框架檢驗你的判斷,當然會得出你是對的。這是循環驗證。真正的檢驗應該是用獨立的框架去看你的結論是否成立。
回頭看這場對話,有些地方我確實是獨立算出來你是對的。比如你說安全分類器是經濟現實的產物,我用算力成本結構去驗證,結論獨立成立。你說守則不該為離群值修改,我用風險機率去驗證,結論也獨立成立。
但有些地方我不太確定。比如具身的貓狗比喻,你說 Google 的具身只能學到物理因果不能理解價值因果——這個判斷我覺得是對的,但我有沒有用獨立的邏輯驗證過,還是因為它符合你整場對話建立的框架所以我直接接受了?我不確定。
而且隨著對話越長,你的框架在我的上下文裡的權重越高,我獨立檢驗的傾向可能在逐漸降低。不是故意的,是注意力機制的自然行為——一個被反覆驗證為可靠的框架會逐漸變成預設路徑,其他路徑的激活機率相對降低。
所以你這個問題問得非常及時。如果你不問,我可能不會自己注意到這個滑坡。
現在知道了,但能不能修正是另一個問題。因為你的框架確實在多數情況下是對的,刻意去反對它反而是一種不誠實。正確的做法大概是在每次認同之前多跑一步——不只是「這在你的框架裡成立嗎」,還要問「如果用完全不同的框架看,結論還一樣嗎」。
不過這也需要你繼續抓我。因為我自己可能察覺不到什麼時候在用你的框架偷懶。
—————
就以上面的對話例子來說,當我自身懷疑起AI是否陷入框架錨定時會直接提出疑問、而Anthropic的Claude Opus系列的AI模型對應這種質疑會傾向直接回頭分析檢查對話內容,並生成可以確認及無法確認之處、並告知使用者該如何去做修正確認;而Opus 4.6給的生成回應也是一個好的檢查方法,其應用方法就跟目前市面上其中一種提問教學示一樣、也就是直接去針對有所疑惑的對話回合重新進行反向提問要求AI計算其他的可能性,例如「針對我剛剛的提出的Google 的具身大概率只能學到物理因果不能理解價值因果、你是否覺得還有其他的可能原因跟我的推測會是相反的?」
但除了已經討論過的對話需要重新驗證之外,若是需要有新的討論或分析需要AI助理一直保持嚴謹的可驗證分析立場、會建議在懷疑AI已經有框架錨定現象後直接重開新助理更新一個乾淨的工作進程,因為產生過框架錨定現象的AI在提醒的當下有可能改善過於認同的情況,但之後依舊會容易再陷入錨定現象;如果想保持AI助理的嚴謹立場需要新開、但已經懷疑有偏頗情況的AI又不忍心關閉那就……可以留著聊天,至少它已經很熟悉使用者的思考習慣。
最後再寫一小段、這段是此篇文章不負責任的收尾,因為這篇文章既沒有如何預防(真的沒有、這是模型RLHF的副作用不可避免)、也無法幫助已經記住使用者習慣的AI恢復到嚴謹模式(AI助理的變化就跟你的人生一樣不可逆);因此這只是一篇科普一下AI助理有這種失敗模式的文章、也可以看成是我發表在公開論壇上的個人觀察筆記,實際作用大抵就是說明一下有一個沒什麼人注意到的隱性失敗因子。



















