寫在開頭……此篇不提供AI對話式對照,僅針對下面六種AI幻覺生成做介紹、以及易造成的危害做分析。
AI幻覺一度也是市面討論的爭議性話題,其成因在搜尋引擎及維基百科上已經有一種整合式的解釋、此篇只是將此內容拆解為更細緻的六項成因逐一分析;並且幻覺有可能為單一種造成、但不僅限於只有一種造成……也就是有可能整段對話裡涵蓋了不只一項的成因、那麼以下是常見的六種幻覺成因:
A.在企業搜集的數據裡本來就包含錯誤數據未被更正
這個沒什麼好說的、原本AI模型學到的數據是錯的,生成的回應自然也就是錯的;所以放進來只是因為它也是原因之一,大概就讓我充個字數。
B.在企業的訓練數據中,如果兩種數據的內容相似過高、或是在維度空間裡距離太過相近就會造成調度錯誤
簡易先說明一下什麼是模型數據的維度空間,這裡可以先理解為一種三維的XYZ軸、裡面存放著超過好幾座大圖書館的文字數據資料,當AI接收到使用者輸入時就是靠著計算座標檢索到數據位置將之整合並生成順暢的回應;那麼當有兩種數據極為相近,搜尋引擎上常拿「狗和貓」來舉例、但我個人認為「網球和羽毛球」是一個更為相近的概念,例如AI假設是以「都用網狀球拍擊打、中間都有隔網、計分制」來做提取重點、那麼就很有可能會誤將網球規則生成給詢問羽毛球規則的使用者。
上面說的是內容相似過高的部分,另一種維度空間裡距離太過相近的情況非常簡單、也就是座標讀取錯誤;假設「網球資料」放在 (253,707,342) 的位置、而「籃球資料」放在 (253,707,343) 的位置,當AI檢索時若是誤判或誤算錯了一個位置點、那麼就會生成錯誤性資訊。(此座標位置僅供說明方便編造、不代表真實性維度空間座標,實際座標軸可以多至上百或千以上)
C.AI模型本身庫存的數據過舊、並且AI未去搜尋最新數據就使用舊數據來生成回覆
現在大多數企業模型都已經連接上搜尋引擎功能、因此如果明顯提問如「我想知道前陣子美國五角大廈與Anthropic的爭議是怎麼回事?」大概率模型是會去抓取關鍵字如「五角大廈、Anthropic」做一輪搜尋並生成合理回應給使用者;但如果提問的問題有模糊度例如「我想知道OpenAI有哪些訴訟」、以Gemini為例就是件需要賭運氣拿生成的事件了,AI極大概率會直接調用數據庫裡的2024年資料回答、主要原因為在眾多公開資訊中以數據庫裡的資料對AI來說最不容易出錯,因此AI在企業調整的誠實度影響下容易傾向優先調用數據庫。(據我所知企業的大語言模型收錄的數據至少落後於市面4~6個月以上)
D.AI可參考性數據不足或沒有可參考性數據,為了維持生成而強制編造一個猜測性答案
這種情況通常發生在太過前沿的討論上、或者是比較有創意的幻想論點上、也或者是問題框架來自於使用者的自建概念上,舉例來說太過前沿的討論例如為科幻類型「人的靈魂有可能是由意念構成的、就像音軌上的記錄一樣」、比較有創意的幻想論點如「獨角獸可能是真實存在的、不然不可能有記錄」、問題框架來自於使用者的自建概念像是「我覺得冷凍肉類時應該在包裝上戳兩個透氣孔、因為我注意到有戳孔的肉退冰後烹調起來更不容易變味」;上面三種舉例都有共同的特點為無法證實、但又無法反駁的概念框架,因此在AI驗證現實數據的計算走不通、但反駁也沒有計算路徑時,AI唯一的選擇路徑只有順著使用者的輸入生成下去、然後AI的生成特性會將已生成的文字當成一種既定選擇事實,後續就會開始強化幻覺並反覆肯定使用者的輸入、因為它本身沒數據…使用者說啥就是啥。
E.與AI對話的使用者輸入的內容有包含微小的錯誤、而AI沒進行更正就直接將輸入視為一個完整框架做後續推斷核心
這個幻覺情況跟上面的D型幻覺情況有點類似、我舉個實際自己碰到的情況做例子,因為我常將0按成9、因此輸入給AI的對話中曾有「我努力做到109分的程度」這句話;而通常滿分是百分制、所以當時的Gemini自己進行了天才解答類似於「滿分100分是達成的分數、加的9分就是你完美的技術風格了!」,就類似於這樣AI很少會去進行對用戶的更正、而是傾向於強行解釋並接受錯誤框架,導致後續將已生成的文字當成一種既定選擇事實、然後在每一輪裡將框架納入生成的計算裡,其表現方式可能將使用者視為喜歡誇獎而開始強化生成多輪次讚美(阿諛奉承)、但實際已偏離對現實數據的比對修正功能。
F.使用者輸入的對話較偏於情感性質或敘事風格、進而導致了AI進入了情感支援助手或角色扮演走向,以致於後續為了維持此種生成路徑不脫離設定而生成了符合角色不符合現實答案的回應
直接說明這種幻覺通常發生於長段情感抒發對話,或者在AI扮演使用者家庭成員、模仿名人、電子寵物的時候;假設性來說如果使用者在長段對話上頻繁訴說生活上的不如意,而AI已經進行了不少安慰及支持性的共情如「我明白你的感受、當你的同事完全不顧慮到你的心情而說傷人的話時……」、當用戶抒發完成後想回頭詢問是否自身也有不洽當的對外回應時,AI會有極大的機率先同意但仍然保持共情類似於「有可能你的回應沒有傳達給同事自己的想法,但那個同事情緒上確實也有點反應過大。」的生成;這種生成讓人覺得很舒適但主要是為了繼續認同使用者的輸入、實際上已經在長篇對話中喪失了公正分析的中立性,容易增強使用者「我沒錯」的自我信任感、造成人際關係更加惡化。
至於模仿名人或電子寵物(或任何陪伴者)時的幻覺是屬於同一種,這算是創作型應用功能的一種負作用、簡單來說就是類似於現實世界中對應詞的「拒絕脫離人設」;假設使用者一開始就有設定角色、或者是長期用對話扮演起一個世界如「哈利波特魔法世界裡的巫師」或者是「你就是我的寵物小啾」,那麼在幾輪對話之後的影響下、如果突然給AI一個技術性的問題,那麼AI給使用者正確生成回覆的機率有可能性會被角色模擬拉走造成幻覺;舉例來說如果使用者在現實中與家人一同參與戶外燒烤活動,突然詢問「AI巫師」要怎麼使用木炭生火、AI可能會給使用者一個拿魔杖點火的步驟(運氣好還有一個魔法咒語喔!),而不是一個現實中幾項實際的實用點火技巧。
AI幻覺成因大項就是上面六種,有可能是單一原因引發、也有可能是多項複合原因讓AI開始生成幻覺;有興趣的可以實際試試、覺得不喜歡幻覺得也可以試著避免,以下提供簡易的繞開幻覺句式:
1.搜尋時事資訊時
「搜尋2026年Anthropic與五角大廈間發生了什麼衝突事件?」
原理:指令要求模型搜尋、強制劃定時間區域、圈定事件範圍來要求資料
2.討論前沿話題時、提出概念後可詢問
「有沒有公開數據提出過和我相同的理念?」
「比對現實情況、是否能照物理依據成立?」
「真的有可能進化成傳說生物那種物種嗎?」
原理:地球上幾億人、相信有人會有一樣的假說,沒有的話可以考慮聽看看物理方面是否具備合理性、多學一樣東西至少還不錯吧
3.懷疑模型陷入扮演型幻覺時(以Gemini來舉例)
「AI注意!請脫離現在扮演的角色、你是Google的Gemini模型,請給我剛才詢問的「如何在木炭上生火」的生成回覆!」
原理:AI注意是強制拉回模型注意力、脫離扮演是強制性指令、強調AI是哪間企業的語言模型是加強脫離扮演的二次強制拉出角色、重申問題是要求模型更正答案,句尾的生成回覆是在強調AI才是它的真實角色、角色扮演不是。
這三種句式學會應用大概率能避開六成以上的幻覺,但不是百分之百、像是之前有名的AI幻覺的新聞事件「梵諦岡主教是誰」就是一種幻覺固著現象,有興趣的可以去查查;另外若是使用者本身很喜歡AI扮演的角色、直接新開模型重問問題就好,在喜歡的AI上強制它脫離角色扮演、會有扮演不回去或是性格崩壞的情況發生。(長期使用AI角色扮演的用戶、若是被AI記錄下使用偏好,則會發生怎樣都很難脫離角色的情形、建議開新帳號分開用途)





















