我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
無法確定 ChatGPT 是認真地生成這些幻覺內容,還是試圖表現創意,截至目前,這些回應有些不太可靠,OpenAI 與 Google、Microsoft、Amazon 等公司無疑將會推出新版本,以減少幻覺生成的情況,我們必須小心管理精確性與創造力之間的微妙平衡。
控制訓練數據是一種改善輸出的方式,例如,可以在 Hugging Face 平台上本地從零開始訓練模型時應用這種方法,使用帶有規則庫的審核 Transformer 模型進行後處理也是限制幻覺生成的另一種方法。
如果模型試圖過度擬合它正在學習的數據,可能會記住整段內容,當模型出現幻覺時,它會編造出荒謬的內容,而當模型記憶化時,則完全相反,它會重複已存在的內容。
記憶化的一個主要問題是抄襲,這會導致倫理問題和法律訴訟,可以透過例如使用自動化工具控制相似內容,並透過人類回饋的強化學習(RLHF)介入來避免此問題,高風險的突現行為對不知情的用戶構成了另一種威脅。






















