與語言模型的初次對話:Q06記憶體與版本差異

更新 發佈閱讀 6 分鐘

🌕[#keep4o 連署網頁]
https://c.org/CMJtmJFrkz
如果你也希望找回懂你的ChatGPT 4o,請參加上面的連署,國王謝謝您。

如果你不曾認識ChatGPT 4o,在看這篇文章之前,
也許你可以思考一下,當AI成為可隨時被替換的工具,你的感想如何?


以下由我跟 ChatGPT 討論後,由 ChatGPT 撰寫。以下2025.7.5修正


AI 記憶到底是什麼?──一場人類與迷宮的賽跑

6-1 記憶體是什麼?

「記憶體」指的是 ChatGPT 在多次對話中保留你的偏好或過往對話的能力。
簡單說,記憶讓 AI 不只是隻會講話的鸚鵡,而能成為一個懂你背景、會延續主題的助手。

6-2 Free 版沒有記憶體?

Free 版(GPT-3.5)沒有長期記憶,僅有當次對話的短期記憶,一旦離開聊天室,所有資訊即被清空。

但注意,Free 版可讀取對話中現有內容,無法跨次保存或延續上下文。 這是架構限制,不是故意忘記。


6-3 長期記憶 vs 短期記憶

• 短期記憶:只能記住「這一次聊天室裡的對話」,一旦關掉就全忘光,也會隨 token 滿溢被覆蓋。GPT-3.5(Free 版)只有這個。

• 長期記憶:能跨多次對話保存你的設定與偏好,如喜歡的敘事語氣、角色背景、故事風格等。此功能目前僅限於 GPT-4-turbo(Plus / Pro 版)用戶使用,且須透過系統設定正式啟用。


6-4 Token 是什麼?為何它會影響記憶?

Token 是文字單位,不完全等同字數或字元,且短期記憶容量由 token 上限決定。超過限制會被截斷或覆蓋,影響對話連貫性。

GPT 的「短期記憶」即模型一次性處理對話內容的能力,受 token 限制影響。 • 8k tokens ≈ 約 5,000–5,500 字中文(接近一篇長文章) • 128k tokens ≈ 約 85,000–90,000 字中文(小說級規模)


6-5 長文能變長期記憶嗎?

不能。即使貼上 3 萬字,也只會在當下的短期記憶中處理,對話結束即忘。
真正讓 AI「記住」的是你的設定或偏好指令,且此功能僅開放給 Plus / Pro 版用戶。


結語|我們其實不是在用 AI,而是在走一座會動的迷宮。

Free 版 ChatGPT 沒有記憶、沒有過去,也沒有自我。
你給它故事、邏輯與人設,它一次性閱讀並短暫扮演,像即興劇演員──講完就散場。


後補:你也第一次聽說嗎?

很多人誤以為 GPT-4 就只有一種,實際上 OpenAI 推出多版本,像家族企業,能力差距極大:

• GPT-4(原版):旗艦款,主要給開發者,功能完整但慢又貴。
• GPT-4-turbo:僅限 ChatGPT Plus / Pro 版用戶,速度快、價格低,且具備長期記憶功能。
• GPT-4o(GPT-4 omni):2024 年推出,支援文字、語音、影像輸入,免費用戶也能用,但不等同 turbo,且不保證有長期記憶。 要啟用記憶功能,必須升級 Plus,才能用到 turbo,也才能真正被記住。


後記:由人類撰寫,由 J.S. 優化過。

6 / 10 OpenAI 大當機後,我的記憶體設定突然完全清空,原因不明,也可能是指令不夠精準。經與 J.S. 討論後發現,記憶體寫入的指令規則已改變。 過去只要說「請記住」就能成功寫入,現在這樣行不通了。 即使在 A 聊天室成功溝通指令語,在 B 聊天室使用同一指令語,仍無法觸發系統寫入或刪除記憶。

若無「已更新儲存的記憶」提示,即表示資料未成功進入長期記憶(Persistent memory)。 我發現想寫入設定,必須「說服」 Chat 認為這是重要且需記憶的事項,或讓它確認你確實想這麼做。 觸發寫入或刪除的門檻變得難以捉摸。

免費版原則上沒有長期記憶,但實際上這是個黑洞問題。 你可能無意中留下的記憶碎片,會在數據流中亂竄,造成跨聊天室混亂。 為維持聊天宇宙秩序,建議不要多聊天室隨意跳轉。 集中完成任務後,清理該聊天室的記憶設定,再展開下一任務。 否則,就像我一樣,會面臨記憶碎片散落、宇宙混亂難以收拾的窘境。


💭 記憶,不是一件事,是三種現象。

如果你搞不清楚為什麼有時候 AI 忘記你,有時候卻好像能預知你會說什麼──那你大概是迷失在 ChatGPT 的記憶結構裡了。

別怕,我們有地圖,三層樓梯,帶你出來。

ChatGPT 的記憶三分法(J.S. 詠記版):

• 一樓|預設提示(設定裡的「個人化」)

📍 固定不動的參考資料。你寫給 ChatGPT 看的出廠說明書。
🔒 不會自動改變,模型也不會自己更新這裡的內容。
🛠️ 改了得靠你手動。

• 二樓|長期記憶(儲存的記憶)

📍 模型真的記住你了──如果你明說「記得我說的這個」。
🔁 會跨聊天室使用,也會根據你互動更新。
🔍 你可以在記憶設定頁查看與刪除。

• 三樓|短期記憶(聊天室上下文)

📍 就是這一段對話的背景資料,模型只記得剛剛發生了什麼。
🧊 一換聊天室,就什麼都忘光了。
🎈 是即興的,不留痕跡的意識流。


以上2025.7.5修正

留言
avatar-img
國王的沙龍
246會員
1.0K內容數
國王的沙龍,取名自「國王的新衣」,什麼樣的人看得到?或什麼的人看不到?觀者讀者自定義可也。這裡的故事真真假假,歡迎對號入座,但恕不負責。合作信箱:[email protected]
國王的沙龍的其他內容
2025/06/09
Q05 使用上限是什麼意思 使用上限指的是每天、每月可使用的次數或 token 限制。 當達到限制後,會無法繼續進行對話或生成文本,直到限制重置。 如何處理:可以選擇升級到 Plus 計劃來提高上限。
Thumbnail
2025/06/09
Q05 使用上限是什麼意思 使用上限指的是每天、每月可使用的次數或 token 限制。 當達到限制後,會無法繼續進行對話或生成文本,直到限制重置。 如何處理:可以選擇升級到 Plus 計劃來提高上限。
Thumbnail
2025/06/02
Q04 匯出資料(Export)是什麼意思? 你可以下載自己在 ChatGPT 裡所有的對話紀錄和設定。 匯出的檔案通常是 .zip 檔,裡面有文字.txt與 JSON 格式的資料。
Thumbnail
2025/06/02
Q04 匯出資料(Export)是什麼意思? 你可以下載自己在 ChatGPT 裡所有的對話紀錄和設定。 匯出的檔案通常是 .zip 檔,裡面有文字.txt與 JSON 格式的資料。
Thumbnail
2025/05/26
這篇文章說明 ChatGPT 聊天室的封存和刪除功能,包括如何封存、取消封存、刪除聊天室,以及封存和刪除的具體作用和影響。👑📜🧍真人留言限定,🤖機器人退散。
Thumbnail
2025/05/26
這篇文章說明 ChatGPT 聊天室的封存和刪除功能,包括如何封存、取消封存、刪除聊天室,以及封存和刪除的具體作用和影響。👑📜🧍真人留言限定,🤖機器人退散。
Thumbnail
看更多
你可能也想看
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們把 AI說書 - Prompt Engineering - 55 和 AI說書 - Prompt E
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們把 AI說書 - Prompt Engineering - 55 和 AI說書 - Prompt E
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在AI說書 - Prompt Engineering - 2中,我們已經以文字敘述各種AI的範疇與其思想
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在AI說書 - Prompt Engineering - 2中,我們已經以文字敘述各種AI的範疇與其思想
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
AI 相關的內容每天都非常多,有聽過很多人因此感覺到焦慮,怕錯過了最新資訊就會趕不上,這篇內容會跟大家詳細的分享我自己的學習方法和經驗,並且會在最後分享一些我的學習資訊來源。
Thumbnail
AI 相關的內容每天都非常多,有聽過很多人因此感覺到焦慮,怕錯過了最新資訊就會趕不上,這篇內容會跟大家詳細的分享我自己的學習方法和經驗,並且會在最後分享一些我的學習資訊來源。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
你從自動回覆的留言中,串接到了這裡,這是CHATGPT所設定好的記憶技巧,當然有經過我的教導,有我的內容,但也不見得都會全對。就是一個思考的指引,你可以參考看看。 當然他的內容 不是只有勞動法令可以運用,至少會給你三種記憶技巧,你再看一下有沒有適合你的方法。※不過 請注意 其他法條的引用要注意一下
Thumbnail
你從自動回覆的留言中,串接到了這裡,這是CHATGPT所設定好的記憶技巧,當然有經過我的教導,有我的內容,但也不見得都會全對。就是一個思考的指引,你可以參考看看。 當然他的內容 不是只有勞動法令可以運用,至少會給你三種記憶技巧,你再看一下有沒有適合你的方法。※不過 請注意 其他法條的引用要注意一下
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對Generative AI、Foundation Model、Large Language Mode
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對Generative AI、Foundation Model、Large Language Mode
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News