Prompting 知識養成 Day33

更新 發佈閱讀 6 分鐘

第33天:提示工程進階「反思(Reflexion)」

1. 反思(Reflexion)的定義

▹核心概念:
「反思」是一種能夠協助 LLM 達成自我學習與進化的進階提示技術,主要結合了「思維鏈 (CoT)」與「自我修正(Self-Correction)」。
透過反思Prompt模板的指令,LLM 可在生成內容後,先進行自我修正,然後檢視自我修正與原初生成內容的對照,形成一個「對自我生成內容的系統性回顧、反思與批判」的工作歷程,並將這些反思結果納入未來的決策中,從而實現持續性的自我改進。
也可以說,「反思」是一種持續自動化的回溯與修正機制。


2. 反思(Reflexion)的本質和實施條件

▹「是設置在應用程式的提示工程技術」:
「反思」通常是在應用層 (Application Layer) 實現。透過Prompt模板的設計,來引導、指示 LLM 依序執行「生成」、「評估」、「反思」和「記憶」等步驟,從而協助 LLM 完成整個「反思」歷程。

▹「是一個包含了『自我修正』的工作流」:
「反思」可說是「自我修正」的超集。「反思」首先包含了一次性的自我修正循環,然後再增加了「生成反思」和「記憶儲存」這兩個核心功能,完備了整個「反思」,形成一個閉環的工作流。藉此,LLM 才能對錯誤經驗中得到學習,並避免再犯,實現長期的自我進化。

▹「應用『反思』的 LLM 必須足夠強大」:
雖然「反思」通常是在應用程式端設置,但要實現「反思」仍要求 LLM 本體必須具備以下能力:
(a)強大的推理能力:有能力依據反思Prompt指示,執行複雜的自我評估和反思。
(b)龐大的上下文 (Context):能夠在單一對話中容納大量的「反思報告」,或者有能力調動外部「記憶庫(ex向量資料庫)」,存取過往的經驗。

▹「是多方配合、通力合作的成果」:
「反思」要能實現,以下三方缺一不可:
(a)應用程式端→良好的 Prompt 模板設計,協調流程
(b) LLM 本體→可乘載大上下文,與強大推理能力(如上段所述)
(c)外部資料庫→才能讓反思真正持續生效


3.「反思」的運作流程

前面已提到「反思」是一個包含了『自我修正』的工作流。所以,在開始說明「反思」的運作流程之前,我們可以再多了解一點「反思」與「自我修正」的關聯。同時也先回顧一下「自我修正」的工作流。

▹「自我修正」的升級版
相較於「自我修正」,「反思」是一個更為複雜和持續的過程。不同於「自我修正」是讓 LLM 做出一次性的修正,「反思」不僅止於檢查當前的生成內容(i.e.自我修正),更要求 LLM 進一步地檢視原初生成內容與修改版之間的差異,藉此「反思」LLM的整個思考決策(CoT)過程,然後再將這些反思的內容「記憶」保存下來,如此便可讓 LLM 用以指導未來的決策,避免未來犯同樣的錯誤。

▹「自我修正」的工作流
(請參考之前筆記所做的簡圖)

「反思」的運作流程,就是奠基在上面這個流程之上,再增加了「反思生成」與「記憶儲存」的步驟。下一部分便會展開說明。

▹「反思」的運作流程
作為一個閉環的代理人工作流 (Agentic Workflow),「反思」的運作流程是一個由應用程式(as a Coordinator) 與 LLM(as a content Generator)共同完成的「閉環對話」。

主要階段有:

(a)初始行動 (Initial Action)
◇應用程式端的 Prompt 模板:標準的(1st)初始 Prompt 提供給 LLM。
◇ LLM:產出完整的生成內容和推理過程,回傳至應用程式端。

(b)自我評估 (Self-Evaluation)
◇應用程式端的 Prompt 模板:
將 LLM 產出的「生成內容」+「(2nd)自我檢視 Prompt」( Prompt:請嚴格審查並評估這個生成內容,檢查是否準確、邏輯是否有漏洞、是否完整),一併提供給 LLM。
◇ LLM:產出評估結果,回傳至應用程式端。

(c)反思生成 (Reflexion Generation)
◇應用程式端的 Prompt 模板:
將 LLM 產出的「生成內容」+「評估結果」+「(3rd)反思報告 Prompt」( Prompt:請根據這份評估結果進行反思,並提供「結構化」的「反思報告」包含內容:核心錯誤、為何錯誤、未來改進),一併提供給 LLM。
◇ LLM:
接收到(大量)完整上下文後,LLM 生成一份專屬此事件的「反思報告」,回傳至應用程式端。

(d)記憶儲存 (Memory Storage)
◇應用程式端的 Prompt 模板:
將 LLM 生成的「反思報告」(完整或精要節錄) 儲存在外部資料庫(ex向量資料庫/Vector Database)。

(e)再行動 (Re-Action)
◇應用程式端的 Prompt 模板:
當下一次類似、同質的新請求提出時,應用程式會進行:
1-先執行RAG步驟,搜尋外部資料庫,提取出所有相關的過往「反思報告」。
2-將所有相關「反思報告」+新的用戶請求+Promt (請參照反思報告完成用戶請求),一併提供給 LLM。
◇ LLM:
因參考「反思報告」避免再犯,而能一次就產出優質的生成內容。 (**重要說明:這也正是「反思」與「自我修正」最大區別:因持續記憶並應應用於之後行動,從而避免重蹈覆徹。)

留言
avatar-img
不是雞湯,但是又如何
4會員
515內容數
不是雞湯,但 是又如何 不是雞湯,但是 又如何
2025/08/19
第32天「思維樹 (Tree of Thoughts, ToT)」 --進階思維鏈 (Advanced Chain of Thought, CoT) - 1. 思維樹(ToT)  v.s 思維鏈(CoT)  我理解思維樹,像是將思維鏈的前後發展起來。前,是指在開始時,要進行的不只有一個方向/路
2025/08/19
第32天「思維樹 (Tree of Thoughts, ToT)」 --進階思維鏈 (Advanced Chain of Thought, CoT) - 1. 思維樹(ToT)  v.s 思維鏈(CoT)  我理解思維樹,像是將思維鏈的前後發展起來。前,是指在開始時,要進行的不只有一個方向/路
2025/08/13
第31天:保護性提示 (Protective Prompting) 之前已經學過「Safety & Ethical Considerations」(第21天的內容),那時提到了鑑於 LLM 的功能強大,必須給予安全性&倫理考量上的規範限制,避免 LLM 生成有害內容,包含: ▪︎ 偏見 (Bias
2025/08/13
第31天:保護性提示 (Protective Prompting) 之前已經學過「Safety & Ethical Considerations」(第21天的內容),那時提到了鑑於 LLM 的功能強大,必須給予安全性&倫理考量上的規範限制,避免 LLM 生成有害內容,包含: ▪︎ 偏見 (Bias
2025/08/12
第30天:提示壓縮 (Prompt Compression) 想像一個日常用戶與 AI的對話場景,用戶一口氣輸入一大篇長文/資訊/對話...etc.加上需求,希望得到解答。 按照我們已經算是相當熟悉的工作流程,應用程式在收到完整長篇內容後,會直接與任務需求打包成一個巨大的 Prompt,直接發送
Thumbnail
2025/08/12
第30天:提示壓縮 (Prompt Compression) 想像一個日常用戶與 AI的對話場景,用戶一口氣輸入一大篇長文/資訊/對話...etc.加上需求,希望得到解答。 按照我們已經算是相當熟悉的工作流程,應用程式在收到完整長篇內容後,會直接與任務需求打包成一個巨大的 Prompt,直接發送
Thumbnail
看更多
你可能也想看
Thumbnail
有時候對話來自於討論某個議題,想要幫助他人解決問題… 多一個人一起思考多一個思維,從談話裡構築思想,也從中找出一些生活方向。
Thumbnail
有時候對話來自於討論某個議題,想要幫助他人解決問題… 多一個人一起思考多一個思維,從談話裡構築思想,也從中找出一些生活方向。
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
「間隔反覆(Spaced Repetition)」,搭配「主動回憶(Active Recall)」的學習策略,在更短的時間內延長記憶力的續航力。
Thumbnail
「間隔反覆(Spaced Repetition)」,搭配「主動回憶(Active Recall)」的學習策略,在更短的時間內延長記憶力的續航力。
Thumbnail
★學習能力、策略與表徵 【知覺集中】(反義詞-去集中化) 思維方式尚未成熟,導致思維方式不合邏輯,只憑知覺所及,集中注意於事物的單一層面...
Thumbnail
★學習能力、策略與表徵 【知覺集中】(反義詞-去集中化) 思維方式尚未成熟,導致思維方式不合邏輯,只憑知覺所及,集中注意於事物的單一層面...
Thumbnail
最近有新的訂閱者加入, 想趁這個機會再分享一次學習心法與建議給第一次練習的讀者、同學們。 如果你本身已經很熟練演算法,那隨機挑題目練習ok,可以測試觀念是否正確,並且驗證寫code的效率與正確程度。 如果是剛畢業或還在學,以前沒有打過程式競賽。 想開始有系統地增強演算法&資料結構的能力
Thumbnail
最近有新的訂閱者加入, 想趁這個機會再分享一次學習心法與建議給第一次練習的讀者、同學們。 如果你本身已經很熟練演算法,那隨機挑題目練習ok,可以測試觀念是否正確,並且驗證寫code的效率與正確程度。 如果是剛畢業或還在學,以前沒有打過程式競賽。 想開始有系統地增強演算法&資料結構的能力
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
這一節課說明,如何透過改變給模型的指示或咒語(prompt),來得到不同的結果 。如果直接說結論的話會是,在今天語言模型的能力之下,我們只要交代清楚任務就好,可以包括背景以及需求。而這節課很像是一堂模型咒語的歷史課 XD
Thumbnail
這一節課說明,如何透過改變給模型的指示或咒語(prompt),來得到不同的結果 。如果直接說結論的話會是,在今天語言模型的能力之下,我們只要交代清楚任務就好,可以包括背景以及需求。而這節課很像是一堂模型咒語的歷史課 XD
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News