檢索增強生成 (Retrieval-Augmented Generation, RAG)

更新 發佈閱讀 4 分鐘

「檢索增強生成 (Retrieval-Augmented Generation, RAG)」是一種結合了信息檢索 (Retrieval) 和文本生成 (Generation) 的框架,旨在通過從外部知識庫中檢索相關信息,來增強大型語言模型 (LLMs) 生成文本的質量、準確性和知識覆蓋範圍。

簡單來說,RAG 的核心思想是讓 LLM 在生成回答或內容之前,先從外部資料庫中找到相關的資訊作為參考,然後基於這些檢索到的資訊來生成最終的輸出。這樣可以有效地利用外部知識來彌補 LLM 自身知識的不足,減少幻覺 (Hallucination) 的發生,並提高生成內容的真實性和可靠性。

RAG 的主要步驟:

  1. 檢索 (Retrieval):
    • 當用戶提出一個問題或發出一個指令時,RAG 系統首先會分析這個輸入,並將其轉換成一個查詢。 然後,使用這個查詢在一個外部的知識庫或文檔集合中進行檢索,找到與用戶輸入最相關的文檔片段或信息。這個知識庫可以是各種形式,例如向量資料庫、傳統的文檔資料庫、甚至是網頁等。 檢索過程通常使用一些信息檢索技術,例如基於關鍵詞的搜索、語義搜索(利用向量嵌入的相似度搜索)等。
  2. 增強 (Augmentation):
    • 檢索到的相關信息片段會被添加到原始的用戶輸入提示 (prompt) 中,形成一個增強的提示。這個增強的提示包含了用戶的問題和相關的外部知識。
  3. 生成 (Generation):
    • 這個增強的提示會被輸入到大型語言模型 (LLM) 中。 LLM 會利用增強提示中的信息(包括用戶的原始問題和檢索到的外部知識)來生成最終的回答或內容。

RAG 的優點:

  • 減少幻覺 (Mitigating Hallucinations): 通過讓 LLM 參考外部的真實信息,可以顯著減少模型生成不實或虛構內容的可能性。
  • 提高知識覆蓋範圍: LLM 本身的知識是有限的,RAG 可以讓模型在生成時訪問到最新的或特定的知識,擴展其知識邊界。
  • 提高答案的相關性和準確性: LLM 可以基於檢索到的與用戶問題最相關的信息生成答案,從而提高答案的質量和準確性。
  • 可解釋性: RAG 允許用戶追溯模型生成答案所依據的外部信息來源,提高了模型輸出的可解釋性。
  • 易於更新知識: 當需要更新知識時,只需要更新外部知識庫即可,而不需要重新訓練整個 LLM。
  • 個性化和定制化: 可以根據不同的應用場景或用戶需求,使用不同的外部知識庫,實現個性化和定制化的信息檢索和生成。

RAG 的應用場景:

  • 問答系統: 回答用戶關於特定領域或主題的問題,例如基於公司內部文檔的問答、基於產品知識庫的問答等。
  • 聊天機器人: 使聊天機器人能夠提供更準確和有根據的回答,提升對話質量。
  • 內容創作: 幫助生成基於特定資料或研究的報告、文章等。
  • 搜索引擎增強: 結合檢索結果和 LLM 的生成能力,提供更豐富和有深度的搜索答案。

總結來說,檢索增強生成 (RAG) 是一種有效的方法,可以將大型語言模型的強大生成能力與外部知識庫的豐富信息結合起來,從而提高生成文本的質量、準確性和可靠性,並解決 LLM 在知識和幻覺方面的一些局限性。

留言
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
44會員
572內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 初級+中級(數據分析) AWS AIF-C01 AWS CLF-C02 Microsoft AI-900 其他:富邦美術館志工
2025/05/24
「提示工程 (Prompt Engineering)」是指設計和優化輸入給大型語言模型 (LLMs) 的提示 (prompts) 的過程,目的是引導模型產生期望的、高質量的輸出。一個好的提示可以顯著影響 LLM 的性能,使其能夠更準確地理解指令、提供更相關的回應、減少幻覺,並更好地執行各種任務。
2025/05/24
「提示工程 (Prompt Engineering)」是指設計和優化輸入給大型語言模型 (LLMs) 的提示 (prompts) 的過程,目的是引導模型產生期望的、高質量的輸出。一個好的提示可以顯著影響 LLM 的性能,使其能夠更準確地理解指令、提供更相關的回應、減少幻覺,並更好地執行各種任務。
2025/05/24
「大型語言模型 (Large Language Model, LLM) 的幻覺 (Hallucination)」指的是 LLM 在生成文本時,產生事實上不正確、無根據、甚至完全是虛構的內容的現象。這些生成的內容可能在語法上和邏輯上看起來很流暢和連貫,但與真實世界或給定的上下文並不符。 你可以將其想
2025/05/24
「大型語言模型 (Large Language Model, LLM) 的幻覺 (Hallucination)」指的是 LLM 在生成文本時,產生事實上不正確、無根據、甚至完全是虛構的內容的現象。這些生成的內容可能在語法上和邏輯上看起來很流暢和連貫,但與真實世界或給定的上下文並不符。 你可以將其想
2025/05/24
自然語言處理 (NLP) 作為人工智能 (AI) 的一個重要分支,與其他 AI 領域有著廣泛且深入的整合,共同推動了許多創新應用。以下是一些 NLP 與其他 AI 領域的主要整合方式: 1. NLP 與機器學習 (Machine Learning, ML): NLP 模型本身就是機器學習模型:
2025/05/24
自然語言處理 (NLP) 作為人工智能 (AI) 的一個重要分支,與其他 AI 領域有著廣泛且深入的整合,共同推動了許多創新應用。以下是一些 NLP 與其他 AI 領域的主要整合方式: 1. NLP 與機器學習 (Machine Learning, ML): NLP 模型本身就是機器學習模型:
看更多
你可能也想看
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
本文介紹了檢索增強生成(RAG)技術的概念、運作原理、應用場景以及相關資源。RAG 技術結合檢索和生成的優勢,提升了生成內容的準確性和相關性,同時能有效保護隱私數據。對於希望應用 GPT 技術但擔心數據外洩的企業來說,RAG 是一個理想的解決方案。
Thumbnail
本文介紹了檢索增強生成(RAG)技術的概念、運作原理、應用場景以及相關資源。RAG 技術結合檢索和生成的優勢,提升了生成內容的準確性和相關性,同時能有效保護隱私數據。對於希望應用 GPT 技術但擔心數據外洩的企業來說,RAG 是一個理想的解決方案。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News