第 1 題
某企業法務部門導入生成式 AI 問答系統,希望員工能用自然語言查詢內部法規。系統架構採用 RAG(Retrieval-Augmented Generation),資料工程師設計的資料流程為:① 使用者輸入問題 → ② 將問題轉為向量 → ③ 在向量資料庫中搜尋最相似的法規段落 → ④ 將檢索到的段落與原始問題一起送入大型語言模型 → ⑤ 模型根據檢索內容生成回答。關於此流程的技術描述,下列何者最正確?
(A) 步驟②使用的是 TF-IDF 關鍵字比對,因為法律文件需要精確的詞彙匹配而非語意理解
(B) 步驟③的向量資料庫可用傳統關聯式資料庫(如 MySQL)的 LIKE 語法取代,效果相同
(C) 步驟③透過餘弦相似度或內積等距離度量找出語意最接近的文件段落,這是 RAG 降低幻覺的關鍵機制
(D) 步驟④中語言模型會永久記住檢索到的法規內容,後續查詢不需再次檢索即可回答相同問題
答案:C
深度導讀解析
正確答案:C
核心技術點:RAG 檢索與幻覺降低
中級理論拆解:RAG 的核心是把外部知識檢索和語言生成結合。向量資料庫用餘弦相似度比對語意,找到最相關段落注入 prompt,讓模型「有據可引」而非憑記憶生成,大幅降低幻覺。
選項坑洞掃描:A 步驟②用 embedding model 轉向量,不是 TF-IDF 關鍵字比對。B 關聯式資料庫不支援高維向量相似度搜尋。D 語言模型無狀態記憶,每次推論獨立,不會「記住」。
破題反射字:RAG → 檢索 + 生成 / 向量相似度 → 降低幻覺
第 2 題
某電商平台建置商品智慧客服,需要從 50 萬筆商品說明中即時檢索最相關的內容作為 LLM 的生成依據。資料工程師評估儲存方案時,決定採用向量資料庫(如 FAISS、Pinecone)而非傳統關聯式資料庫。最關鍵的技術理由是:
(A) 商品說明經 embedding 模型轉為高維向量後,需要近似最近鄰搜尋(ANN)才能在毫秒級完成 50 萬筆的語意相似度比對
(B) 關聯式資料庫無法儲存文字資料,只能處理數值型欄位,因此無法存放商品說明
(C) 向量資料庫自帶大型語言模型,可以直接在資料庫內完成問答生成,不需要額外的 LLM
(D) 傳統資料庫的 SQL 查詢已包含語意理解功能,但查詢速度不如向量資料庫
答案:A
深度導讀解析
正確答案:A
核心技術點:向量資料庫的核心優勢
中級理論拆解:文字經 embedding 轉為數百維向量後,精確搜尋的暴力比對複雜度太高。向量資料庫用 ANN 演算法(如 HNSW、IVF)建立索引,在 50 萬筆中毫秒級找到最相似段落。
選項坑洞掃描:B 關聯式資料庫可以儲存文字(TEXT/VARCHAR),只是不擅長語意搜尋。C 向量資料庫只負責儲存和搜尋向量,不帶 LLM。D SQL 不具備語意理解能力。
破題反射字:高維向量搜尋 → ANN 索引 / 向量 DB ≠ LLM
第 3 題
某醫療 AI 團隊希望讓內部的大型語言模型能夠回答最新藥物交互作用的問題。團隊手上有一份持續更新的藥物資料庫(每週新增約 200 筆資料)。考量到資料更新頻率和導入成本,下列哪一種技術策略最適合?
(A) 每週對整個大型語言模型進行全量微調(Full Fine-tuning),將最新藥物資料寫入模型參數
(B) 使用 LoRA 每週微調模型,僅更新低秩參數以降低訓練成本
(C) 將藥物資料直接寫入 LLM 的 system prompt,每次查詢時附帶全部資料庫內容
(D) 採用 RAG 架構,將藥物資料庫向量化後存入向量資料庫,查詢時即時檢索最新內容注入 prompt
答案:D
深度導讀解析
正確答案:D
核心技術點:RAG vs 微調的場景選擇
中級理論拆解:資料每週更新 200 筆,微調成本高且有災難性遺忘風險。RAG 只需將新資料向量化後寫入資料庫,無需重新訓練模型,即可在下次查詢時檢索到最新內容。
選項坑洞掃描:A 全量微調成本極高,每週執行不切實際。B LoRA 成本較低但仍需訓練流程,對頻繁更新不划算。C 全部資料庫塞 prompt 會超出 token 上限且成本爆增。
破題反射字:資料頻繁更新 → RAG / 靜態知識內化 → 微調
第 4 題
某保險公司建置 RAG 系統,將 3,000 頁的保單條款文件向量化後存入向量資料庫。上線後發現,當使用者詢問「住院日額給付條件」時,系統經常檢索到不相關的段落(如「保單基本資料」或「名詞定義」),導致 LLM 生成的回答品質低落。資料工程師診斷後認為問題出在文件分塊(Chunking)策略,最可能的原因與改善方式是:
(A) 分塊過大(如整章為一塊),應改為每句話一個 chunk 以提高語意精確度
(B) 分塊時未考慮文件的段落結構,導致語意完整的條款被截斷或與不相關內容混在同一個 chunk,應按條款段落邊界分塊並加入適當重疊
(C) 向量資料庫的索引演算法選錯了,應從 HNSW 改為暴力搜尋以提升精確度
(D) embedding 模型的維度太高,應降維至 2 維後重新建立索引
答案:B
深度導讀解析
正確答案:B
核心技術點:Chunking 策略與檢索品質
中級理論拆解:分塊策略直接影響檢索品質。若 chunk 切割點落在條款中間,語意被截斷,embedding 向量無法代表完整概念。按段落邊界切塊並加重疊(overlap),確保條款完整且上下文連貫。
選項坑洞掃描:A 每句一個 chunk 太短,失去上下文語意,檢索結果更碎片。C HNSW 是高效近似搜尋,精確度已夠高,問題在 chunk 不在索引。D 降維到 2 維會丟失幾乎所有語意資訊。
破題反射字:檢索品質差 → 先查 chunk 策略 / 語意完整 + overlap → 好 chunk
第 5 題
某金融機構導入 RAG 架構的合規問答系統,知識庫來自內部法規文件與外部監管公告。上線三個月後,法務團隊發現系統對某些新公告的回答仍引用已廢止的舊版條文,且偶爾生成知識庫中不存在的條文編號。這兩個問題分別對應的根本原因,最可能是:
(A) 舊版問題:知識庫未建立資料更新與版本淘汰機制,已廢止文件的向量仍留在資料庫中被檢索到;虛構問題:檢索結果與使用者問題相關性不足時,LLM 仍可能基於訓練期記憶自行補充內容
(B) 舊版問題:embedding 模型無法區分新舊文件的語意差異;虛構問題:向量資料庫的索引結構損毀導致回傳錯誤段落
(C) 舊版問題:LLM 在微調時記住了舊條文而非從知識庫檢索;虛構問題:RAG 架構本身無法避免任何形式的幻覺
(D) 兩個問題的根本原因相同:使用者輸入的問題語意不清,導致檢索結果偏差
答案:A
深度導讀解析
正確答案:A
核心技術點:RAG 知識庫維運與幻覺殘留
中級理論拆解:RAG 不會自動淘汰過時資料,需要建立版本管理機制定期清除廢止文件的向量。即使有 RAG,當檢索結果不夠精確時,LLM 仍可能用訓練期知識「腦補」,這是幻覺的殘留風險。
選項坑洞掃描:B embedding 可區分語意,問題在舊資料未移除。C RAG 系統通常不微調 LLM,舊文問題在知識庫端。D 兩個問題根因不同,不能歸於同一原因。
破題反射字:知識庫要版本管理 / RAG 降低但不消除幻覺
還在用零散筆記備考?
這份《iPAS 中級白話備考筆記》把三科考綱重點全部用人話整理好,考點速記、實戰場景、常見陷阱一次收錄。適合非本科、時間有限、想快速抓住考試方向的自學者。
👉 立即取得備考筆記




















