建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道
第 1 題
某電信公司建立用戶流失預測模型,模型已訓練完成並在離線測試集達到 AUC = 0.88,現在需要部署為線上推論服務。工程師評估兩種部署架構:即時推論(Online Inference)和批次推論(Batch Inference)。業務需求是每天早上 8 點前為業務人員提供「今日高流失風險客戶名單」。下列何者最能正確描述最適合此需求的部署架構?
(A) 即時推論最適合,客服人員開啟客戶資料時即時計算流失機率,延遲 < 200ms,讓客服能在通話中即時獲取風險評估
(B) 批次推論最適合,每天凌晨定時對所有用戶執行預測,結果在 8 點前寫入資料庫供業務人員查詢;需求是「每日名單」而非「即時回應」,批次處理成本更低且不需要維護高可用性的推論服務
(C) 兩種架構效果完全相同,差異只在技術複雜度,應選擇工程師最熟悉的方案,業務需求不影響架構選擇
(D) 應同時部署即時和批次兩套推論系統,批次系統提供每日名單,即時系統供客服人員隨時查詢,雙系統確保零推論延遲
答案:B
深度導讀解析
正確答案:B
核心技術點:推論架構選型——依業務延遲需求(即時 vs. 每日)決定
中級理論拆解:業務需求是「每日名單」,不需要毫秒級即時回應。批次推論每天一次定時執行,成本低、不需要高可用性基礎設施、易於排查問題。即時推論適合「客服通話中即時查詢」這類需要 < 1 秒回應的場景。
選項坑洞掃描:A 說即時推論最適合,通話中即時計算是合理需求,但題目說明需求是「每日名單」而非通話中查詢,兩者是不同場景。C 說效果完全相同,即時和批次的基礎設施複雜度、成本和延遲特性有根本差異。D 說同時部署兩套,雙系統大幅增加維護成本,不符合此業務需求的必要性。
破題反射字:每日名單 → 批次推論 / 即時回應 < 1 秒 → Online Inference / 推論架構選型 → 依業務延遲需求
第 2 題
某保險公司部署用戶風險分類模型後六個月,業務主管發現模型的 Precision 從上線時的 0.81 持續下降至 0.62,但工程師確認模型程式碼未被修改。資料工程師分析後發現近期進件的保單申請人特徵分布與訓練時有系統性偏移(年輕申請人比例大幅增加)。下列何者最能正確描述此現象與對應的 MLOps 監控策略?
(A) 此現象是模型過擬合,模型在訓練集記住了舊申請人的特徵,面對新申請人時泛化能力不足;應加入 Dropout 正則化後重新部署
(B) 此現象是特徵漂移(Feature Drift / Covariate Shift),輸入特徵的分布改變讓原本在舊分布下訓練的模型預測能力下降;MLOps 應建立特徵分布監控(PSI、KS 統計量),並設定觸發自動重訓練的閾值
(C) 此現象是標籤漂移(Label Drift),正確標籤的分布改變導致模型輸出不準確;應每週人工重新標註所有歷史資料並全量重訓練
(D) 此現象是正常的模型老化,所有機器學習模型都會隨時間自然衰退,不需要特別處理,定期(每年)重新訓練即可
答案:B
深度導讀解析
正確答案:B
核心技術點:特徵漂移(Covariate Shift)的定義與 MLOps 監控策略
中級理論拆解:Covariate Shift 是輸入特徵 P(X) 改變但標籤條件機率 P(Y|X) 不變,模型在舊分布下訓練,面對新分布的年輕申請人時預測準確度下降。PSI(Population Stability Index)和 KS 統計量能定量監控特徵分布偏移程度,超過閾值觸發重訓練。
選項坑洞掃描:A 說是過擬合,過擬合是訓練驗證差距大的問題,模型在訓練後就過擬合,不是部署六個月後才出現。C 說是標籤漂移,標籤漂移是 P(Y) 改變,題目明確說是特徵分布偏移。D 說正常老化不需處理,Precision 從 0.81 降至 0.62 是顯著的效能下降,必須介入。
破題反射字:特徵分布偏移 → Covariate Shift / PSI / KS 統計量 → 分布監控工具 / 觸發重訓練 → MLOps 自動化策略
第 3 題
某醫療機構將 AI 診斷輔助模型部署為 REST API,供醫師在電子病歷系統中查詢。系統上線後三個月,工程師發現 API 在尖峰時段(早上 9-11 點)回應時間從平均 300ms 增加至 4,500ms。DevOps 工程師排查後發現問題在於單一推論伺服器無法承載並發請求。下列何者最能正確描述解決此問題的架構策略?
(A) 將模型從 REST API 改為 GraphQL API,GraphQL 的查詢優化讓單一伺服器能承載更多並發請求,不需要增加伺服器數量
(B) 停止即時推論服務,改為批次推論——每天統一對所有待診患者執行預測,醫師查詢時讀取昨日的預測結果,從根本解決尖峰並發問題
(C) 採用水平擴展(Horizontal Scaling)搭配負載均衡器(Load Balancer),部署多個推論服務實例並行處理請求;若使用 Kubernetes,可設定 HPA(Horizontal Pod Autoscaler)依 CPU 使用率自動擴縮容
(D) 將模型從 CPU 推論改為 GPU 推論,GPU 的並行計算能力讓單一伺服器的推論速度提升 10 倍,無需增加伺服器數量即可解決尖峰問題
答案:C
深度導讀解析
正確答案:C
核心技術點:水平擴展 + 負載均衡解決推論服務的並發瓶頸
中級理論拆解:單一伺服器的 CPU/記憶體有上限,面對並發請求時成為瓶頸。水平擴展增加多個推論實例,負載均衡器(如 Nginx、AWS ALB)將請求分散至各實例。Kubernetes HPA 根據 CPU 使用率自動增減 Pod 數量,尖峰時自動擴展,離峰時縮減成本。
選項坑洞掃描:A 說改 GraphQL 解決並發,API 協議不影響伺服器的並發承載能力,並發瓶頸在計算資源而非協議。B 說改批次推論,醫師診斷需要即時判斷,提供昨日預測結果不符合臨床需求。D 說 GPU 提升 10 倍,GPU 加速推論速度,但並發請求仍然排隊等待單一 GPU 實例,不解決並發問題。
破題反射字:並發瓶頸 → 水平擴展 / 負載均衡器 → 分散請求 / HPA → Kubernetes 自動擴縮容
第 4 題
某零售集團將商品分類模型部署至 2,000 個門市的收銀系統,模型需在店員掃描條碼時 50ms 內完成分類(因為離線無網路)。AI 規劃師評估雲端推論 vs. 邊緣推論兩種架構。下列何者最能正確描述邊緣推論在此情境的必要性,以及其主要技術挑戰?
(A) 邊緣推論不適合此情境,因為邊緣裝置的運算能力遠弱於雲端,無法在 50ms 內完成深度學習模型的推論,應優化網路連線品質讓雲端推論達到低延遲
(B) 雲端推論比邊緣推論更適合,雲端有無限運算資源且模型更新更方便,50ms 的延遲需求透過 CDN 加速就能達到,不需要在每個門市部署邊緣裝置
(C) 邊緣推論在此情境有三個必要性:離線可用(無網路仍能運作)、低延遲(本地計算不受網路影響)、資料隱私(交易資料不需傳至雲端);主要挑戰是模型壓縮(量化、剪枝)讓大模型能在低算力裝置上運行,以及 2,000 個裝置的模型版本管理
(D) 邊緣推論和雲端推論效果完全相同,差異只在伺服器位置;離線環境可透過預先下載預測結果到本地快取解決,不需要在邊緣端部署推論模型
答案:D
深度導讀解析
正確答案:C
按分布規則第 4 題應為 D,重排:
第 4 題(重排)
某零售集團需要在 2,000 個門市的收銀系統(無網路、50ms 延遲需求)部署商品分類模型。AI 規劃師評估邊緣推論的必要性。下列何者最能正確描述邊緣推論的核心價值與技術挑戰?
(A) 邊緣推論不適合,邊緣裝置算力弱,無法在 50ms 內完成深度學習推論,應優化網路讓雲端推論達到低延遲
(B) 雲端推論更適合,無限算力且模型更新方便,50ms 透過 CDN 加速就能達到,不需要在每個門市部署邊緣裝置
(C) 邊緣推論和雲端推論效果完全相同,差異只在伺服器位置,離線問題透過預先快取預測結果解決即可
(D) 邊緣推論在此情境有三個必要性:離線可用、低延遲(本地計算)、資料隱私;主要挑戰是模型壓縮(量化、剪枝)讓大模型能在低算力裝置運行,以及 2,000 個裝置的版本管理
答案:D
深度導讀解析
正確答案:D
核心技術點:邊緣推論的三大必要性與模型壓縮技術挑戰
中級理論拆解:無網路環境讓雲端推論根本不可行。50ms 延遲需求在網路往返時延通常超過 100ms 的環境下只有本地計算才能達到。模型量化(INT8 取代 FP32)讓模型大小縮減 4 倍且推論加速,剪枝移除低重要性權重,讓大模型能在嵌入式裝置運行。
選項坑洞掃描:A 說邊緣裝置無法在 50ms 內推論,現代邊緣 AI 晶片(如 NPU)專為低延遲推論設計,量化後的小模型完全能在 50ms 內完成。B 說 CDN 能達到 50ms,CDN 加速靜態資源,不能讓動態推論請求繞過網路延遲。C 說快取預測結果,條碼掃描是動態輸入,無法預先快取所有商品的分類結果。
破題反射字:無網路 + 低延遲 → 邊緣推論必要性 / 模型量化 → 邊緣部署的壓縮技術 / OTA 更新 → 大量邊緣裝置的版本管理
第 5 題
某電商平台的商品推薦模型每次推薦需要對 50 萬個商品計算用戶相似度,即時推論時間超過 30 秒遠超需求。資深工程師提出使用近似最近鄰搜尋(Approximate Nearest Neighbor, ANN)取代精確搜尋。下列何者最能正確描述 ANN 解決此問題的核心機制,以及使用「近似」的取捨?
(A) ANN 透過預先建立索引結構(如 FAISS、HNSW),讓搜尋跳過大量不相關的商品向量,在毫秒內找到近似最近鄰;代價是結果可能遺漏極少數真正最近的商品,但在推薦場景「接近最好」已足夠業務需求
(B) ANN 是一種資料壓縮技術,將 50 萬個商品向量壓縮為少量代表向量,搜尋時只在代表向量中計算距離;壓縮損失導致推薦多樣性下降,需要週期性重建索引
(C) ANN 透過分散式計算將 50 萬個商品分配到 1,000 個伺服器,每台伺服器計算 500 個商品的距離,並行計算後取最小值;「近似」指的是並行計算可能因時鐘不同步而有輕微誤差
(D) ANN 和精確搜尋的結果完全相同,差異只在演算法效率,ANN 透過數學優化讓精確搜尋的時間複雜度從 O(n) 降至 O(1),無需任何精度損失
答案:A
深度導讀解析
正確答案:A
核心技術點:ANN 的索引結構加速機制與精度換速度的取捨邏輯
中級理論拆解:精確最近鄰搜尋需對所有向量計算距離,時間複雜度 O(n),50 萬商品計算 30 秒是合理的。FAISS(Facebook AI Similarity Search)、HNSW(Hierarchical Navigable Small World)等 ANN 演算法預先建立索引,搜尋時只訪問少數候選向量,時間複雜度降至近似 O(log n),速度提升 100 倍以上。遺漏極少數真正最近鄰是可接受的精度損失,推薦場景對「完美最近鄰」的要求遠低於精確搜尋場景。
選項坑洞掃描:B 說 ANN 是資料壓縮,FAISS 等工具是索引加速工具,不是壓縮商品數量。C 說是分散式並行計算,分散式計算是另一種加速策略,ANN 的「近似」指的是結果精度而非時鐘誤差。D 說結果完全相同只是效率不同,ANN 的「Approximate」明確代表結果是近似而非精確,精度換速度是其本質取捨。
破題反射字:ANN → 索引結構加速搜尋 / FAISS / HNSW → 常見 ANN 實作 / 精度換速度 → ANN 的核心取捨
還在用零散筆記備考?
這份《iPAS 中級白話備考筆記》把三科考綱重點全部用人話整理好,考點速記、實戰場景、常見陷阱一次收錄。適合非本科、時間有限、想快速抓住考試方向的自學者。
👉 立即取得備考筆記




















