第 1 題
一家智慧工廠的 AI 團隊將瑕疵檢測模型部署到產線邊緣閘道器上,推論延遲從雲端的 320ms 降至 18ms。三個月後發現模型準確率從 94% 滑落到 86%,工廠主管要求在不中斷產線的前提下修復。
(A) 在邊緣端建立 A/B 測試機制,將新模型容器與舊版並行運行,依流量比例切換後逐步替換
(B) 將所有推論流量導回雲端重新訓練,待準確率回復後再部署回邊緣裝置
(C) 在邊緣裝置上直接執行完整的模型再訓練流程,利用本地 GPU 加速收斂
(D) 凍結現有模型權重並調高信心閾值,將低信心樣本標記為待人工覆核
答案:A
深度導讀解析
正確答案:A
核心技術點:邊緣端模型更新策略
中級理論拆解:邊緣部署的模型退化需透過 CI/CD 管線推送新版容器,A/B 測試能在不停機下驗證新模型效果。
選項坑洞掃描:B 把流量導回雲端,違反低延遲需求。C 邊緣裝置運算資源不足以支撐完整再訓練。D 只治標不治本,準確率問題未解決。
破題反射字:模型退化 → A/B 容器切換 / 邊緣部署 → 不中斷更新
第 2 題
某電商平台的資料科學團隊開發了推薦模型,本地測試效果良好,但部署到正式環境後推論結果完全不同。經排查發現是開發環境與正式環境的 Python 套件版本不一致。團隊決定導入容器化方案。
(A) 使用虛擬機快照將開發環境完整複製到正式伺服器,確保系統層級一致
(B) 撰寫 Dockerfile 將模型、依賴套件與推論服務封裝為映像檔,透過容器部署到正式環境
(C) 在正式伺服器上手動安裝與開發機相同版本的所有套件,並鎖定系統更新
(D) 將模型匯出為 ONNX 格式後直接在正式環境執行,繞過套件依賴問題
答案:B
深度導讀解析
正確答案:B
核心技術點:Docker 環境一致性
中級理論拆解:Docker 將應用與依賴封裝為不可變映像檔,確保開發、測試、正式環境完全一致,消除「在我電腦上能跑」的問題。
選項坑洞掃描:A 虛擬機快照過於笨重,非容器化方案。C 手動安裝無法版控且易漂移。D ONNX 解決模型格式問題,不解決整體環境依賴。
破題反射字:環境不一致 → Dockerfile / 容器 → 不可變映像檔
第 3 題
某金融機構的 MLOps 團隊發現,資料科學家每次手動部署模型平均耗時 4 小時,且過去半年有 3 次因部署失誤導致線上服務中斷。團隊決定建立自動化管線來解決這個問題。
(A) 制定標準作業手冊,要求資料科學家依照固定步驟手動部署並由主管逐步審核
(B) 將模型部署權限集中到 IT 維運團隊,資料科學家僅負責訓練並提交模型檔案
(C) 在每次部署前對正式環境做完整備份,部署失敗時手動還原到前一版本
(D) 建立 CI/CD 管線,模型通過自動化測試後觸發容器打包與藍綠部署,失敗時自動回滾
答案:D
深度導讀解析
正確答案:D
核心技術點:MLOps 自動化部署管線
中級理論拆解:MLOps 的核心價值是將模型交付流程自動化——自動測試、自動打包、自動部署、自動回滾,縮短交付週期並降低人為錯誤。
選項坑洞掃描:A 標準手冊仍是手動流程,無法根除人為失誤。B 權限集中不等於自動化,反而增加溝通成本。C 備份還原是災難恢復,不是部署策略。
破題反射字:部署失誤 → CI/CD 自動化 / 回滾 → 藍綠部署
第 4 題
某連鎖零售商在 500 間門市部署了邊緣 AI 裝置執行即時人流分析。營運團隊發現不同門市的模型版本混亂,有些還在跑三個月前的舊版。團隊需要一套機制統一管理所有邊緣裝置的模型生命週期。
(A) 由各門市 IT 人員自行下載最新模型檔並手動替換,每月回報更新狀態
(B) 將所有推論任務集中到總部雲端執行,門市端僅負責影像上傳
(C) 建立中央模型登錄庫搭配 OTA 推送機制,依裝置群組批次更新並驗證部署狀態
(D) 統一採購規格相同的邊緣裝置,確保硬體一致後一次性燒錄相同模型映像
答案:C
深度導讀解析
正確答案:C
核心技術點:邊緣裝置模型生命週期管理
中級理論拆解:大規模邊緣部署需要中央化的 Model Registry 搭配 OTA(Over-the-Air)推送,才能追蹤版本、分批更新、確認部署成功。
選項坑洞掃描:A 手動更新在 500 台規模下不可行。B 回到雲端推論,失去邊緣運算的低延遲優勢。D 硬體一致不解決軟體版本管理問題。
破題反射字:版本混亂 → Model Registry / 大規模邊緣 → OTA 推送
第 5 題
某醫療 AI 新創開發了 X 光影像判讀模型,訓練階段在雲端 GPU 叢集完成。部署時需同時支援三種場景:大型醫院的本地伺服器、診所的低功耗邊緣裝置、以及偏鄉行動醫療車上的離線平板。團隊正在評估部署架構。
(A) 針對三種場景各自從頭訓練獨立模型,確保每個模型最佳化於目標硬體
(B) 使用模型壓縮技術將同一模型轉換為不同精度版本,搭配容器化封裝適配各場景硬體
(C) 統一部署雲端 API,三種場景都透過網路呼叫雲端推論服務
(D) 選擇運算能力最低的裝置作為基準,僅部署該裝置能運行的輕量模型到所有場景
答案:B
深度導讀解析
正確答案:B
核心技術點:多場景部署與模型壓縮
中級理論拆解:模型量化(FP32→FP16→INT8)與剪枝能在精度損失可控的範圍內大幅縮小模型體積,搭配容器化實現一套模型、多場景適配。
選項坑洞掃描:A 從頭訓練三套模型浪費資源且難以維護一致性。C 偏鄉行動醫療車無穩定網路,雲端 API 不可行。D 以最低規格為準會犧牲高規格場景的效能。
破題反射字:多硬體適配 → 模型量化 / 離線場景 → 邊緣部署
還在用零散筆記備考?
這份《iPAS 中級白話備考筆記》把三科考綱重點全部用人話整理好,考點速記、實戰場景、常見陷阱一次收錄。適合非本科、時間有限、想快速抓住考試方向的自學者。
👉 立即取得備考筆記
















