建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道
第 1 題
某房地產公司使用 OLS 多元線性迴歸預測房價,資深統計師要求工程師解釋 OLS 的估計邏輯,以及在大數據場景最常被違反的核心假設。下列何者最能正確描述?
(A) OLS 透過最小化殘差平方和(RSS)估計係數;大數據房價場景中「同方差性(Homoscedasticity)」最常被違反——高價豪宅的預測誤差遠大於平價住宅,呈現異方差
(B) OLS 透過最小化殘差絕對值總和(MAE)估計係數,對離群值不敏感;大數據場景最常違反的是「特徵必須服從常態分布」假設
(C) OLS 用梯度下降迭代更新係數,與神經網路的反向傳播機制相同;大數據場景最常違反的是「樣本量必須超過特徵數十倍」的假設
(D) OLS 透過最大化預測值與實際值的相關係數估計係數;大數據場景最常違反的是「所有特徵值必須落在相同量級」假設
答案:A
深度導讀解析
正確答案:A
核心技術點:OLS 的殘差平方和最小化機制與同方差假設
中級理論拆解:OLS 目標函數是最小化 RSS = Σ(yi - ŷi)²,有閉合解析解 β = (XᵀX)⁻¹Xᵀy,不需要迭代。異方差(喇叭口殘差圖)在大數據場景最常見,讓係數標準誤差失準,t 檢定和信賴區間不可靠。
選項坑洞掃描:B 說 OLS 最小化 MAE,MAE 是 LAD 迴歸,OLS 最小化的是殘差「平方」和。C 說 OLS 用梯度下降,OLS 有解析解不需迭代。D 說最大化相關係數,R² 是評估指標不是估計目標。
破題反射字:OLS → 最小化 RSS / 解析解 → 不需迭代 / 異方差 → 標準誤差失準
第 2 題
某金融機構訓練了三個信用評分模型(5 個、12 個、25 個特徵),需用 AIC 與 BIC 選出最適模型。統計師指出兩者對「模型複雜度的懲罰力度」有根本差異。下列何者最能正確描述這個差異?
(A) AIC 和 BIC 公式完全相同,差異只在應用場景:AIC 適合迴歸,BIC 適合分類,信用評分應只用 BIC
(B) AIC = -2LL + 2k,BIC = -2LL + k × ln(n);當樣本數 n > 7 時 ln(n) > 2,BIC 懲罰更重,大樣本下傾向選擇更簡約的模型,兩者值越小越好
(C) AIC 值越大越好,BIC 值越小越好;兩者給出相反結果時優先採用 AIC,因其理論基礎更嚴謹
(D) AIC 和 BIC 都只考慮訓練集誤差,不懲罰複雜度,兩者都傾向選擇特徵最多的模型
答案:B
深度導讀解析
正確答案:B
核心技術點:AIC 與 BIC 的懲罰項差異及大樣本下的選模傾向
中級理論拆解:AIC 懲罰係數固定為 2,BIC 懲罰係數為 ln(n)。金融信用評分通常樣本量大,ln(n) 遠大於 2,BIC 對 25 個特徵的複雜模型施加更重懲罰,更傾向選擇簡約模型。
選項坑洞掃描:A 說兩者公式相同,懲罰項根本不同。C 說 AIC 越大越好,兩者都是越小越好。D 說兩者不懲罰複雜度,2k 和 k×ln(n) 就是對複雜度的明確懲罰。
破題反射字:AIC → -2LL + 2k / BIC → -2LL + k×ln(n) / 大樣本 → BIC 懲罰更重
第 3 題
某零售集團 OLS 迴歸的「殘差 vs. 預測值」散佈圖呈現喇叭口形狀。統計顧問診斷為異方差,要求提出改善策略。下列何者最能正確描述異方差對 OLS 的影響與改善方向?
(A) 異方差讓係數估計產生偏誤(Biased),應增加樣本量直到殘差分布趨近均勻
(B) 異方差代表模型過擬合,應加入 Dropout 正則化降低複雜度
(C) 異方差不影響係數無偏性,但讓標準誤差失準導致推論不可靠;改善策略包含對目標變數做對數轉換,或使用加權最小平方法(WLS)
(D) 大數據的大樣本量能自動修正異方差,中心極限定理保證大樣本下推論不受影響
答案:C
深度導讀解析
正確答案:C
核心技術點:異方差影響範圍——係數無偏但推論失準
中級理論拆解:Gauss-Markov 定理保證 OLS 係數無偏,但異方差讓標準誤差計算公式失效,t 統計量和信賴區間錯誤。對數轉換壓縮高值殘差,WLS 對高方差觀測值給予較小權重。
選項坑洞掃描:A 說係數有偏誤,異方差不影響無偏性。B 說是過擬合,異方差是資料分布特性,與過擬合無關。D 說大樣本自動修正,中心極限定理不能消除異方差。
破題反射字:異方差 → 係數無偏但標準誤差失準 / 喇叭口殘差圖 → 異方差診斷 / WLS → 改善策略
第 4 題
某電商公司 OLS 迴歸結果顯示整體 F 統計量顯著(p < 0.001),但「廣告曝光」與「促銷參與」兩個特徵的 t 檢定 p-value 分別為 0.42 和 0.38,VIF 均超過 13。下列何者最能正確解釋此現象?
(A) F 統計量因共線性被放大產生虛假顯著,應以 t 檢定結果為準拒絕整個模型
(B) 個別係數不顯著代表這兩個特徵真的無預測力,應直接刪除
(C) 樣本量不足導致統計檢定力不夠,應增加樣本量十倍後重新計算,VIF 與此無關
(D) 兩個高度相關特徵合在一起對目標有強預測力(F 顯著),但各自的獨立貢獻因高度重疊難以分離,導致標準誤差膨脹、t 值縮小;VIF > 10 確認嚴重共線性,應合併特徵或選一保留
答案:D
深度導讀解析
正確答案:D
核心技術點:共線性讓係數標準誤差膨脹,造成「整體顯著但個別不顯著」的矛盾
中級理論拆解:VIF = 1/(1-R²_j),VIF = 13 代表係數方差膨脹 13 倍,標準誤差膨脹約 3.6 倍,t 值縮小,p-value 升高。兩特徵聯合貢獻由 F 統計量捕捉,各自貢獻被共線性掩蓋。
選項坑洞掃描:A 說 F 被放大,共線性縮小的是 t 值而非放大 F 值。B 說特徵無預測力,VIF > 10 說明問題是共線性而非無貢獻。C 說增加樣本量,樣本量無法降低兩個高相關特徵的 VIF。
破題反射字:VIF > 10 → 嚴重共線性 / t 值縮小 → 標準誤差膨脹 / F 顯著但 t 不顯著 → 共線性典型症狀
第 5 題
某保險公司迴歸模型在加入第 18 個特徵後 R² 從 0.80 提升至 0.81,但統計師指出 R² 本身不適合比較不同特徵數的模型。下列何者最能正確描述 R² 的限制與調整後 R² 的改善邏輯?
(A) R² 只能衡量線性關係,非線性模型無法計算;調整後 R² 透過非線性轉換修正此限制
(B) R² 對異常值極度敏感,單一離群值就能讓 R² 大幅下降;調整後 R² 排除離群值後計算,更加穩健
(C) R² 只能用於訓練集,無法反映泛化能力;調整後 R² 透過交叉驗證估計在未見資料上的表現
(D) R² 會隨特徵數增加而單調遞增,即使無關特徵也不會讓 R² 下降;調整後 R² 引入自由度懲罰,若新特徵貢獻不足以抵消自由度損失,調整後 R² 反而下降
答案:D
中級理論拆解:調整後 R² = 1 - (SS_res/(n-k-1)) / (SS_tot/(n-1)),k 增加時 (n-k-1) 縮小,懲罰加重。若新特徵對 SS_res 的改善幅度小於自由度損失,調整後 R² 下降。
選項坑洞掃描:A 說只能衡量線性,限制在特徵數單調問題而非模型類型。B 說排除離群值,調整後 R² 不涉及排除任何觀測值。C 說用交叉驗證計算,調整後 R² 仍在訓練集計算,只加入自由度懲罰。
破題反射字:R² 單調遞增 → 無關特徵也能提升 / 調整後 R² → 自由度懲罰 / k 增加但貢獻不足 → 調整後 R² 下降
還在用零散筆記備考?
這份《iPAS 中級白話備考筆記》把三科考綱重點全部用人話整理好,考點速記、實戰場景、常見陷阱一次收錄。適合非本科、時間有限、想快速抓住考試方向的自學者。
👉 立即取得備考筆記





















