一樣都是使用AI資安工具,你知道差別在那裡嗎?
AI人工智慧技術快速的演進,已逐漸改變了人類的生活方式,未來是無處不AI的時代,從前必須透過程式專家長時間才能完成的事情,現在只要告訴AI你的意圖,就有可能被實現出來︒
我們接下來想談談AI技術、駭客攻擊與深度學習AI為可以做到主動預防防禦

AI(ARTIFICIAL INTELLIGENCE)人工智慧
ML(MACHINE LEARNING)機器學習
DL(DEEP LEARNING)深度學習
一、AI、ML、DL綜合性比較

- 何謂神經網路?
神經網路(Neural Network),更精確來說是「人工神經網路」(Artificial Neural Network, ANN),是一種模仿人類大腦神經元運作方式的計算模型。它是人工智慧(AI)與深度學習(Deep Learning)的核心基礎。神經網路是透過大量的資料訓練,讓電腦學會如何從中找出規律,進而對新資料進行預測、分類或決策。
在目前的技術趨勢中,大眾媒體或企業談論 AI 時,幾乎等同於在談論「深度學習」(Deep Learning),而相對較少強調「機器學習」(Machine Learning)。 簡單來說,深度學習是機器學習的一個子集,但它在過去十年中取得的突破性成就,讓它成為了 AI 的代名詞。
- 以下是為什麼「深度學習」成為主角的幾個核心原因:
1. 處理「非結構化資料」的壓倒性優勢
這是最關鍵的差異。傳統機器學習在處理「結構化資料」(如 Excel 表格、資料庫數值)時表現優異,但在處理「非結構化資料」(影像、聲音、自然語言、二進位位元流)時卻遭遇瓶頸。
● 機器學習:需要人類專家手動定義特徵(Feature Engineering)。例如:要辨識惡意程式,專家得先告訴電腦「去看有沒有異常的 API 調用」或「檢查特定的檔案偏移量」。
● 深度學習:透過多層神經網路,它能「自動提取特徵」。它直接吃進原始數據(如二進位位元流),自己學會哪些細微的模式代表惡意,這大大超越了人類專家的定義能力。
2. 效能與資料量的「規模效應」
● 機器學習:演算法在資料量達到一定程度後,效能往往會進入平台期(Plateau),即使增加再多資料,準確率也難以提升。
● 深度學習:它的模型通常非常巨大(參數極多),且具備極強的食慾。資料量愈大、算力愈強,它的準確率就愈高,幾乎沒有上限。這也是為什麼在巨量數據時代(Big Data),深度學習能把傳統機器學習遠遠拋在腦後。
3. 硬體革命的加持 (GPU/NPU)
深度學習依賴大量的矩陣運算,這在以前的電腦硬體上算力不足的時代,確實受限於硬體資源。但隨著 NVIDIA GPU 以及現代 AI 晶片(NPU)的普及,原本需要跑幾年的訓練任務,現在只要幾天甚至幾小時。這種硬體紅利讓深度學習從「實驗室理論」得以變成「商業實務」。
4. 解決了「特徵工程」的瓶頸
在機器學習時代,資安專家大部分的時間都花在研究「該看哪些欄位」。但在深度學習時代,重點轉向了「如何設計更好的神經網路架構」(如 CNN, RNN, Transformer)。
以資安防禦為例: 傳統 ML 只能分析「已知」的特徵組合,因此難以應對變種;而深度學習(如 Deep Instinct 的技術核心)能分析最底層的二進位結構,這種能力讓它在面對零日攻擊(Zero-day)時,具備了傳統 ML 無法比擬的預測能力。
二、 瞭解駭客的攻擊手法
這是一個非常核心的資安痛點。即便企業部署了知名的防毒軟體(AV)或端點偵測系統(EDR),駭客依然能透過釣魚信件成功入侵並植入勒索軟體︒
- 駭客突破傳統資安防禦工具的主要原因
1「預執行」階段的偵測盲區
大多數傳統防毒軟體是基於特徵碼(Signatures)或行為準則(Rules)。
● 靜態特徵失效:駭客在發動攻擊前,會使用自動化工具不斷修改惡意程式的二進位代碼(多型變異),直到目前的防毒軟體「認不出來」為止,這就是所謂的「零日攻擊」(Zero-day)。
● 行為偵測的滯後性:許多安全工具必須等到程式「執行後」,發現它開始加密檔案或掃描網路,才會觸發警告。然而,此時駭客可能已經取得權限或開始破壞,損害已經造成。
2. 郵件防護與端點防禦的脫節
釣魚信件(BEC 或 Phishing)通常是攻擊的進入點(Initial Access)。
● 電子郵件劫持(Email Thread Hijacking):駭客潛伏在已洩漏的郵件往來中,偽裝成合作夥伴回覆郵件並夾帶惡意檔案。這類郵件來自「真實的通訊對象」,且內容邏輯合理,安全閘道器很難判定為惡意。
● 逃避沙箱偵測:惡意檔案可能被設有密碼(密碼就在信件內容中),或者設定在特定時間後才啟動,這讓自動化的沙箱(Sandbox)掃描無法第一時間觸發其惡意行為。
3. 利用合法工具進行攻擊 (Living-off-the-Land)
現代駭客不一定會直接執行「病毒檔案」,他們會利用系統內建的合法工具(如 PowerShell, WMI, 或遠端桌面 RDP)進行操作。
●防毒軟體通常會信任系統內建的程式。
● 駭客透過釣魚信件騙取員工憑證後,直接以合法身分登入,接著進行橫向移動(Lateral Movement)。這在防毒軟體眼中看起來像是正常的管理行為。
4. 針對工廠與遠端節點的弱點
正如你曾關注的案例,駭客常從安全性較弱的遠端廠區作為跳板。
● 防禦等級不一:總部可能防禦嚴密,但分點或廠區的資安政策可能較鬆散,或者設備較為老舊,無法運行最新的安全偵測軟體。
● VPN 與連線漏洞:駭客一旦透過釣魚取得員工的 VPN 帳密,就能直接穿透防火牆進入內部網路,導致加密行為從內部發起,防不勝防。
三、深度學習AI如何能展現卓越的主動預防防禦能力
Deep Instinct 的深度學習模型之所以展現出所謂的「預測能力」(Predictive Advantage),甚至在數月不更新的情況下仍能攔截未來的惡意程式,核心在於其底層技術邏輯與傳統防毒軟體有本質上的不同。
- Deep Instinct能達成「長效辨識」的幾個技術關鍵
1. 從「特徵碼」轉向「基因層級」的辨識
傳統的防毒軟體(AV)或第一代機器學習安全工具,通常是基於「已知特徵」或「人為定義的參數」進行比對。
● 傳統做法:像是在尋找特定的「指紋」,如果駭客稍微修改程式碼,指紋變了,防護就會失效,必須等廠商更新定義檔。
● Deep Instinct 的做法:透過深度神經網路(DNN)對原始二進位位元流(Binary Byte Stream)進行訓練,模型學習的是惡意程式的「DNA」或規律,而非特定特徵,即使惡意程式在半年後出現變種,其底層的程式碼邏輯與惡意意圖(例如異常的記憶體寫入方式、加密行為)通常仍會保留模型曾經學過的「惡意特徵」。
2. 深度學習的「泛化能力」 (Generalization)
這是神經網路最強大的地方。深度學習模型在訓練過程中,並非死記硬背看過的檔案,而是學會了抽象的判斷準則。
● 模型在訓練階段接觸了數以億計的惡意與合法檔案,它建立了一套極其複雜的數學模型來定義「惡意」。
● 這套模型具備極高的容錯與推演能力,即便 6 個月後的惡意程式採用了新的包裝(Packer)或混淆手段,只要其核心的二進位特徵仍落在模型定義的「惡意空間」內,模型就能判斷其具有風險。
#在深度學習的領域中,「泛化能力」(Generalization) 是衡量一個模型好壞最核心的指標。簡單來說,它代表模型對「沒見過的資料」做出正確判斷的能力。
我們可以透過以下幾個層次來理解這個概念:
I. 核心定義:舉一反三
泛化能力是指一個機器學習模型在面對訓練集(Training Set)之外的新樣本時,依然能保持預測準確性的能力。
● 低泛化能力(死記硬背): 模型只是把看過的考古題答案背下來,一旦題目稍微改個數字或換個說法,模型就答不出來,這在術語上稱為「過擬合」(Overfitting)。
● 高泛化能力(融會貫通): 模型學會了題目背後的邏輯與規則,即便遇到從未看過的題目,它也能根據學到的規律推導出正確答案。
II. 為什麼泛化能力對資安防禦很重要?
以你關注的預執行防禦(如 Deep Instinct)為例,泛化能力的強弱直接決定了防護效果:
● 傳統特徵碼 (Signatures):泛化能力幾乎為 0,只要惡意程式改掉一個 Byte,指紋就對不上,防禦立即失效。
● 深度學習模型:泛化能力極高,模型在訓練時看過數千萬個勒索軟體的樣本,它提取出的特徵是「惡意邏輯的本質」(例如:特定的二進位代碼排列規律)。
○ 實際場景: 駭客在 6 個月後開發出一個新的勒索軟體,雖然它的檔案雜湊值(Hash)和封裝方式是新的,但其核心的二進位特徵仍符合模型學到的「惡意範式」,具備高泛化能力的模型能一眼看出:「雖然我沒看過這個檔案,但它的結構和特質看起來就是惡意程式。」
III. 如何達成良好的泛化能力?
要讓模型具備泛化能力,通常需要具備以下條件:
● 資料的多樣性:訓練資料必須包含各種不同變體(良性、惡意、各類型包裝),讓模型學會區分什麼是「本質特徵」,什麼是「噪音」。
● 模型複雜度適中:模型不能太簡單(學不到規律),也不能太複雜(導致它開始背誦細節而非尋找規律)。
● 正規化技術 (Regularization):透過數學手段限制模型的某些參數,強迫它不能過度依賴單一特徵,必須尋找更具普遍性的規律。
IV. 泛化能力的價值
泛化能力就是「預測未來」的基礎。 在資安對抗中,駭客永遠在變換攻擊手段,一個具備強大泛化能力的模型,本質上是建立了一個「惡意的數學邊界」。只要未來的攻擊行為落在這個邊界內,模型就能在攻擊發生前(Pre execution)將其攔截,而不需要依賴後續的頻繁更新。
3. 預執行 (Pre-execution) 與靜態分析
Deep Instinct 的模型專注於檔案執行前的靜態檢測。
● 它不依賴「行為偵測」(例如等程式跑起來後看它有沒有連外網),因為行為偵測通常需要頻繁更新行為模式庫。
● 由於模型是直接分析檔案的原始結構,它捕捉的是程式碼中最基礎、最難以隱藏的本質,這種本質在短時間(如 6 到 12 個月)內不會發生劇烈的範式轉移(Paradigm Shift)。
4. 高維度的特徵提取
相較於人類工程師只能定義幾百個安全特徵,深度學習模型可以自行提取數百萬個、甚至數千萬個微小的特徵維度。
● 駭客可以輕易規避人類想得到的 100 個規則,但很難同時規避掉神經網路中數百萬個微小的數學關聯。
● 這種高度複雜性使得模型對「新型態攻擊」具有極強的韌性。
#時間差的優勢
這就是所謂的 「預測性代溝」(Predictive Gap)。
當一個深度學習模型訓練完成時,它已經具備了辨識未來變種的能力,實驗證明,這類模型在斷網環境下,面對半年後才出現的勒索軟體(如 RansomHub 或新版 Deadbolt),依然能保持 99% 以上的偵測率,因為對於模型來說,這些「新」威脅本質上只是舊有惡意邏輯的排列組合。
5. 預測性代溝(Predictive Gap)
「預測性代溝」(Predictive Gap)是資安領域、特別是採用深度學習技術的廠商(如 Deep Instinct)常用的一個術語。它描述的是「安全模型最後一次更新的時間」與「該模型依然能有效攔截新威脅的時間」之間的差距。
- 預測性代溝:是一個衡量 AI 模型「超前預測」能力的指標
1. 核心概念:跨越時間的防禦
在傳統資安架構中,防護能力通常隨著時間迅速衰減,而「預測性代溝」代表了 AI 模型在不需要任何更新的情況下,依然能保持高偵測率的「有效期」。
● 傳統模型的困境:如果今天更新了特徵碼,明天出現的新病毒可能就擋不住。這代表它的預測性代溝趨近於零,甚至是負值(永遠在追趕已發生的攻擊)。
● 深度學習模型的優勢:一個訓練良好的模型,即使是 2025 年 1 月的版本,到了 2025 年 7 月依然能攔截這半年間新出現的勒索軟體,這多出來的 6 個月,就是該模型的預測性代溝。
2. 為什麼會產生這個「代溝」?
這與我們之前提到的「泛化能力」息息相關,因為深度學習模型學習的是檔案的底層二進位特徵(DNA),而惡意程式的演進是有跡可循的:
● 惡意邏輯的穩定性: 儘管駭客會更換外殼或加密方式,但「檔案加密」、「權限提升」或「橫向移動」的底層程式碼邏輯在短時間內不會有革命性的改變。
● 高維度捕捉: 神經網路捕捉了成千上萬個微小特徵,駭客很難在一次改版中就把所有特徵都換掉。
● 數學邊界的韌性: 模型在數學空間中劃定了一塊「惡意領域」,只要新病毒的特徵落在這塊領域內,即便它是今天才寫出來的,也會被判定為威脅。
3. 對於企業運維(IT/Security Management)的實際意義
在管理角度,「預測性代溝」帶來了幾個關鍵優勢:
● 應對「零日攻擊」(Zero-day): 在漏洞被公開、更新檔尚未發布的真空期,具備長效預測能力的模型能提供一道自動化的防線。
● 解決離線環境(Air-gapped)的風險: 對於無法頻繁連網更新的廠區(如製造業生產線、封閉式機房),預測性代溝愈長,代表這些設備在缺乏即時更新時的安全性愈高。
● 降低管理成本: 減少了對「即時更新」的極度依賴,讓資安團隊有更多緩衝時間處理系統更新與補丁測試。
4. 預測性代溝對於防禦工具的價值
「預測性代溝」就像是一把保護傘的直徑,傘撐得愈開(代溝愈長),即使你站在原地不動(不更新模型),你能在暴雨(新型攻擊)中保持乾燥的時間就愈久。 這也是為什麼在評估現代端點防護(EPP)時,許多專家會測試「離線偵測率」——將模型凍結在數月前的版本,測試它對今日最新樣本的攔截能力。
四、為什麼「深度學習」是新型態駭客攻擊的唯一解法?
面對 AI 化的攻擊,必須用「更好的 AI」來反制。
這就是為什麼現在強調深度學習預執行(Pre-execution)模型的原因:
● 拋棄特徵碼: 深度學習模型(如 Deep Instinct)不看特徵碼,而是看檔案最底層的「二進位基因」。
● 極高的泛化能力: 即便駭客用 AI 產生了從未見過的變種,只要惡意程式的底層邏輯(DNA)符合模型學到的惡意範式,就能在檔案被執行之前的一毫秒內直接將其殺掉。
● 無須頻繁連網: 因為它學的是本質規律而非細節特徵,所以即便半年不更新,面對「未來」的 AI 變種仍有極高的偵測率,這就是所謂的「預測性代溝」。
目前資安現況是:駭客已經開著賽車跑在前面,而傳統防毒還在走路追趕。
五、結論
對於管理階層或技術決策者來說,「偵測(Detection)」已經不夠,必須要「預測與預防(Prevention)」。
當企業的防禦系統如果無法在檔案點開的那一瞬間(甚至之前)做出判斷,那麼在 AI 化的威脅環境下,被勒索軟體攻破只是時間早晚的問題。
- 面對中小企業的端點安全佈建策略,我們的建議是
從『先阻擋』開始,而非從『先調查』開始
第一優先 應是讓惡意檔案、未知樣本與勒索模組盡量不要成功執行;
第二優先 才是提升事後調查深度與可視性;
第三優先 則是成熟化與自動化營運。
- 面對大型企業的端點安全佈建策略,我們的建議是
積極補強『主動預防』機制,端點安全分工,有效拉大資安防禦縱深
● 第一線由 Prevention-first 產品負責降低惡意檔案啟動機率;
● 第二線由 EDR 或 Managed EDR 提供事件脈絡、調查與進階回應。
這樣的組合能同時兼顧事故發生前的風險壓制,以及事故發生後的追查與處理能力︒
錡碩資訊 >>
聯繫窗口 : 謝增龍(Felix) | 0936-115496 | [email protected]
網址: www.QISO.com.tw
社群請上FB搜尋 " 微創+ 一起合作8!"
https://www.facebook.com/share/1SGrnEBpKd/?mibextid=wwXIfr




















