NVMe Telemetry 的進階除錯應用:當伺服器發生 Kernel Panic

更新 發佈閱讀 23 分鐘

1. 引言:現代資料中心與 SSD 驗證的挑戰

在現代高效能運算與雲端架構中,NVMe SSD 已成為存儲核心。然而,隨著控制器架構日益複雜,韌體(Firmware)邏輯的深度與規模也隨之激增。對於 SSD 驗證工程師而言,最棘手的問題往往不是那些可重現的邏輯錯誤,而是發生在極端壓力測試或特定工作負載下的「隨機性」系統崩潰(Kernel Panic)。

當伺服器發生 Kernel Panic 時,傳統的作業系統日誌(dmesg)通常只能捕捉到主機端的異常行為,例如 I/O Timeout 或 PCIe 連結中斷。但這僅僅是冰山一角。要真正找出導致崩潰的根源——是 SSD 內部的快取管理衝突?還是快閃記憶體轉換層(FTL)的映射錯誤?——我們需要一種能深入 SSD 內部的「黑盒子」記錄器。這正是 NVMe Telemetry 規範誕生的核心目的。

本文將深入探討 NVMe Telemetry 的技術細節,特別是針對 SSD 驗證工程師,說明如何在 Kernel Panic 的極端情境下,透過分析 Telemetry Log 還原 SSD 的內部微觀狀態,實現從系統層級到底層韌體的精準診斷。我們將從規範基礎、數據結構、擷取策略到實戰分析,全方位解析這一強大的除錯工具。

2. NVMe Telemetry 核心架構深度解析

NVMe 規範(自 1.3 版本起,並在 1.4 與 2.0 中持續強化)定義了 Telemetry 功能,旨在提供一種標準化的方式來收集控制器內部的診斷數據。與傳統的 SMART Log 不同,Telemetry 提供的是更細緻、更具時效性的「快照」。

2.1 主機發起(Host-Initiated, LID 07h)與控制器發起(Controller-Initiated, LID 08h)

Telemetry 分為兩大類機制,這兩者在除錯流程中扮演著互補的角色:

•Host-Initiated Telemetry (LID 07h):由主機端主動請求。驗證工程師通常會配置腳本,在測試過程中定期拉取此日誌,用於監控 SSD 的健康趨勢與性能抖動。主機可以設定 Host-Initiated Data bit 為 1,告知控制器捕捉當下的狀態。

•Controller-Initiated Telemetry (LID 08h):當 SSD 內部偵測到異常事件(如 Firmware Assert、致命硬體錯誤或特定的 Panic 觸發點)時,控制器會自動將當下的內部狀態「凍結」並存入非揮發性存儲。這份日誌會一直保留,直到主機端將其讀取並清除。在 Kernel Panic 的除錯中,LID 08h 是還原現場的最關鍵證據。控制器會透過 Asynchronous Event Request (AER) 通知主機「有新的 Telemetry 數據可用」。

2.2 Telemetry Data Areas (DA1, DA2, DA3, DA4)

Telemetry 數據被劃分為不同的層次,這種設計是為了兼顧數據收集的效率與除錯的深度:

•Data Area 1 (DA1):通常為小型數據塊(如 512B 或數 KB),包含最基礎的控制器狀態與性能指標。其特點是讀取延遲極低,對正常 I/O 的影響微乎其微。它通常包含關鍵的計數器(Counters)和錯誤代碼。

•Data Area 2 (DA2):中型數據塊,包含更詳細的韌體狀態資訊,如各個核心(Core)的負載、主要隊列(Queues)的狀態、以及內部的資源分配情況。

•Data Area 3 (DA3):這是「除錯金礦」。它通常包含完整的韌體 Context 轉儲(Dump),包括 SRAM 內容、堆疊追蹤(Stack Trace)、FTL 映射表的局部快照、以及詳細的命令執行歷史。雖然體積龐大且讀取耗時,但它是唯一能還原崩潰當下「微觀世界」的數據來源。

•Data Area 4 (DA4):在較新的 NVMe 2.0 規範中引入,旨在提供更長期的歷史記錄或更專業的 Vendor-Specific 診斷數據。

2.3 OCP Cloud SSD 規範的影響

開放運算計畫(OCP)針對雲端資料中心定義了更嚴格的 SSD 規範。在 OCP Cloud SSD Spec v1.0 與 v2.0 中,Telemetry 被賦予了更高的權重。例如,規範要求 SSD 必須支持特定的「Panic ID」和「Reset Action」,並在 Telemetry Log 中標準化這些欄位。這使得超大規模雲端服務商(Hyperscalers)能夠跨廠商地自動化處理 SSD 故障。

3. Kernel Panic 與 SSD 異常的因果鏈結

在伺服器環境中,SSD 異常引發 Kernel Panic 的常見路徑主要有三種。理解這些路徑有助於我們在 Telemetry 中尋找特定的線索。

3.1 I/O Timeout 導致的級聯崩潰

這是最常見的場景。當 SSD 控制器內部發生死鎖(如垃圾回收程序與主機 I/O 爭奪資源失敗,或背景掃描發現了無法修正的 ECC 錯誤),導致命令無法在規定時間內完成。

1.主機端 NVMe 驅動偵測到 Timeout(通常為 30 秒)。

2.驅動程式嘗試進行 Controller Reset。

3.如果 SSD 韌體已完全掛起(Hung),Reset 操作將超時。

4.Linux 內核因為無法存取根文件系統或交換分區(Swap),最終觸發 Kernel Panic。

在 Telemetry DA3 中,我們可以通過檢查「Pending Command Queue」來確認哪些命令導致了最初的延遲。

3.2 錯誤的 Completion Queue Entry (CQE)

如果 SSD 韌體在極端情況下回傳了格式錯誤或邏輯不一致的完成訊息,後果可能非常嚴重。

•重複的 Command ID:主機驅動可能會嘗試釋放已經釋放的記憶體,導致 Double Free 錯誤。

•非法的中斷向量:可能導致主機 CPU 進入錯誤的中斷處理常式。

•記憶體損毀:若 SSD 透過 DMA 寫入了超出預期範圍的資料(Buffer Overflow),可能覆蓋掉內核的關鍵數據結構。

這些情況下,主機端的 dmesg 會顯示 General Protection Fault 或 Null Pointer Dereference。Telemetry 中的韌體日誌則能揭示為什麼韌體會產生錯誤的 CQE。

3.3 PCIe 致命錯誤 (AER) 與 NVM Subsystem Reset

SSD 控制器的硬體異常可能導致 PCIe 物理層或數據鏈路層發生致命錯誤(Fatal Error)。

•AER (Advanced Error Reporting):當系統偵測到 PCIe 致命警報時,為了防止數據損壞,作業系統通常會立即停止運行。

•NSSRO (NVM Subsystem Reset Occurred):如果 SSD 內部偵測到不可恢復的硬體錯誤並執行了子系統重置,主機端會突然失去對設備的訪問。

4. Telemetry Log 的擷取策略:帶內(In-band)與帶外(Out-of-band)

當伺服器發生 Kernel Panic 時,如何有效地獲取 Telemetry Log 是除錯成功的關鍵。這取決於系統的可用性以及 SSD 驗證環境的配置。

4.1 帶內(In-band)擷取:驅動程式與 nvme-cli

在系統重啟後,最常見的擷取方式是透過主機端的 NVMe 驅動程式。驗證工程師可以使用 nvme-cli 工具來讀取控制器發起的 Telemetry Log。

檢查數據可用性:

# 讀取 Telemetry Log Header 並檢查 TCDA (Telemetry Controller-Initiated Data Available)
nvme get-log /dev/nvme0 --log-id=0x08 --log-len=512
# 下載包含所有 Data Area 的數據
# --data-area=3 代表包含 Area 1, 2, 3
nvme telemetry-log /dev/nvme0 --output-file=crash_dump.bin --data-area=3

進階參數說明:
在某些複雜情況下,工程師可能需要使用 --host-gen 參數來確保主機端與控制器端的數據代數(Generation Number)匹配,避免讀取到舊的或不完整的數據。

4.2 帶外(Out-of-band, OOB)擷取:BMC 與 IPMI/MCTP

對於高階伺服器驗證,帶外管理是不可或缺的。透過基板管理控制器(BMC),驗證工程師可以在主機作業系統完全崩潰、甚至 CPU 停機的情況下,透過 SMBus/I2C 或 PCIe VDM 介面讀取 SSD 的 Telemetry 數據。

為什麼 OOB 如此重要?

1.防止現場被破壞:某些 SSD 控制器在 PCIe 重置(Reset)過程中會清除內部的揮發性除錯緩衝區。若能在系統重啟前透過 BMC 鎖定並讀取 Telemetry Log,將能大幅提高除錯的成功率。

2.死機除錯:如果 Kernel Panic 導致系統無法重啟,OOB 是唯一的救命稻草。

3.自動化集成:資料中心維運系統可以透過 BMC 自動收集所有故障 SSD 的 Telemetry,進行大規模的統計分析。

4.3 擷取時機的掌握

•即時觸發:在驗證腳本中,一旦偵測到 I/O 錯誤,應立即觸發 Host-Initiated Telemetry。

•事後追蹤:對於已經發生 Panic 的系統,重啟後的第一件事就是檢查 LID 08h。

5. 深入解析 Telemetry Header:解鎖診斷的第一步

每一份 Telemetry Log 的開頭都是一個標準化的 Header(通常為 512 位元組)。對於驗證工程師來說,理解 Header 中的欄位是解讀後續龐大二進制數據的鑰匙。

5.1 關鍵欄位解析

•Telemetry Controller-Initiated Data Available (TCDA):這是 Header 中最關鍵的位元(位於位元組 384)。如果 TCDA 為 1,代表控制器內部發生了觸發事件,且 LID 08h 中存有有效的診斷數據。

•Telemetry Controller-Initiated Data Generation Number:這是一個循環遞增的數字。每當控制器產生新的 LID 08h 報告時,此數字就會更新。這有助於驗證工程師確認當前讀取的日誌是否與最近一次的 Kernel Panic 對應。

•Reason Identifier:這是一個 Vendor-Specific 的欄位(位於位元組 385-511 的一部分)。常見的數值可能代表:

•0x01:韌體斷言(Firmware Assertion)。

•0x02:硬體看門狗超時(Hardware Watchdog Timeout)。

•0x03:過熱保護觸發(Thermal Throttling/Panic)。

•0x04:內部資源耗盡(Resource Exhaustion)。

•Data Area Size:定義了 DA1, DA2, DA3 各自的大小。由於 DA3 的大小可能隨韌體版本而異,正確讀取這些欄位對於解析 .bin 檔案至關重要。

5.2 數據一致性檢查

Header 中通常還包含校驗碼(Checksum)或循環冗餘校驗(CRC)。在開始昂貴的解析工作之前,驗證工程師應首先確認數據的完整性。如果 Telemetry Log 在寫入快閃記憶體過程中因為掉電(Power Loss)而受損,Header 中的資訊將提醒我們該日誌可能不可靠。

6. 進階除錯應用:如何還原 SSD 當下狀態

一旦獲取了 Telemetry Log,真正的挑戰在於如何將這些原始的二進制數據轉化為可理解的系統狀態。這通常需要配合廠商提供的解析工具(Parser),但理解其背後的還原邏輯對於驗證工程師至關重要。

6.1 命令歷史追蹤(Command History Analysis)

Data Area 3 通常包含一個循環緩衝區(Circular Buffer),記錄了崩潰前最後幾千個執行的 NVMe 命令。透過還原這些命令的提交(Submission)與完成(Completion)時間戳記,驗證工程師可以發現:

•未完成命令(Outstanding Commands):哪些命令發送了但一直沒有收到 CQE?如果所有未完成命令都集中在特定的 Namespace 或特定的 LBA 範圍,可能指向了媒體損壞(Media Corruption)或特定的韌體邏輯錯誤。

•命令執行順序:是否存在特定的命令組合(如多個大規模隨機寫入後接一個 Sanitize 指令)觸發了韌體的競爭條件(Race Condition)?

•隊列深度(Queue Depth)趨勢:在崩潰前夕,隊列深度是否突然達到上限?這可能暗示了內部的流量控制(Flow Control)失效。

6.2 韌體 Context 與堆疊還原(Context & Stack Trace)

當韌體發生 Assertion 時,Telemetry 會捕捉當下所有核心(Core)的暫存器狀態與函數調用堆疊。這能精確指出錯誤發生的程式碼行數。對於驗證工程師,這能幫助他們確認是特定功能模組(如 Wear Leveling 或 ECC 修正邏輯)在特定邊界條件下失效。

•暫存器狀態(Register State):包括程序計數器(PC)、堆疊指針(SP)以及通用暫存器。如果 PC 指向了一個非法的記憶體地址,可能發生了指標錯誤。

•堆疊追蹤(Stack Trace):顯示了函數調用的層次。這對於理解韌體在崩潰瞬間正在執行的複雜操作(如垃圾回收期間的元數據遷移)至關重要。

6.3 SRAM 與緩衝區轉儲(SRAM Dump)

這是最具挑戰性的部分。Data Area 3 可能包含 SSD 內部 SRAM 的快照。這包括了 FTL 映射表的部分快取、緩衝區管理器的元數據(Metadata)等。

•FTL 映射表(FTL Mapping Table):如果 Kernel Panic 是由數據不一致(Data Inconsistency)引起的,驗證工程師可以檢查 SRAM 中的元數據是否與快閃記憶體中的實際物理狀態匹配,從而判斷是記憶體損壞還是邏輯計算錯誤。

•緩衝區管理(Buffer Management):檢查是否有緩衝區洩漏(Buffer Leak)或非法佔用。

6.4 背景任務狀態(Background Task Status)

SSD 不僅處理主機 I/O,還執行大量的背景任務:

•垃圾回收(Garbage Collection, GC):檢查 GC 的進度、受影響的區塊(Blocks)以及是否有異常的搬移失敗。

•磨損均衡(Wear Leveling, WL):確認是否有區塊因為過度擦寫而觸發了緊急搬移,導致 I/O 停頓。

•背景掃描(Background Scan):某些韌體會定期掃描媒體以發現潛在的數據腐壞。

7. SSD 驗證工程師的實戰技巧:從數據到真相

在實際的 SSD 驗證過程中,獲取 Telemetry Log 只是第一步。如何將這些二進制數據轉化為有意義的診斷報告,並與系統層級的日誌進行對齊,是區分初級與資深工程師的關鍵。

7.1 跨層級日誌對齊(Log Correlation)

Kernel Panic 發生後,驗證工程師手頭通常有三份日誌:

1.Linux dmesg / kdump:顯示主機端最後的遺言(如 nvme0: I/O 24 QID 4 timeout, completion polled)。

2.PCIe 分析儀(Protocol Analyzer)截圖:顯示物理層與數據鏈路層的封包。

3.NVMe Telemetry Log:顯示 SSD 內部的微觀狀態。

對齊時間戳記(Timestamp Alignment) 是最重要的步驟。雖然主機端與 SSD 端的時鐘頻率不同,但 NVMe 規範定義了 Timestamp 設定功能。驗證工程師應確保在測試開始前同步兩端的時間。在分析時,若發現主機端在 T=100s 發生 Timeout,而 Telemetry Log 顯示 SSD 內部的垃圾回收(GC)模組在 T=99.8s 發生 Assertion,這就能直接鎖定 GC 邏輯為元兇。

7.2 自動化蒐集與預處理(Automation & Pre-processing)

在進行大規模壓力測試(Stress Test)時,人工蒐集日誌是不切實際的。資深驗證工程師通常會開發自動化框架:

•監控腳本:持續輪詢 nvme list 或透過 BMC 監控 SSD 狀態。

•觸發器(Trigger):一旦偵測到系統 Panic 或 SSD 離線,自動執行 nvme telemetry-log 擷取指令。

•日誌解密與解析:由於 Data Area 3 通常包含廠商的知識產權(IP),數據往往是加密或壓縮的。驗證工程師需要整合廠商提供的 SDK 或 Parser,將二進制 Dump 自動轉換為 JSON 或 CSV 格式,方便後續的數據分析。

7.3 視覺化分析:還原 I/O 軌跡

將 Telemetry 中的命令歷史視覺化,可以幫助工程師快速識別模式。例如,使用 Python 的 Matplotlib 或 Plotly 庫,將每個命令的延遲(Latency)與隊列深度(Queue Depth)繪製成圖表。如果在 Kernel Panic 前夕,特定隊列的延遲突然飆升,這可能暗示著韌體內部的隊列管理(Queue Management)出現了死鎖。

8. 案例研究:一次真實的 Kernel Panic 診斷過程

為了更好地理解 Telemetry 的威力,讓我們回顧一個典型的驗證案例。

場景:在進行隨機讀寫混合測試時,伺服器每運行約 48 小時就會發生一次隨機的 Kernel Panic。dmesg 僅顯示 nvme0: fatal error, resetting controller,隨後系統掛起。

診斷步驟:

1.獲取日誌:系統重啟後,工程師立即使用 nvme-cli 提取了 LID 08h。

2.解析 Header:發現 Reason Identifier 為 0x0E(韌體內部的緩衝區溢位警告)。

3.分析 Data Area 3:透過廠商的 Parser,工程師發現 Data Area 3 中的「未完成命令列表」中,有幾個特定的 Read 命令指向了同一個物理 NAND 區塊。

4.還原狀態:進一步檢查 SRAM Dump 中的 FTL 映射表,發現該區塊正在進行背景讀取重試(Read Retry)。

5.定論:原來是韌體在處理高強度的讀取重試時,未能正確處理新進入的主機讀取請求,導致內部的任務調度隊列(Task Scheduler Queue)溢位。

如果沒有 Telemetry,這個錯誤可能會被歸類為「隨機硬體故障」,而無法在韌體層級得到根本性的修復。

9. 挑戰與限制:Telemetry 並非萬能藥

儘管 Telemetry 強大,但在實際應用中仍面臨一些挑戰:

•Vendor-Specific 障礙:Data Area 2 和 3 的內容幾乎完全由廠商定義且不公開。這意味著驗證工程師必須依賴廠商提供的 Parser。如果 Parser 版本與韌體版本不匹配,解析結果可能完全錯誤。

•數據量龐大:DA3 可能達到數百 MB。在帶外(OOB)低速介面(如 I2C)上讀取如此龐大的數據可能需要數十分鐘,這在緊急除錯時是不可接受的。

•隱私與安全:Telemetry 可能包含敏感的元數據甚至用戶數據片段。在雲端環境中,如何安全地傳輸與存儲這些日誌是一個重要課題。

•數據損壞:如果 Panic 發生在控制器寫入日誌的過程中,且 SSD 缺乏足夠的掉電保護(PLP),日誌本身可能會損壞。

10. 結論:Telemetry 是 SSD 驗證的未來

隨著 SSD 容量向 30TB、60TB 甚至更高邁進,內部的管理複雜度呈指數級增長。傳統的「黑箱測試」已無法滿足高品質 SSD 的驗證需求。NVMe Telemetry 不僅是一個規範,它代表了一種「可觀察性(Observability)」的轉變。

對於 SSD 驗證工程師而言,精通 Telemetry 的應用意味著能夠跨越軟硬體的邊界,直接與控制器的「靈魂」對話。未來,隨著 AI 與機器學習技術的引入,我們甚至可以預見自動化的 Telemetry 分析系統,能夠在 Kernel Panic 發生後的幾秒鐘內,自動產出根因分析報告。

在追求極致穩定性的道路上,Telemetry Log 正是我們手中最鋒利的解剖刀。透過標準化的 Header、多層次的數據區域以及強大的帶外擷取能力,我們終於能夠在系統崩潰的灰燼中,還原出 SSD 運行的真實軌跡。


留言
avatar-img
SSD驗證工程師的告白
60會員
336內容數
針對平時SSD驗證上的感想
2026/04/13
摘要 (Abstract) 隨著資料中心與雲端運算的蓬勃發展,對於儲存系統的效能、延遲與容量需求日益嚴苛。傳統的固態硬碟 (SSD) 依賴內部複雜的快閃記憶體轉換層 (Flash Translation Layer, FTL) 來處理邏輯到物理地址的映射與垃圾回收 (Garbage Collect
2026/04/13
摘要 (Abstract) 隨著資料中心與雲端運算的蓬勃發展,對於儲存系統的效能、延遲與容量需求日益嚴苛。傳統的固態硬碟 (SSD) 依賴內部複雜的快閃記憶體轉換層 (Flash Translation Layer, FTL) 來處理邏輯到物理地址的映射與垃圾回收 (Garbage Collect
2026/04/13
1. 前言:儲存架構的演進與 eSSD 的崛起 在資料中心與高效能運算環境中,儲存技術正經歷一場深刻的變革。傳統的直接附加儲存(Direct Attached Storage, DAS)雖然提供了極低的延遲,但在擴展性與資源利用率上卻顯得力不從心。隨著 NVMe(Non-Volatile Memo
2026/04/13
1. 前言:儲存架構的演進與 eSSD 的崛起 在資料中心與高效能運算環境中,儲存技術正經歷一場深刻的變革。傳統的直接附加儲存(Direct Attached Storage, DAS)雖然提供了極低的延遲,但在擴展性與資源利用率上卻顯得力不從心。隨著 NVMe(Non-Volatile Memo
2026/04/13
一、 引言:從「儲存」到「記憶體」的界限模糊化 在人工智慧、高效能運算與大規模資料中心對運算能力的渴求呈現爆炸性增長的背景下,「記憶體牆」(Memory Wall)問題日益凸顯,成為制約系統效能提升的關鍵瓶頸。記憶體牆是指處理器速度的增長遠遠超過記憶體頻寬與存取速度的提升,導致強大的運算核心常常處
2026/04/13
一、 引言:從「儲存」到「記憶體」的界限模糊化 在人工智慧、高效能運算與大規模資料中心對運算能力的渴求呈現爆炸性增長的背景下,「記憶體牆」(Memory Wall)問題日益凸顯,成為制約系統效能提升的關鍵瓶頸。記憶體牆是指處理器速度的增長遠遠超過記憶體頻寬與存取速度的提升,導致強大的運算核心常常處
看更多
你可能也想看
Thumbnail
會議室是職場權力縮影:誰主辦會議就控制議程,座位安排透露權力結構。從被動參與到主動掌控,PM需運用RACI釐清角色、帶結構化方案進場、控制會議節奏。真正的影響力來自專業能力,用數據驅動發言、風險意識思考,讓會議產生價值而非浪費時間。
Thumbnail
會議室是職場權力縮影:誰主辦會議就控制議程,座位安排透露權力結構。從被動參與到主動掌控,PM需運用RACI釐清角色、帶結構化方案進場、控制會議節奏。真正的影響力來自專業能力,用數據驅動發言、風險意識思考,讓會議產生價值而非浪費時間。
Thumbnail
谷歌數據工程師證照題庫彙整 20241025 QUESTION 33 Your software uses a simple JSON format for all messages. These messages are published to Google Cloud..
Thumbnail
谷歌數據工程師證照題庫彙整 20241025 QUESTION 33 Your software uses a simple JSON format for all messages. These messages are published to Google Cloud..
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
QUESTION 64 You are integrating one of your internal IT applications and Google BigQuery, so users can query BigQuery from the application's..
Thumbnail
QUESTION 64 You are integrating one of your internal IT applications and Google BigQuery, so users can query BigQuery from the application's..
Thumbnail
大數據分析師的工作內容多包含傳統數據分析師的工作,比如資料庫建置規劃與維護、數據蒐集與管理以及基礎的統計分析,目前許多數據分析工程師已兼職的方式在家接案,因而常常忽略投保勞健保。 投保職業工會是合法的管道與途徑,只要您是行銷、規劃、諮詢、設計,就能用符合勞保要求的身分來台北市企劃經理人職業工會投保!
Thumbnail
大數據分析師的工作內容多包含傳統數據分析師的工作,比如資料庫建置規劃與維護、數據蒐集與管理以及基礎的統計分析,目前許多數據分析工程師已兼職的方式在家接案,因而常常忽略投保勞健保。 投保職業工會是合法的管道與途徑,只要您是行銷、規劃、諮詢、設計,就能用符合勞保要求的身分來台北市企劃經理人職業工會投保!
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
採購議價的策略與技巧,從成本結構分析、數據佐證到條件交換,建立長期合作關係並有效控制成本。
Thumbnail
採購議價的策略與技巧,從成本結構分析、數據佐證到條件交換,建立長期合作關係並有效控制成本。
Thumbnail
API人機介面可以透過多種方式協助IT工程師進入自動控制領域,尤其是在結合了像EDC系統這樣的工具時,更能顯著降低進入門檻並提升開發效率。以下為具體分析: 1. 降低硬體和底層通訊的複雜性 隨插即用 (Plug-and-Play) 的便利性: EDC系統採用vCAN總線協定,能快速連接各種感
Thumbnail
API人機介面可以透過多種方式協助IT工程師進入自動控制領域,尤其是在結合了像EDC系統這樣的工具時,更能顯著降低進入門檻並提升開發效率。以下為具體分析: 1. 降低硬體和底層通訊的複雜性 隨插即用 (Plug-and-Play) 的便利性: EDC系統採用vCAN總線協定,能快速連接各種感
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
Google Professional Data Engineer 證照題庫彙整 20241118 QUESTION 107 You work for a shipping company that uses handheld scanners to read shipping labels.
Thumbnail
Google Professional Data Engineer 證照題庫彙整 20241118 QUESTION 107 You work for a shipping company that uses handheld scanners to read shipping labels.
Thumbnail
數據分析工程師 可加入企劃經理人職業工會加勞健保! 工作內容包含: 1. 客戶端需求訪談、資料蒐集 2. 具備資料分析、文件撰寫製作及簡報能力 3. 熟悉統計軟體或AI應用,針對資料進行統計分析 4. 利用數據分析與儀表板設計軟體將分析的結果進行資料視覺化 5. 負責終端用戶的軟體操作教育訓練 以上
Thumbnail
數據分析工程師 可加入企劃經理人職業工會加勞健保! 工作內容包含: 1. 客戶端需求訪談、資料蒐集 2. 具備資料分析、文件撰寫製作及簡報能力 3. 熟悉統計軟體或AI應用,針對資料進行統計分析 4. 利用數據分析與儀表板設計軟體將分析的結果進行資料視覺化 5. 負責終端用戶的軟體操作教育訓練 以上
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News