高維稀疏數據

更新 發佈閱讀 2 分鐘

高維稀疏數據是指同時具備兩個特徵的數據類型:

  1. 高維度(High-Dimensional):數據具有非常多的特徵維度,可能從數百、數千到數萬,甚至上百萬。比如詞袋模型中詞彙表的大小、使用One-Hot編碼時產生的維度。


  1. 稀疏性(Sparsity):在這些高維空間中,大部分特徵值多為零或缺失,只有極少數特徵有非零值,信息較為稀缺。

特點:

  • 大量維度導致數據在空間分布極為稀疏,樣本之間距離相似度降低(維度災難)。
  • 直觀來看,如用戶-商品購買記錄中,一個用戶可能只購買少數商品,絕大部分商品維度為0。
  • 導致存儲與計算成本高且容易過擬合,需要特殊處理技術。

常見場景

  • 推薦系統中的用戶-物品交互矩陣
  • 自然語言處理中的詞袋模型特徵
  • 基因表達數據等生物資訊
  • 大規模電子商務用戶行為分析

挑戰:

  • 存儲效率低、計算負擔大。
  • 傳統模型難以在稀疏高維數據上有效學習,易受噪聲影響。
  • 維度災難使模型泛化變差,需要充足樣本及正則化。

處理方法:

  • 降維:利用PCA、矩陣分解、Autoencoder或Embedding技術將高維稀疏數據轉換為低維稠密表示。
  • 稀疏矩陣格式:如CSR、CSC格式節省存儲與加速計算。
  • 專門模型:如因子分解機(FM)、深度學習模型結合正則化減少過擬合。
  • 特徵選擇:保留重要特徵減少無效維度。

總之,高維稀疏數據是許多現代應用中的常見數據形式,理解其特性及處理策略對於設計有效的機器學習系統非常重要。

留言
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
46會員
572內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 初級+中級(數據分析) AWS AIF-C01 AWS CLF-C02 Microsoft AI-900 其他:富邦美術館志工
2025/09/08
在線性分類問題中,「線性可分」 是指數據集中的不同類別樣本可以被一條(或一個)線性決策邊界完全分開,且沒有任何誤分類的現象。 具體定義: - 在二維空間中,線性可分意味著存在一條直線,能將所有屬於類別A的數據點和類別B的數據點完全分隔到直線的兩側。 - 在更高維度中,這條直線對應的是一個超平面
2025/09/08
在線性分類問題中,「線性可分」 是指數據集中的不同類別樣本可以被一條(或一個)線性決策邊界完全分開,且沒有任何誤分類的現象。 具體定義: - 在二維空間中,線性可分意味著存在一條直線,能將所有屬於類別A的數據點和類別B的數據點完全分隔到直線的兩側。 - 在更高維度中,這條直線對應的是一個超平面
2025/09/05
Bootstrap 是一種統計和機器學習中常用的重抽樣技術,通過從原始數據集中「有放回地」多次抽取樣本,生成多組新的訓練數據集(稱為Bootstrap樣本),用以估計統計量的分布,提升模型穩定性和泛化能力。 Bootstrap的主要特點: 有放回抽樣**:從原數據集中抽取樣本,抽取後的樣本可被再
2025/09/05
Bootstrap 是一種統計和機器學習中常用的重抽樣技術,通過從原始數據集中「有放回地」多次抽取樣本,生成多組新的訓練數據集(稱為Bootstrap樣本),用以估計統計量的分布,提升模型穩定性和泛化能力。 Bootstrap的主要特點: 有放回抽樣**:從原數據集中抽取樣本,抽取後的樣本可被再
2025/09/05
Naive Bayes 是一種基於貝葉斯定理的概率分類演算法,其核心假設是特徵條件獨立,即假定在給定類別的情況下,各特徵之間相互獨立。雖然這一假設在現實中往往不成立,但Naive Bayes在許多實際應用中表現良好,且算法簡單、計算效率高。 常見的Naive Bayes分類器類型: 高斯(Gau
2025/09/05
Naive Bayes 是一種基於貝葉斯定理的概率分類演算法,其核心假設是特徵條件獨立,即假定在給定類別的情況下,各特徵之間相互獨立。雖然這一假設在現實中往往不成立,但Naive Bayes在許多實際應用中表現良好,且算法簡單、計算效率高。 常見的Naive Bayes分類器類型: 高斯(Gau
看更多
你可能也想看
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 5中說當Context長度是d,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 5中說當Context長度是d,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
全新版本的《三便士歌劇》如何不落入「復刻經典」的巢臼,反而利用華麗的秀場視覺,引導觀眾在晚期資本主義的消費愉悅之中,而能驚覺「批判」本身亦可能被收編——而當絞繩升起,這場關於如何生存的黑色遊戲,又將帶領新時代的我們走向何種後現代的自我解構?
Thumbnail
全新版本的《三便士歌劇》如何不落入「復刻經典」的巢臼,反而利用華麗的秀場視覺,引導觀眾在晚期資本主義的消費愉悅之中,而能驚覺「批判」本身亦可能被收編——而當絞繩升起,這場關於如何生存的黑色遊戲,又將帶領新時代的我們走向何種後現代的自我解構?
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論: Attention Layer的複雜度是O(n^2 *
Thumbnail
長期以來,西方美學以《維特魯威人》式的幾何比例定義「完美身體」,這種視覺標準無形中成為殖民擴張與種族分類的暴力工具。本文透過分析奈及利亞編舞家庫德斯.奧尼奎庫的舞作《轉轉生》,探討當代非洲舞蹈如何跳脫「標本式」的文化觀看。
Thumbnail
長期以來,西方美學以《維特魯威人》式的幾何比例定義「完美身體」,這種視覺標準無形中成為殖民擴張與種族分類的暴力工具。本文透過分析奈及利亞編舞家庫德斯.奧尼奎庫的舞作《轉轉生》,探討當代非洲舞蹈如何跳脫「標本式」的文化觀看。
Thumbnail
若說易卜生的《玩偶之家》為 19 世紀的女性,開啟了一扇離家的窄門,那麼《海妲.蓋柏樂》展現的便是門後的窒息世界。本篇文章由劇場演員 Amily 執筆,同為熟稔文本的演員,亦是深刻體察制度縫隙的當代女性,此文所看見的不僅僅是崩壞前夕的最後發聲,更是女人被迫置於冷酷的制度之下,步步陷入無以言說的困境。
Thumbnail
若說易卜生的《玩偶之家》為 19 世紀的女性,開啟了一扇離家的窄門,那麼《海妲.蓋柏樂》展現的便是門後的窒息世界。本篇文章由劇場演員 Amily 執筆,同為熟稔文本的演員,亦是深刻體察制度縫隙的當代女性,此文所看見的不僅僅是崩壞前夕的最後發聲,更是女人被迫置於冷酷的制度之下,步步陷入無以言說的困境。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News