新加坡主權AI選擇開源的中國Qwen

更新 發佈閱讀 26 分鐘
vocus|新世代的創作平台

「新加坡行,為何台灣不行?」這個新聞,在台灣肯定會引發這樣的發問。

「來自中國的AI大模型,新加坡怎麼敢用?這沒有國安隱憂嗎?」這是另一類常見質疑。

再進一步問:台灣是南島語系的源頭,有來自東南亞的大量移工,少子化的未來也有可能引入大量來自印度、東南亞的移民,台灣政府是否可以拿台灣通行的各種語言,從頭訓練一個大語言模型?

2025 年 11 月 24 日,新加坡國家人工智慧計畫(AI Singapore, AISG)在一則低調卻分量十足的公告裡,宣佈了一次「換心手術」:

最新一代國家級大型語言模型 SEA‑LION v4,正式改用阿里巴巴通義千問 Qwen3‑32B 作為基礎模型,版本名就叫 Qwen‑SEA‑LION‑v4Computer Weekly+1

在這個地處美中之間的小國,這不是單純的技術選型,而是牽動「主權 AI」、區域語言命運與產業生態的一次大轉彎。更有意思的是,這個選擇也正在被其他東南亞國家,用各自的方式「接力」。

下面我們就用一個故事的方式,從新加坡的國家級 LLM(大型語言模型),講到整個東南亞如何看待 Qwen。


一、從「本土導遊」開始的國家級 LLM

故事要從兩年前說起。

1. SEA‑LION:為東南亞量身打造的「本土導遊」

2023 年底,新加坡啟動了一項 7,000 萬新幣的「國家多模態 LLM 計畫」(National Multimodal LLM Programme, NMLP),目標很直接:打造一套真正懂東南亞語言和文化的基礎模型。這筆錢由新加坡國家研究基金會(NRF)出資,並獲得資通訊媒體發展局(IMDA)等政府單位支持。Sina Finance+2The Business Times+2

NMLP 之下誕生的旗艦計畫,就是 SEA‑LION(Southeast Asian Languages In One Network)。這是一個專門為東南亞語言設計、開源、可自部署的 LLM 家族:

  • 由 AISG 帶頭研發,
  • 目標是支援至少十幾種東南亞語言、方言與中英雙語,
  • 同時能在較低算力資源上運行。SEA-LION+2Carnegie Endowment+2

「新加坡」在梵語裡是「獅城」的意思。SEA-LION很適合用來命名一個「由新加坡主導、替整個東南亞說話」的 AI 計畫。

《聯合早報》用一個很形象的比喻,稱 SEA‑LION 就像新加坡自己打造的 AI「本土導遊」:懂地區文化背景、也聽得懂新加坡式英語(Singlish)這樣的混合語境。zaobao.com+1

從技術上看,SEA‑LION 第一版是從零開始預訓練的基礎模型

  • 使用約 一兆(1T)tokens 的語料
  • 其中約 13% 是東南亞語言、64% 是英語,剩下是中文與程式碼,遠遠高於當時 Meta Llama 2 中東南亞語料不到 0.5% 的比例。Carnegie Endowment+1

卡內基國際和平基金會(Carnegie Endowment) 的研究指出,SEA‑LION 是少數幾個在東南亞真正「從頭預訓練」而非只做微調的本地模型之一,其目的之一,就是避免依賴大企業不透明的網路爬取資料,減少未來版權風險。Carnegie Endowment+1

2. 一開始的底座:Llama 的優點與盲點

但在最初幾代 SEA‑LION,AISG 仍然大量參考、甚至在局部 沿用 Meta Llama 系列的技術路線。在 2023–2024 年,Llama 是全球開源社群使用最廣的基礎模型之一,性能不俗、開源授權也相對友善。Carnegie Endowment+1

問題在於:

這個「全球通用」的模型,對東南亞其實很不通用。

根據新加坡與國際研究者的分析:

  • Llama 的預訓練語料高度英語中心,
  • 東南亞語言佔比極低,
  • 在處理印尼語、泰語、馬來語這類「低資源語言」時,翻譯與推理品質顯著下滑。Carnegie Endowment+2Gate.com+2

新加坡媒體與智庫在報導 SEA‑LION 早期測試時提到:在地理常識題裡,模型曾把「委內瑞拉」誤答為東協成員國。這種錯誤不只是好笑,還暴露了 用西方模型硬套東南亞語境的結構性盲點Sina Finance+1

再加上東南亞特有的「語碼轉換」(code‑switching)文化:

例如:

  • 新加坡人說 Singlish,句子裡混合英語、福建話、馬來語;
  • 馬來西亞人則有 Manglish,在英語中塞入馬來語詞彙。

標準英語訓練出來的模型面對這種「混合語」時,往往抓不到笑點也聽不懂梗。這一點,在 AISG 與媒體對 SEA‑LION 的描述中,被屢次點名為要解決的核心痛點。Computer Weekly+2zaobao.com+2


二、AISG 為何要「換心」:從 Llama 到 Qwen 的三個關鍵轉折

到了 2024–2025 年,東南亞本地 LLM 的版圖出現了明顯變化。

卡內基國際和平基金會的統計顯示:

2024 年新推出的區域 LLM 中,有約四分之一是基於中國 Qwen 系列模型打造。這代表東南亞開發者開始大規模嘗試「非美國底座」的AI大模型,Qwen 是最受關注的選項之一。Carnegie Endowment+1

另一方面,「主權 AI」的概念,也從口號變成各國政府的實際戰略。動點國際(TechNode Global) 指出,新加坡的 SEA‑LION 和阿聯酋的 Falcon 專案,已經被視為區域主權 AI 的代表案例:用開源與區域合作,確保語言與資料主導權不被單一國家壟斷。TNGlobal+1

在這個大背景下,我們可以把 AISG 的「換心」理解為三個重要轉折:

轉折一:從「自己從零練」到「強強聯手」

SEA‑LION v1–v3 以「從零預訓練」為榮,但這條路極度燒錢、也非常吃算力。

SEA‑LION、PhoGPT(越南)、MaLLaM(馬來)這些少數從頭練的本地模型,其實是「例外中的例外」,大部分東南亞團隊,現實上還是會選擇在大型開源基礎模型上微調。Carnegie Endowment+1

新加坡在「國家多模態大型語言模型計畫」之下逐漸形成一個新的策略思路:

「底座用世界級的,但語料、評測和安全標準要掌握在自己手裡。」

這直接為後來的 「Qwen + SEA‑LION 在地語料」的混血模式 埋下伏筆。SEA-LION+2Computer Weekly+2

轉折二:從「英語中心」到「多語言先天體質」

Qwen 能吸引 AISG 的第一個技術理由,是 先天的多語言體質

根據新加坡《商業時報》(英文版與中文站)與阿里雲 (Alibaba Cloud) 公告:

  • Qwen3‑32B 預訓練在約 36 兆 tokens 上
  • 支援 119 種語言和方言
  • 其中包含多種在主流模型中代表性不足的亞洲與東南亞語言。The Business Times+2Alibaba Cloud+2

相較之下,早期 SEA‑LION 在 Llama2 基礎上的試驗,等於是拿「只略懂一點點東南亞語」的學生,硬要訓成本地導遊;而 Qwen 則是從一開始就把多語言放進 DNA 裡。

這在東南亞之外也有呼應:AI & Data Insider 的一篇 2025 年回顧指出,Qwen 2.5 與 Qwen 3 支援逾百種語言,尤其在亞洲語言表現突出,並「在東南亞市場獲得顯著採用,主因是速度與多語言效率」AI & Data Insider

對 AISG 來說,選擇 Qwen 做底座,相當於承認:

「語言多樣性這件事,Qwen 已經跑在前面,我們不必再重造一個輪子,只需要把東南亞的細節做更好。」

轉折三:從「雲上 AI」到「每台筆電都能跑的國民模型」

第二個關鍵,是 部署成本與主權 AI 需求

英國IT媒體Computer Weekly 與阿里雲公告都強調,Qwen‑SEA‑LION‑v4 能在僅 32GB RAM 的一般筆電上運行,並提供 4‑bit 與 8‑bit 的量化版本,方便中小企業與開發者在本地部署。Sina Finance+3Computer Weekly+3Alibaba Cloud+3

對算力資源有限、又高度重視資料主權的新加坡與東南亞國家而言,這是一個非常務實的賣點:

  • 不必非得租大規模 GPU 集群;
  • 敏感資料可以留在國內甚至內網;
  • 區域內的中小企業與高校,也能動手做實驗。

TechNode 在談「主權 AI」時提到,政府和企業之所以偏好開源權重的 LLM(包括 Qwen),就是因為可以 自建平台、掌握資料流向,並符合本地監管與文化要求TNGlobal

新加坡選擇 Qwen 作為國家級 LLM 的新心臟,很明顯不是只看 benchmark 分數,而是把 「跑得起」、「用得起」與「掌握得住」 這三件事一起算進去了。


三、Qwen‑SEA‑LION‑v4:這顆「新心臟」長什麼樣?

1. Qwen + SEA‑LION:混血模型的技術設計

按照 AISG 與 Alibaba Cloud 的說法,Qwen‑SEA‑LION‑v4 是在 Qwen3‑32B 底座上,用超過 1,000 億個東南亞語言 tokens 做「高階後訓練(advanced post‑training)」,涵蓋緬甸語、菲律賓語、印尼語、馬來語、泰語、越南語、泰米爾語等多種地區語言。The Business Times+2Alibaba Cloud+2

在這個合作裡:

  • Qwen 提供的是「通用推理與多語言能力」的底座
  • AISG 則貢獻清洗過、去除版權風險的在地語料和評測框架,讓模型真正懂得東南亞的語境和知識圖譜。The Business Times+2Carnegie Endowment+2

SEA‑LION 官方網站也同步宣佈,v4 其實是一個「雙主角」系列:

  • Gemma‑SEA‑LION‑v4‑27B
  • Qwen‑SEA‑LION‑v4‑32B

一個基於 Google Gemma(Google 版的輕量級開源大語言模型家族),一個基於 Qwen,反映出新加坡在技術供應商上維持「東西並用」的策略,只是最新一輪升級裡,Qwen 成了多語言版本的核心。SEA-LION+1

2. 為什麼要改 tokenizer?BPE 與非拉丁文字

新浪財經(Sina Finance) 以及阿里雲公司對這次升級特別強調了一個技術細節:

Qwen‑SEA‑LION‑v4 捨棄了先前常見的 sentence‑piece 分詞器,改用 byte‑pair encoding(BPE)。Sina Finance+2Alibaba Cloud+2

這聽起來很工程,但對泰語、緬甸語等 「沒有空格分詞的語言」,意義重大。

  • 傳統以空格或詞為單位的分詞方式,在這些語言上表現很差;
  • BPE 能在字節層級動態學習常見字串,
  • 更適合處理沒有明確詞界線的文字系統。

換句話說,新版 SEA‑LION 不只是「多了幾種語言」,而是 在架構層面重新為東南亞語言調過教

3. Sea‑HELM 排名與「開源替代西方模型」

Computer Weekly 報導指出,Qwen‑SEA‑LION‑v4 在東南亞語言綜合評測榜 SEA‑HELM 中,已登上 200 億參數以下開源模型的第一名,而 AISG 也明確把它定位為「相對於西方英語中心模型的開源替代方案」。The Business Times+3Computer Weekly+3SEA-LION+3

越南的加密與科技媒體《TinTucBitcoin》也以「新加坡國家 AI 計畫棄 Meta、轉向阿里巴巴 Qwen」為題,強調 Qwen‑SEA‑LION‑v4 在東南亞語言能力榜單的領先,認為這會直接加速印尼、泰國、馬來西亞等地的本地 AI 應用開發。Tin Tức Bitcoin+1

在印尼語的 Gate News 報導中,則更直白地寫道:

新加坡 AISG 在最新東南亞模型專案中「停止使用 Meta Llama,改用阿里巴巴 Qwen 架構」,理由之一就是 Llama 在印尼語、泰語、馬來語上的表現不佳,嚴重限制了本地 AI 應用效率。Gate.com+1

從這些不同語言的媒體視角,可以看出一個共同訊號:

在東南亞的語言工地上,Qwen 被視為更「合身」的底座。


四、新加坡本地媒體怎麼講這個故事?

有趣的是,新加坡本地媒體在報導這次「換心」時,各自有不同的語氣:

1. 《商業時報》:技術合作與區域 AI 生態

英文版 Business Times 將這次合作描述為 Alibaba Cloud 支援 AISG 最新版本 SEA‑LION LLM,Qwen‑SEA‑LION‑v4 建立在 Qwen3‑32B 之上,並透過 1,000 億個東南亞語言 tokens 強化本地語言理解。同時點出它在 SEA‑HELM 榜單上的領先,以及這整個專案是「國家多模態 LLM 計畫」旗下、由新加坡國家研究基金會 (NRF) 資助的國家級計畫。The Business Times+2The Business Times+2

中文站的翻譯版標題則是:

「阿里巴巴通義千問賦能新加坡 AI 自研大語言模型『海獅』最新版本」

語氣明顯偏向「雙向賦能」的合作敘事。The Business Times+1

2. 《聯合早報》:小國與本土 AI 的戰略意義

《聯合早報》過去多篇報導中,把 SEA‑LION 描述為 「符合東南亞文化背景和語言的生成式 AI」,並強調新加坡作為小國,在 AI 時代要成為「值得信賴的橋樑」,就必須掌握自己的語言與技術能力。zaobao.com+3zaobao.com+3zaobao.com+3

換句話說,對本地華文媒體來說,AISG 選 Qwen 更像是一個 「在美中科技拉鋸下,小國如何維持技術自主」 的案例,而不是單純的「哪家模型跑比較快」。

3. 中國輿論:從「不再依賴美國」到「全球南方夥伴」

在中國,觀察者網經由新浪財經轉載了一篇頗具情緒的長文,標題是:

《不再依賴美國!新加坡國家 AI 計畫「換心」阿里千問》Sina Finance

文章用很敘事的方式重構了這段歷程:

  • 2023 年 NMLP 啟動,目標是建立 SEA‑LION;
  • 早期以 Llama2 為基礎時,SEA‑LION 幾乎是「東南亞文盲」,甚至在測試中把委內瑞拉當成東協成員國;
  • 東南亞語言在 Llama2 預訓練語料中只佔約 0.5%,而 SEA‑LION 的訓練資料裡東南亞內容佔比約 13%,是前者的 26 倍;Sina Finance+1
  • 在尋找新底座時,AISG 最終選擇了 Qwen3‑32B,部分原因是它從一開始就以 36 兆 tokens、119 種語言預訓練,具備更好的多語言體質;Sina Finance+2The Business Times+2
  • 文中甚至用「工業級能力、民用級門檻」來形容 Qwen‑SEA‑LION‑v4 可在 32GB 筆電上運行這件事。Sina Finance+2Computer Weekly+2

當然,這樣的論調帶有濃厚的中國視角與話語,但也側面反映:

新加坡 AISG 的選擇,被視為「全球南方國家在主權 AI 賽道上,開始不只看美國」的重要象徵。


五、其他東南亞國家怎麼用、怎麼看 Qwen?

AISG 選 Qwen,並不是一個孤立事件,而是插在一整張東南亞 AI 版圖上的關鍵拼圖。

1. 馬來西亞:用 Qwen 打造「本地主權語音 AI」

在馬來西亞,雲通訊公司 ORENCloud 推出的 Vocalis 語音 AI 平台,是一個很典型的「主權 AI + Qwen」案例。

官方介紹裡,Vocalis 主打幾件事:ORENCloud - Digital Starts Here+1

  • 支援在地部署,所有語音資料可以完全留在馬來西亞境內;
  • 為客戶提供「AI Freedom」:可以選擇雲端模型,也可以選擇完全本地離線模型;
  • 在本地模型選項裡,明確列出 LLaMA 3.1、Qwen 2.5 與 SEA‑LION,並強調這些模型已為馬來西亞英語與馬來語做過優化;
  • 單台大約 1.5 萬馬幣的伺服器,就能跑起一整套 AI 語音客服,取代昂貴的雲端 API 費用。

對企業客戶來說,這不是抽象的「主權 AI」討論,而是非常具體的:

「我能不能合法合規(PDPA)、不出國境、又不被外國 API 嚇死帳單?」

在這個設計裡,Qwen 2.5 扮演的是 可本地部署、性能足夠、又多語言強的中型模型,而 SEA‑LION 則提供東南亞語境的額外優勢——兩者在馬來西亞企業的機房裡,實際上是站在同一隊。

2. 區域模型生態:Qwen 成為東南亞 LLM「常用底座」

卡內基的報告整理了 2020–2024 年東南亞各類 LLM 的架構來源,指出到 2024 年:

  • 早期幾乎所有模型都以美國基礎模型(如 GPT‑家族)為主;
  • 之後開始出現本地模型(SEA‑LION、PhoGPT、MaLLaM 等)、法國 Mistral、以及多國合作模型;
  • 2024 年新增的區域模型中,有大約四分之一選用 Qwen 作為底座Carnegie Endowment+1

這個數字本身不算驚人,但訊號很清楚:

「東南亞的開發者,不再只看美國模型,而是把 Qwen 放進同一個工具箱裡一起評估。」

同一份報告也提醒了一個重要風險:

當區域模型大量採用 Qwen 這樣的中國基礎模型時,除了西方的偏見外,也必須警惕可能存在的中文與中國政治語境偏見。這並非 Qwen 獨有,而是所有大型語言模型的共通課題。Carnegie Endowment+1

對東南亞來說,這其實是好事也是壓力:

  • 好事在於,選擇更多了,不再被單一陣營壟斷;
  • 壓力在於,如何在多個大國技術之間,守住自己的價值觀與言論空間,成為技術治理的一部分。

3. 媒體視角:從加密網站到區域科技鏈接

有趣的是,最早把「新加坡國家 AI 專案棄 Meta、轉向 Qwen」這件事講得最大聲的,反而不是傳統 IT 媒體,而是區域性的加密貨幣與金融科技網站。

  • 越南的 TinTucBitcoin 用長文分析,強調 Qwen‑SEA‑LION‑v4 在東南亞語言榜單上領先,認為這會拉高印尼、泰國、馬來西亞本地 AI 產品的速度與品質。Tin Tức Bitcoin+1
  • 印尼的 Gate News 則把焦點放在「AISG 停止使用 Meta Llama」這件事上,用非常直白的語氣說:先前 Llama 在印尼語、泰語、馬來語上的表現不佳,是當地開發者的痛點。Gate.com+1

這些報導雖然帶著加密圈常見的炒作風格,但也反映出一件事:

Qwen 不再只是「中國的開源模型」,而是被當作「東南亞本地 AI 生態的一部分」來討論。


六、回到核心問題:AISG 為何在最新國家級 LLM 上選 Qwen?

綜合以上公開資訊與多家媒體的報導,我們可以把 AISG 的選擇,濃縮成三個層面的答案:

1. 語言與文化層面:Qwen 的多語言底座,讓「本地化」更像「微調」而非「救火」

  • Qwen3‑32B 從預訓練階段就覆蓋 119 種語言與方言,並以 36 兆 tokens 作為基礎語料,讓它在面對印尼語、泰語、馬來語等語言時,起跑線就高於原先 Llama 路線。The Business Times+2Computer Weekly+2
  • AISG 再在此基礎上,投入超過 1,000 億東南亞語言 tokens 做後訓練,等於是把 「懂很多語言」的通才,培養成專門的東南亞通Carnegie Endowment+3The Business Times+3Alibaba Cloud+3
  • 同時改用 BPE 分詞器,針對泰語、緬甸語這種沒有空格的語言做結構優化,從底層提升處理效率與準確度。Sina Finance+2Alibaba Cloud+2

結果就是:在 SEA‑HELM 這個專門評測東南亞語言的榜單上,Qwen‑SEA‑LION‑v4 迅速登頂同量級開源模型的第一名。Tin Tức Bitcoin+3Computer Weekly+3The Business Times+3

2. 工程與主權層面:能在 32GB 筆電跑的「國民級」模型

  • 透過 4‑bit / 8‑bit 量化與架構優化,Qwen‑SEA‑LION‑v4 可以在 32GB RAM 筆電上運行,降低了對高階 GPU 的依賴。Computer Weekly+2Alibaba Cloud+2
  • 這讓小國與中小企業有能力在 國內、甚至機關內網部署國家級模型,滿足資料主權與監管要求,同時控制成本。
  • 馬來西亞 Vocalis 一類的案例也顯示,區域內的企業對「可本地部署的 Qwen + SEA‑LION」組合有明確需求,不僅能對接本地語音與語言,還能保障隱私法規的合規。ORENCloud - Digital Starts Here+2ORENCloud - Digital Starts Here+2

在 TechNode 的主權 AI 框架裡,這種 「開源權重 + 本地部署 + 本地資料」 的組合,正是各國追求的理想形態。TNGlobal+1

3. 政策與生態層面:在美中科技競逐之間,創造「第三種位置」

  • 「國家多模態 LLM 計畫」本來就是一個要讓新加坡在 AI 時代「不只是用別人東西」的計畫,SEA‑LION 代表的是 本地研發與區域合作的旗幟zaobao.com+3The Business Times+3Studocu+3
  • 選擇 Qwen 並不意味著放棄西方技術。同一代 v4 裡還有基於 Google Gemma 的版本。新加坡要在東西雙方之間,「以開源為槓桿,換取更多談判空間」。SEA-LION+2TNGlobal+2
  • 當越來越多東南亞模型採用 Qwen 做底座時,如何理解和治理來自中國語料與政治語境的偏見,同樣是區域必須面對的新功課。Carnegie Endowment+1

從這個角度看,AISG 選 Qwen 更像是一種「多極世界下的小國策略」

既不完全倒向美國,也不完全依賴中國,而是透過開源組合拳,把不同陣營的技術拉進自己的國家計畫裡。


七、故事還沒完:Qwen 在東南亞的下一幕

如果把東南亞的 LLM 生態想像成一個大型開發者社區,Qwen 目前扮演的角色,大概是這樣:

  • 對新加坡而言,它是 SEA‑LION v4 的新心臟,承載國家級 LLM 的推理與多語言能力;Computer Weekly+2SEA-LION+2
  • 對馬來西亞 Vocalis 這類企業來說,它是能本地部署、講得一口道地馬來語和英語的 「實務派 AI 引擎」ORENCloud - Digital Starts Here+1
  • 對越南與印尼的加密與科技媒體,它是象徵「東南亞不再只看美國模型」的 話題中心Tin Tức Bitcoin+1
  • 對整個區域研究社群而言,它則是打破「美國底座一統天下」的關鍵變數之一,帶來更多選擇,也帶來新的治理難題。Carnegie Endowment+2TNGlobal+2

從這個故事回頭:

「AISG 為何在最新國家級 LLM 上選 Qwen?」

也許最精準的回答是:在一個多極化、語言多樣又算力有限的世界裡,Qwen 讓新加坡有機會,把「做自己的模型」這件事, 從夢想,變成在一台 32GB 筆電上就能跑起來的現實。而這樣的現實,也正在被整個東南亞,一國一國地接力上演。

附註:我如何靠AI完成這一篇專題整理?

我使用Chat GPT5.1 pro 版的 pro模式 + deep research。

我先請ChatGPT整理英文媒體的報導,寫一份詳細的中文報告。

然後請ChatGPT整理東南亞媒體的報導,寫一份詳細的中文報告。

最後請ChatGPT依據新加坡本地媒體,整理AISG計畫的起源與變化。

然後再請ChatGPT根據以上三份報告,以說故事的方式撰寫一份不限字數的長篇專題報導。

複製到《方格子》網站上後,手動調整文字內容。ChatGPT引用的資料來源,有保留在《方格子》。

留言
avatar-img
陳豐偉的沙龍
1.7K會員
661內容數
【陳豐偉編譯社】的內容會幫助你瞭解自己、瞭解你的伴侶、家人、親友、同事,讓你更能分析為什麼某些人就是會有這樣的行為模式。無論是人際關係、職場用人或危機處理,以及給予你的親友好的建議,從這裡得到的知識,或許有一天會派上用場。
陳豐偉的沙龍的其他內容
2025/11/24
基本工資不斷調漲的副作用,是中低階工作的「薪資壓縮」,許多人發現自己念了高學歷、或累積多年工作經驗,結果薪水只比基本工資高一些些。即使在經濟持續成長的西班牙,不斷調漲基本工資,最後還是掉進薪資壓縮的陷阱。
Thumbnail
2025/11/24
基本工資不斷調漲的副作用,是中低階工作的「薪資壓縮」,許多人發現自己念了高學歷、或累積多年工作經驗,結果薪水只比基本工資高一些些。即使在經濟持續成長的西班牙,不斷調漲基本工資,最後還是掉進薪資壓縮的陷阱。
Thumbnail
2025/11/22
似曾相識的感覺,常常只是錯覺,卻會讓我們做出錯誤的判斷。不過,世界最有名的「似曾相識」場景,是「駭客任務」電影裡尼歐重複看到黑貓出現兩次,這倒是有讓他們一群人警覺到危機逼近。
Thumbnail
2025/11/22
似曾相識的感覺,常常只是錯覺,卻會讓我們做出錯誤的判斷。不過,世界最有名的「似曾相識」場景,是「駭客任務」電影裡尼歐重複看到黑貓出現兩次,這倒是有讓他們一群人警覺到危機逼近。
Thumbnail
2025/11/21
中老年人一旦沉迷Line或短影音,常常會比年輕人還瘋。如果拿這股勁來學AI,延緩認知功能退化的效果還會更好。
Thumbnail
2025/11/21
中老年人一旦沉迷Line或短影音,常常會比年輕人還瘋。如果拿這股勁來學AI,延緩認知功能退化的效果還會更好。
Thumbnail
看更多
你可能也想看
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
在先前的工作流基礎上強化了InstantID & IPAdapter FaceID,主要功能就是固定角色的模樣,否則單憑幾個定義詞是不可能固定的。 首先介紹一下一些功能,看個人產圖的喜好開關: 1.生成圖片: 這就是基礎工作流,基本不能關。 2.正向提示詞AI: 利用Ollam
Thumbnail
在先前的工作流基礎上強化了InstantID & IPAdapter FaceID,主要功能就是固定角色的模樣,否則單憑幾個定義詞是不可能固定的。 首先介紹一下一些功能,看個人產圖的喜好開關: 1.生成圖片: 這就是基礎工作流,基本不能關。 2.正向提示詞AI: 利用Ollam
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
通义团队重磅开源了首个图像生成模型 Qwen-Image,一款基于20B MMDiT架构的强大模型。本文将深度解析其核心亮点,包括在复杂文本渲染中英文字体处理以及图像编辑方面的卓越表现。我们将通过丰富的案例展示其能力,对比其在第三方基准测试中的领先地位,并提供详尽的本地部署与ComfyUI工作流指南
Thumbnail
通义团队重磅开源了首个图像生成模型 Qwen-Image,一款基于20B MMDiT架构的强大模型。本文将深度解析其核心亮点,包括在复杂文本渲染中英文字体处理以及图像编辑方面的卓越表现。我们将通过丰富的案例展示其能力,对比其在第三方基准测试中的领先地位,并提供详尽的本地部署与ComfyUI工作流指南
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
在2025/10/21,測試AI生中文字的能力與準確率。
Thumbnail
在2025/10/21,測試AI生中文字的能力與準確率。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
阿里巴巴推出Qwen 3系列AI模型,具有混合推理能力,支持119種語言,並以開源方式發布,將加劇中美AI競爭。
Thumbnail
阿里巴巴推出Qwen 3系列AI模型,具有混合推理能力,支持119種語言,並以開源方式發布,將加劇中美AI競爭。
Thumbnail
阿里巴巴正式把「通義」全面升級為 Qwen App,主打「免費、面向大眾」的 AI 助理,採用最新 Qwen3-Max 模型,性能對標 ChatGPT。這次不只是 App 改版,阿里同時大幅調降 API 價格,等於在 C 端與 B 端同時開打價格戰,目標搶下「AI 助理入口」的主導權。
Thumbnail
阿里巴巴正式把「通義」全面升級為 Qwen App,主打「免費、面向大眾」的 AI 助理,採用最新 Qwen3-Max 模型,性能對標 ChatGPT。這次不只是 App 改版,阿里同時大幅調降 API 價格,等於在 C 端與 B 端同時開打價格戰,目標搶下「AI 助理入口」的主導權。
Thumbnail
「通義千問」(英文:Tongyi Qianwen), 是阿里巴巴集團旗下阿里雲所開發的聊天機器人,可以跟人互動、回答問題,還能一起創作內容。 2025/08/21初次使用記錄。
Thumbnail
「通義千問」(英文:Tongyi Qianwen), 是阿里巴巴集團旗下阿里雲所開發的聊天機器人,可以跟人互動、回答問題,還能一起創作內容。 2025/08/21初次使用記錄。
Thumbnail
這篇文章以淺顯易懂的方式介紹語言模型,包含模型取得途徑(Hugging Face平臺推薦)、繁體/簡體中文模型清單(ChatGLM系列、Baichuan系列、Qwen系列、InternLM、Taiwan-LLaMA等)、啟動參數說明,以及語言模型結合圖片分析的應用與優勢。
Thumbnail
這篇文章以淺顯易懂的方式介紹語言模型,包含模型取得途徑(Hugging Face平臺推薦)、繁體/簡體中文模型清單(ChatGLM系列、Baichuan系列、Qwen系列、InternLM、Taiwan-LLaMA等)、啟動參數說明,以及語言模型結合圖片分析的應用與優勢。
Thumbnail
DeepSeek-V3-0324是2025年3月推出的開源AI模型,以6850億參數和MoE架構在程式設計與語言處理中表現出色。本文詳細介紹其特色(如128K上下文窗口、低成本API)、與Claude 3.7 Sonnet、GPT-4.5等模型的比較,助您了解這款改變AI格局的新星。
Thumbnail
DeepSeek-V3-0324是2025年3月推出的開源AI模型,以6850億參數和MoE架構在程式設計與語言處理中表現出色。本文詳細介紹其特色(如128K上下文窗口、低成本API)、與Claude 3.7 Sonnet、GPT-4.5等模型的比較,助您了解這款改變AI格局的新星。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News