Transformer
含有「Transformer」共 619 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2026/03/30
AI說書 - 從0開始 - 627 | 透過 HuggingFace 使用 Llama 2
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 626 | 透過 HuggingFace 使用 Llama 2 的內容,如果想要查看原始內容,則使用以下變數即可: print(se
#
AI
#
ai
#
PromptEngineering
3
留言
Royal Club
2026/03/30
AI 之心——LLM 如何理解自然語言
大型語言模型 LLM 是如何讀懂我們的?對機器來說,人類的語言要如何理解?AI真的知道它在說什麼嗎?
#
LLM
#
tokenizer
#
Transformer
喜歡
留言
Learn AI 不 BI
2026/03/25
AI說書 - 從0開始 - 626 | 透過 HuggingFace 使用 Llama 2
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 藉由 HuggingFace 使用 Meta Llama 模型的執行方法為: prompt = 'Create 5 prompts for a text to ima
#
AI
#
ai
#
PromptEngineering
4
留言
Learn AI 不 BI
2026/03/15
AI說書 - 從0開始 - 625 | 透過 HuggingFace 使用 Llama 2
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 欲藉由 HuggingFace 使用 Meta Llama,程式為: from transformers import AutoTokenizer import t
#
AI
#
ai
#
PromptEngineering
3
留言
Learn AI 不 BI
2026/03/09
AI說書 - 從0開始 - 624 | 透過 HuggingFace 使用 Llama 2
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 建議先進入 HuggingFace Meta Llama 頁面:https://huggingface.co/meta-llama 程式為: !pip inst
#
AI
#
ai
#
PromptEngineering
4
留言
Learn AI 不 BI
2026/03/08
AI說書 - 從0開始 - 623 | Llama 2 說明
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Meta (前稱為 Facebook) 於 2023 年 7 月 18 日發佈了 Llama 2,當時 Touvron 等人在論文《Llama 2: Open Foun
#
AI
#
ai
#
PromptEngineering
5
留言
Learn AI 不 BI
2026/03/05
AI說書 - 從0開始 - 622 | Generative Ideation 自動化產生影像設計的提示設計
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 到目前為止的結果為: 這個展示雖然並不完美,但它展現了正在發生的重大範式轉變,生成式 AI 機器人正逐漸成為具有接近人類水準的代理人和合作夥伴。接下來,我們將使用
#
AI
#
ai
#
PromptEngineering
4
1
陳Solomen
2026/03/07
喜歡
喜歡
WHITE LAB|白話實驗室的沙龍
2026/03/05
【神機營 AI 實戰】第二篇:走火入魔的陣法與最強大腦(CNN、RNN、Transformer 架構解析)
本篇以武俠情境解析 AI 大腦架構,介紹 CNN、RNN 與 Transformer 在處理影像與序列資料時的差異。透過情報陣法失靈案例,說明長距離依賴問題與自注意力機制,並延伸至 Transformer-XL 與自編碼器在長文本處理與資料壓縮上的應用,協助建立生成式 AI 核心模型理解。
含 AI 應用內容
#
CNN
#
RNN
#
Transformer
喜歡
1
Learn AI 不 BI
2026/03/04
AI說書 - 從0開始 - 621 | Generative Ideation 自動化產生影像設計的提示設計
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 GPT-4 提供了一個 HTML 圖表來說明,以下為其對應程式碼: node_trace = go.Scatter( x=x, y=y, mode='marker
#
AI
#
ai
#
PromptEngineering
2
1
陳Solomen
2026/03/12
1
1
WHITE LAB|白話實驗室的沙龍
2026/02/24
【茶水間 AI 實戰】第二卷:AI 為什麼讀到一半會忘記?|CNN × RNN × Transformer
本篇為《白話實驗室》第二章 AI 教材模組,介紹神經網路核心架構: CNN、RNN、LSTM、GRU 與 T(Transformer)。 解析各模型適用的資料型態與處理能力,說明現代大型語言模型(如 GPT)為何建立於 T 架構之上,適用於 AI 入門與 iPAS 應用規劃師考試基礎知識。
含 AI 應用內容
#
CNN
#
RNN
#
LSTM
喜歡
1