大語言模型
#
大語言模型
含有「大語言模型」共 18 篇內容
全部內容
發佈日期由新至舊
拐點 #006 - 有關係就好辦事
大語言模型(如GPT-3和GPT-4)的出現改變了我們與機器互動的方式。這些模型能夠理解和生成自然語言,實現許多以前無法想像的應用。然而,你可能會好奇,這些模型究竟是如何理解語言的?這裡,我們來探討一個關鍵的概念:「一切語義都是關係」。
2024-05-20
0
#
拐點
#
思考鍵
#
大語言模型
5/5
· 拐點
拐點 #002: 大語言模型的基本原理與工作方式
在人工智能的發展歷程中,早期的研究主要側重於將解決問題的規則輸入計算機,試圖通過啟蒙運動理性的思路模擬人類的智能行為。然而,這條路逐漸變得艱難,因為規則過於繁多,無法應對複雜的情境和語境。在這個背景下,一些科學家轉向了神經網絡算法,試圖模擬人腦的感知能力。
2024-05-11
2
#
AI
#
拐點
#
GPT
提升工作效率,TAIDE繁體中文模型應用於Comfyui工作流的心得分享
本文章介紹如何將繁體中文TAIDE模型與Comfyui及ollama平臺結合,以實現中文語言模型與圖像生成的應用。從安裝Comfyui工作流到導入TAIDE模型,再整合ollama平臺,最後使用Comfyui開啟ollama工作流,當中也分享了個人的心得與建議,純粹作為工作紀錄用途。
2024-05-11
2
#
ollama
#
comfyui
#
TAIDE
Google Gemini 對比 ChatGPT:AI助手評測
這篇文章評測了Google Gemini和ChatGPT兩個AI助手工具的表現,並對比了它們在簡單問題、創作文本和回應短文等方面的效果。
2024-04-30
7
#
ChatGPT
#
AI
#
人工智慧
LLM 006|BERT與GPT是怎麼從Transformer演化來的?
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
2024-04-28
8
#
大語言模型
#
ChatGPT
#
GPT
LLM 005|大語言模型是如何利用Transformer理解語言的?
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
2024-04-27
7
#
大語言模型
#
Transformer
#
ChatGPT
LLM 004|創建大語言模型需要哪兩個關鍵階段?
從頭開始寫大語言模型的程式碼, 是最好理解大語言模型的機制與限制的方風。 從頭開始寫大語言模型的程式碼,可以幫助我們得到預訓練與微調整開源大語言模型架構所需要的知識,並應用到特定領域的數據及以及任務。 客製化大語言模型一般來說比起通用大語言模型有更好的表現。 一個具體的例子是
2024-04-26
4
#
大語言模型
#
ChatGPT
#
Transformer
LLM 003|人工智慧如何從數據中學習?
大語言模型能夠生成文本,因此被認為是生成式人工智慧的一種形式。 人工智慧的學科任務,是製作機器,使其能執行需要人類智慧才能執行的任務,例如理解語言,便是模式,做出決策。 除了大語言模型,人工智慧也包含了深度學習以及機器學習。 機器學習的學科任務,是透過演算法來實踐AI。 特別
2024-04-25
8
#
大語言模型
#
ChatGPT
#
人工智慧
LLM 002|大語言模型中的「大」是如何幫助預測下一個字的?
大語言模型是一種特殊的神經網路,設計來理解,生成與回應人類的文本。 大語言模型是使用大量文本數據訓練的深度神經網路,其訓練使用的文本數據甚至包括了整個網路公開的文本。 大語言模型的「大」,體現於模型的參數個數以及其使用的訓練數據集。如此大的模型可以有百億甚至千億的參數。這些參數都是神經網
2024-04-24
4
#
大語言模型
LLM 001|大語言模型如何革新傳統的自然語言處理任務?
大語言模型,例如OpenAI提供的ChatGPT,是過去幾年發展的深度神經網路模型,開啟自然語言處理的新紀元。
2024-04-23
5
#
大語言模型
#
ChatGPT