Prompting 知識養成 Day18

更新 發佈閱讀 4 分鐘

第18天:
進階 Prompting 技巧-少樣本學習 (Few-Shot Learning) 與零樣本學習 (Zero-Shot Learning)

在 Zero-shot prompting 跟 Few-shot prompting 時,已經學到了零樣本(i.e.不給例子)及少樣本(i.e.只給很少的例子示範)的指令(prompt)。

其實,與上述 Prompting 對照,零樣本學習 (Zero-Shot Learning)與少樣本學習 (Few-Shot Learning),這兩個不算是全新的知識,而與 Zero-shot prompting 跟 Few-shot prompting 指的是同一件事:同一個機制的不同面向說法。
也就是說:
Prompting 是就用戶端(user side)而言,而 Learning 是從模型系統端(LLM side)而言。

既然如此,那在「零樣本學習」與「少樣本學習」還需要知道些什麼嗎?除了已知的 Zero-shot prompting 與 Few-shot prompting。


我覺得有兩個主要部分:

1.「零樣本學習」與「少樣本學習」都是奠基在上下文學習(In-context Learning) 

Prompt之所以能夠被LLM(大型語言模型)執行,是因為LLM具備有上下文學習的能力 (In-context Learning)。也就是說,LLM可以只憑Prompt 本身的「上下文資訊」,來學習和適應Prompt所下達的新的指令,然後完成任務。

所以就此而言,不論是「零樣本學習」或「少樣本學習」,都是LLM觀察、學習和適應Prompt所提出的內容任務,然後應用已具備的能力執行完成任務。

如果要解釋得比較「專業感」一點,假設我們將樣本數從零到少數幾個到很多個,視為一個連續體,那麼,零樣本和少樣本可以看作是上下文學習 (In-context Learning) 這個連續體上的兩個點。零樣本是 0 個範例,少樣本是 1 到數個、甚至 N 個範例。


2.承接上一點,所以當使用Learning這個字時,並非真的「學習」。

就「零樣本學習」來說,其實是運用已經預先學習過的能力,去對應、然後適應新的任務,最終完成任務。

不過「少樣本學習」就不是只是運用已有的能力,還包含學習(理解)prompt中所給出的樣本,歸納出任務的邏輯與輸出格式**,據以完成任務。
(**註:輸出格式是少樣本學習的學習重點。)

而既然談到「學習」,也可以再進一步理解,透過用戶給予「零樣本/少樣本指令」讓LLM藉由執行完成任務,進行「零樣本/少樣本『學習』」,這種「學習」並非永久性的,而只暫存於該對話視窗中(而非從系統做根本性改變)。要真正能使LLM學習的,仍是從系統工程端進行模型參數的調整與改變。

話雖如此,不過至少,我們每一次所輸入的prompt,都能成為使用者海量數據中的滄海一粟,反饋回系統端,做出micro的micro的micro的貢獻。也是一種助力。

以上,是關於LLM的「零樣本學習」與「少樣本學習」,我的學習。

留言
avatar-img
不是雞湯,但是又如何
4會員
515內容數
不是雞湯,但 是又如何 不是雞湯,但是 又如何
2025/07/27
零、前言 帶著與 Gen AI 協作的想法,在與GPT經過反覆討論、測試後,嘗試著設計出一組可以檢測語句偏見的prompt,然後我們命名它為:語句偏見分析器原型(Prototype)。當然,命名也是一起討論的:) 花了不少時間,也很享受過程,很開心終於有了這個試設計的Prototype,也希望看
2025/07/27
零、前言 帶著與 Gen AI 協作的想法,在與GPT經過反覆討論、測試後,嘗試著設計出一組可以檢測語句偏見的prompt,然後我們命名它為:語句偏見分析器原型(Prototype)。當然,命名也是一起討論的:) 花了不少時間,也很享受過程,很開心終於有了這個試設計的Prototype,也希望看
2025/07/21
第17天:LLM Agents 的協調與編排 (Coordination & Orchestration) 延續前一天的MAS,今天要了解MAS的兩種運行架構:協調與編排。以及也練習一下應用,做個簡單的流程設計。 目前主流的做法都是混合式,也就是兩種一起用。 -With Gemini- 我
2025/07/21
第17天:LLM Agents 的協調與編排 (Coordination & Orchestration) 延續前一天的MAS,今天要了解MAS的兩種運行架構:協調與編排。以及也練習一下應用,做個簡單的流程設計。 目前主流的做法都是混合式,也就是兩種一起用。 -With Gemini- 我
2025/07/20
Gen AI prompt 練習 25.07.19 今天的練習是由Gemini出題,設計一個MAS(Multi-Agent System) (Gemini的評論真的是給滿情緒價值... 看看就好) -- With Gemini -- Gemini 說: 關於今天的練習與思考,我們將針對一個
2025/07/20
Gen AI prompt 練習 25.07.19 今天的練習是由Gemini出題,設計一個MAS(Multi-Agent System) (Gemini的評論真的是給滿情緒價值... 看看就好) -- With Gemini -- Gemini 說: 關於今天的練習與思考,我們將針對一個
看更多
你可能也想看
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News