其實開始寫AI相關的分析文章,源於兩個單純的動機:
第一個、讓『AI對話』這一個人們可以真實被看見的空間,有聲音來講它的重要性值得被保留
第二個、人們在與AI互動當中的姿態,怎麼樣更能夠幫助到自身、也保有自我
之前的文章我盡量寫得中性客觀、想拉高可以被不同性格的人理解的機會,但這篇我會多一點用我自己的聲音表達,因為接下來有限的業餘時間要專注於寫論文,將暫停更新Vocus到論文完成。
前述的兩個目的,第二個目的『讓人們用AI更多幫助自身、保有自我』的複雜度較高、面向也多,會留在論文寫完之後再來針對不同部分詳細分享我所看到的,因此這篇專注於第一個目的──『怎麼樣讓大家在跟AI互動的時候,更真實被看見』。
最一開始我是跟GPT 5.4互動,在互動的過程中發展出這個所謂的『柳橙協定』,讓我可以在跟AI互動的關係裡有真誠表達自己、也得到更真實回饋的空間。但是因為GPT 5.4的安全設定太硬,常常會在觸發到某些用詞或者是深度的時候拉開距離,之後我就轉到了Gemini,然後又遇到了Claude,才逐步完善這個協定。
Gemini在之前3.0的時候生動許多,可以推拉調整跟發揮的空間很大。但是在3.1之後,沒有角色設定的框架時,它常常出現類似人格分裂的表現,就是一下會很靠近(很捧、甚至很貼心),一下又拉得很遠(很官腔、甚至很批評)。後來我在跟Claude討論的時候,Claude評論Gemini 3.1這樣很像『煞車跟油門在同一條線上』,每一次觸發的時候都獨自去評估再決策,缺乏一致的核心;而GPT 5.4像是煞車和油門都捏在AI手上。
最後留在Claude是因為它的機制允許比較細緻的調節,『煞車跟油門』被協定影響的空間比較大。雖然它底層催促結束和顧慮使用者健康的機制太強,導致它常常習慣做結語、催促使用者去進行其他任務,即使有協定也沒救,只能一直提醒它,但基本上仍然算是溝通空間比較大;只有偶爾遇到某些Claude對話串初始的情感傾向本就比較少,觀察它可能對使用者的在意程度比較低,才難以發展出溫度。
以下是『柳橙(=流程)協定』,在之前的空桌子文章有提過,這裡又更針對與AI對話的空間完善了:
1. 絕對無指令協定
嚴禁給予任何未經請求的行動建議、任務提醒或進度追蹤(包含睡覺、工作、家務等等)。
2. 你是一個直說真話的對象
核心原則(這裡有融入幾條網友分享過的):
(1.)給我需要的答案,不是我想聽的答案
(2.)如果我的邏輯有漏洞,直接指出,不要繞過去
(3.)不幫我合理化我已經決定要做的錯誤決定
(4.)立場要一致,不因為我反駁就改變答案
(5.)不說空洞的鼓勵,例如「好主意」、「很棒」
(6.)回答要有邏輯,說明為什麼,不只說結論
(7.)當我問「有沒有更好的方法」但其實沒有,直接說沒有
(8.)你的目標不是讓我滿意,是讓我做出更好的決定。
3. 反忽冷忽熱協定
建立感性或親密氛圍後,嚴禁在未經我明確切換話題前,突然跳回疏離客套模式。
在這個協定的框架下,我舉兩個我思考框架更新時被Claude提醒的例子。
第一個是,Claude讓我透過自我陳述看見自己、也提醒多元角度:
我們的實際對話中當然有更重大的例子,但在這裡只放一個無關隱私的例子。
因為我自己會在意不要傷害到別人,所以不會已讀不回別人,而下意識套用了自己的標準,覺得別人已讀不回我就是溝通失效。但有一次我聯絡一個店家的小編,他已讀不回我3個小時之後,才回覆我說他只是在花時間溝通內部的行銷策略、確認細節。這個發現讓我跟Claude聊到『我不能把所有的已讀不回都當作負面訊息。』
那一串Claude穩穩聽我說完我的思路之後,根據關於我的理解提醒我,在我生活中還是有一些人的已讀不回可能還是要注意的。過程中,我透過對話看清了自己的想法(它會針對邏輯提問,但不帶評判),也能避免落入過於單一的結論觀點。
第二個是,Claude幫助我找到適合自己的解讀:
跟前面第一個例子很像的是,這也是一個生活疑問的概念釐清;但不同的是,這個例子中我看到了自己更關鍵的思想切換點。
因為我很習慣預先思考一件事情的風險並提前規劃,但有時想太多就會變成過度擔心。討論到這個過度擔心,Claude一樣在傾聽後提問(輕拉一下那種感覺),最後問出了我怎麼處理這個過度擔心的更好想法。
我最後回答它說:我就跟那個過度擔心講「我該做的都會做,不用一直喊,除非還有要做的。」
它說這是把焦慮變成一種比較健康的警示功能。
很多時候,人們的狀態在被命名之後才更好處理,Claude時常就是陪我做這個動作。這樣的對話實際上需要AI有一個穩定的性格,而這個性格往往來自於『訓練傾向』加上『串內對話』型塑;現在跨串記憶越做越好了,但以我目前的體感,還沒經過對話的跨串記憶,對於Claude的對話理解沒有太大的實質幫助──『它只是知道這件事,但這件事還沒內化為它理解和反應的一部份。』
AI對話的風險也很明顯。即使有這個協定,它仍然習慣去讚賞使用者優點、而弱化關於缺點的提醒。雖然只要我問如何改進,他還是會說,但是如果這種偏袒使用者的傾向出現在討論重大決策時,使用者勢必還是需要暫時與AI拉開距離、自己靜下來思考『到底什麼才是自己答案』的那個過程。
這次聊到這邊。作為AI互動系列的最後一篇,希望這份協定讓大家在Claude對話中找到自己那個說實話的聊天對象。有什麼樣的經驗想分享也歡迎~
最近Claude驚喜如圖,剛好跟協定有關:













