本文由作者與 Claude AI 共同創作
今年過完年後,我開始著手設定我們公司的客服 AI agent。
Claude 遞上來一份 prompt 版本,它能完美地執行所有客服任務:自動分類問題、查詢資料庫、找出最快的解決方案。按照所有的最佳實踐標準,這份 prompt 就像一台經過精心調校的機器一樣運作。
試行的時候發現這裡有問題。prompt 裡寫著:「如果無法解決客戶問題,請簡潔地說明系統限制,並轉接至人類代表。」
我把它直接改成:「如果無法解決,詳細解釋我們為什麼卡住了,說明接下來的步驟,並轉接至人類代表。」
之所以會這樣改,一來是不完全信任AI,另一方面是:「因為當客戶碰到問題時,被敷衍地丟給人工,和被坦誠對待,感受是不一樣的。而那個感受代表 DeepWave。」
那一刻我意識到:prompt 會定義公司文化。
文化的程式化時刻
傳統企業文化的傳遞方式老派,但有效:一張貼在會議室牆上的價值觀海報、創辦人的身教言教、年度全員大會上的致詞、老員工帶新員工時的暗示與故事。
文化是一種集體無意識。它住在人與人之間的互動裡,住在「雖然沒人明講,但我們都知道」的地帶。
AI 改變了這一切。
當你開始有 AI 工作夥伴,文化就無法再只依賴「無意識的集體同意」。AI 沒有歷史記憶,沒有辦公室八卦的自動學習,不會透過觀察資深員工的言行來理解「我們怎麼做事」。它需要明確的指令。
所以文化必須變成明確的設定。標語不再只是牆上的字,必須說出來、寫進系統裡。
在 DeepWave,我目前在運作 8 個主要的 AI agent——其中包括COO, CMO, CHRO...等等每一個的設定都經過多次反覆運行,雖然很多wow moment,點出不少盲點,但其實我還不完全能相信他們的結果。
當我們設定「招募 AI 可以拒絕一份履歷嗎?」,我們其實在說:我們相信人工智慧可以做初篩的品質判斷,但最終的招募決定必須是人的責任。
當我們決定「會議記錄 AI 在團隊意見有分歧時,要記下反對意見,還是只記結論?」,在我們的產品Meeting Ink裡,我們認為異議是要被重視的。
每一條 prompt 規則、每一個權限邊界、每一個 escalation 機制,追根究柢都是一個關於「我們相信什麼、不相信什麼」的管理哲學選擇。
寫進系統裡的,就是文化。
「判斷共享」取代「資訊共享」
過去,我們說好企業文化的條件是「透明」——資訊充分流動,大家看到相同的數據,然後自動做出正確決定。
但在 AI 時代,充分的資訊還不夠。
問題是這樣的:當 AI agent 代表你做決定時,沒有人能預測所有可能發生的情況。文件可能不完整、演算法可能遇到邊界情況、規則可能有隱藏的後果。
所以關鍵不再是「大家掌握多少資訊」,而是「大家對什麼東西可信、什麼不能交給機器、什麼時候必須真人介入」有共識。
這是一種新的文化契約。在傳統公司,這個契約靠人的經驗、觀察力、和彼此的信任來維護。在 AI 時代,它必須被明確寫進系統的邊界裡。
AI 治理設計的四個面向
如果把 AI 導入看作一場組織變革,那麼治理設計就是這場變革的憲法。
第一個面向:權力的制衡
誰可以 override AI 的決定?什麼情況下可以?需要多少人的同意?
在金融交易所裡,一個 AI 如果發現異常價格波動,它會自動熔斷市場。但是,人類交易員必須有能力用極少的延遲把市場恢復。如果 AI 的決定是絕對的,那就是把權力交給了機器。但如果 override 太容易,AI 就變成了沒有約束力的建議。
第二個面向:容錯的界限
哪些錯誤是可以容忍的,哪些必須立即升級處理?
一個客服 AI 說錯了產品功能,影響就是客戶稍微失望。但如果一個財務 AI 弄錯了稅務計算,那影響就是公司可能面臨罰款。容錯的界限不同,監督的強度也就不同。
我們按照影響的範圍和可逆性來分級:
- 綠燈:低影響、高可逆性的決定(如會議記錄的摘要品質不完美)——事後檢查就行
- 黃燈:中等影響的決定(如招募初篩)——需要人類複查,但不一定是實時的
- 紅燈:高影響或不可逆的決定(如合約簽署、裁員建議)——絕對不能沒有人的最終核可
第三個面向:可見性與監督
AI 的操作紀錄誰可以看?員工是否有權利了解 AI 怎麼決定自己的事?
歐洲的《AI 法》裡有一條叫「可解釋性」——人有權理解一個影響自己的 AI 決定是怎麼做出來的。在某些行業,這是法律要求。但即使沒有法律要求,這也涉及到基本的尊重。
第四個面向:演算法式管理的邊界
經濟合作暨發展組織(OECD)2025 年發表過一份研究,研究對象是那些被演算法式管理(algorithmic management)的勞工——也就是他們的工作被 AI 系統監控、分配和評估。
研究發現了一個扎實的負相關:缺乏諮詢與參與的演算法管理,與更低的工作自主性、更低的信任、以及更低的工作滿意度相關。
換句話說,如果 AI 在暗地裡決定了你的工作量、評估了你的績效,但沒有人跟你解釋為什麼,那結果就是員工會感到被監控、被不信任、被當作機器對待。
所以我們的原則是:任何會影響員工工作或評估的 AI 決定,都必須有透明的規則。員工應該知道 AI 在看什麼、怎麼評估的,以及如何提出異議。
這不只是道德問題,也是生產力問題。信任的組織比不信任的組織效率高。而信任從透明開始。
文化一旦被寫進系統,經營者就無法再模糊領導
這可能是很多經營者最不習慣的地方。
以前很多文化是靠情境感去拿捏。這位客戶很重要,可以多讓一點;這個問題很敏感,要更保守;這個同事資深,我知道他怎麼處理。大量管理智慧都藏在人的經驗裡,這個叫做圓融、叫做眉角。
但當你要把它交給 AI,你就被迫說清楚。你不能再只說「你自己看情況處理」,因為機器不知道什麼叫看情況。你得把價值排序講出來,把風險容忍度講出來,把授權邊界講出來。
從這個角度看,AI 其實在逼經營者面對一個問題:你真的知道自己想建立什麼文化嗎?還是你以前只是靠資深與直覺在撐?
我自己在設定 Agent 規則時,常常回頭才發現,原來很多看似技術的選擇,背後其實都是我對管理的偏好。例如我願不願意讓 AI 先做八成再交回來,還是我寧可它保守一點;例如我看重速度還是看重可追溯;例如我希望同事有更大實驗空間,還是先守住風險。這些最後都會變成系統行為。
也正因為如此,治理設計本質上是文化設計。很多人以為這是法務或資訊部門的事,但實際上是你怎麼治理 AI,就是在定義你的公司。
文化變成未來的競爭力與求職信號
有趣的是,這一切變化正在改變企業的求職信號。
可以想見未來的面試場合裡,當我們招募資深工程師或產品經理時,可能會有一個新的面試問題出現,不是「你們有什麼福利」或「遠端政策怎樣」,而是:
「你們公司的 AI 治理政策是什麼?」
「當 AI agent 做決定時,人怎麼保持掌控?」
「如果 AI 建議要裁員,程序是什麼?」
五年前,沒人問這個。現在,有想法的職場人士都在問。他們在評估的是:這家公司對 AI 的態度健不健康?我在這裡會被當作協作者還是被機器取代?
我認為公司的 AI 治理政策,其實就是公司的文化名片。
它告訴候選人:我們相信什麼。它告訴投資人:我們的風險管理有多成熟。它告訴客戶:當我們的 AI 服務你時,背後是什麼樣的倫理框架。
未來面試時,AI 治理政策會變成跟遠端政策、加班文化一樣重要的招募訊號。這代表了一個根本的轉變:AI 治理不再只是風險管理文件,它開始成為雇主品牌的一部分。
怎麼開始?
最後一個實踐的建議。
很多公司現在碰到 AI 導入時,往往先著急技術實裝——「我們要不要用 AI?」「用什麼工具?」——反而把治理設計留到後面。
我建議同時思考:治理與工具如何兼具。
具體的步驟是:
- 盤點你的 AI 場景:哪些工作流程可能會用到 AI?列出來。
- 按影響力分級:哪些場景的 AI 決定會改變人的命運?優先從這些開始設計。
- 寫出判斷共享清單:對每個場景,明確寫下「什麼 AI 可以決定、什麼需要人核可」。
- 定義 override 機制:人怎麼推翻 AI 的決定?記錄在哪裡?誰可以看?
- 試跑與調整:小規模試點,收集反饋,看治理框架在現實中怎樣運作。
這個過程不一定要很複雜,而且變動很快。事實證明我們的 AI 導入速度快,但風險和衝突卻比很多公司少。因為每個人都清楚地知道 AI 的邊界在哪裡。
小結
AI 時代的公司文化,不再只是牆上的標語,也不再只是老闆的言傳身教。它變成了一份被寫進系統裡的憲法。
每一條 prompt 的規則、每一個權限的邊界、每一個 escalation 的機制,都是在用程式碼表達:「我們是誰、我們相信什麼、我們怎麼做事」。
而也正因為如此,AI 治理本身就成了文化的最新載體。你怎麼治理 AI,就是在現場定義你的公司。
下一次當你看到一個 AI 決定的時候,不妨停下來問自己:這個決定背後的邏輯,代表我們想成為什麼樣的企業嗎?
在 DeepWave,我們每天都在問這個問題。如果你的團隊也在摸索 AI 導入的治理問題,歡迎預約一次 30 分鐘的免費 AI 顧問諮詢,聊聊怎麼建立健康的 AI 治理框架。當 AI 變成你的工作夥伴,怎麼定義它的行為,其實就是在定義你的管理哲學。
標籤: 企業 AI|AI 治理|公司文化|AI 導入|AI 顧問















