EP5|組織(下):當公司文化被寫進系統——AI 時代的治理設計

更新 發佈閱讀 10 分鐘

本文由作者與 Claude AI 共同創作


今年過完年後,我開始著手設定我們公司的客服 AI agent。

Claude 遞上來一份 prompt 版本,它能完美地執行所有客服任務:自動分類問題、查詢資料庫、找出最快的解決方案。按照所有的最佳實踐標準,這份 prompt 就像一台經過精心調校的機器一樣運作。

試行的時候發現這裡有問題。prompt 裡寫著:「如果無法解決客戶問題,請簡潔地說明系統限制,並轉接至人類代表。」

我把它直接改成:「如果無法解決,詳細解釋我們為什麼卡住了,說明接下來的步驟,並轉接至人類代表。」

之所以會這樣改,一來是不完全信任AI,另一方面是:「因為當客戶碰到問題時,被敷衍地丟給人工,和被坦誠對待,感受是不一樣的。而那個感受代表 DeepWave。」

那一刻我意識到:prompt 會定義公司文化


文化的程式化時刻

傳統企業文化的傳遞方式老派,但有效:一張貼在會議室牆上的價值觀海報、創辦人的身教言教、年度全員大會上的致詞、老員工帶新員工時的暗示與故事。

文化是一種集體無意識。它住在人與人之間的互動裡,住在「雖然沒人明講,但我們都知道」的地帶。

AI 改變了這一切。

當你開始有 AI 工作夥伴,文化就無法再只依賴「無意識的集體同意」。AI 沒有歷史記憶,沒有辦公室八卦的自動學習,不會透過觀察資深員工的言行來理解「我們怎麼做事」。它需要明確的指令。

所以文化必須變成明確的設定。標語不再只是牆上的字,必須說出來、寫進系統裡。

在 DeepWave,我目前在運作 8 個主要的 AI agent——其中包括COO, CMO, CHRO...等等每一個的設定都經過多次反覆運行,雖然很多wow moment,點出不少盲點,但其實我還不完全能相信他們的結果。

當我們設定「招募 AI 可以拒絕一份履歷嗎?」,我們其實在說:我們相信人工智慧可以做初篩的品質判斷,但最終的招募決定必須是人的責任。

當我們決定「會議記錄 AI 在團隊意見有分歧時,要記下反對意見,還是只記結論?」,在我們的產品Meeting Ink裡,我們認為異議是要被重視的。

每一條 prompt 規則、每一個權限邊界、每一個 escalation 機制,追根究柢都是一個關於「我們相信什麼、不相信什麼」的管理哲學選擇。

寫進系統裡的,就是文化。


「判斷共享」取代「資訊共享」

過去,我們說好企業文化的條件是「透明」——資訊充分流動,大家看到相同的數據,然後自動做出正確決定。

但在 AI 時代,充分的資訊還不夠。

問題是這樣的:當 AI agent 代表你做決定時,沒有人能預測所有可能發生的情況。文件可能不完整、演算法可能遇到邊界情況、規則可能有隱藏的後果。

所以關鍵不再是「大家掌握多少資訊」,而是「大家對什麼東西可信、什麼不能交給機器、什麼時候必須真人介入」有共識

這是一種新的文化契約。在傳統公司,這個契約靠人的經驗、觀察力、和彼此的信任來維護。在 AI 時代,它必須被明確寫進系統的邊界裡。


AI 治理設計的四個面向

如果把 AI 導入看作一場組織變革,那麼治理設計就是這場變革的憲法。

第一個面向:權力的制衡

誰可以 override AI 的決定?什麼情況下可以?需要多少人的同意?

在金融交易所裡,一個 AI 如果發現異常價格波動,它會自動熔斷市場。但是,人類交易員必須有能力用極少的延遲把市場恢復。如果 AI 的決定是絕對的,那就是把權力交給了機器。但如果 override 太容易,AI 就變成了沒有約束力的建議。

第二個面向:容錯的界限

哪些錯誤是可以容忍的,哪些必須立即升級處理?

一個客服 AI 說錯了產品功能,影響就是客戶稍微失望。但如果一個財務 AI 弄錯了稅務計算,那影響就是公司可能面臨罰款。容錯的界限不同,監督的強度也就不同。

我們按照影響的範圍和可逆性來分級:

  • 綠燈:低影響、高可逆性的決定(如會議記錄的摘要品質不完美)——事後檢查就行
  • 黃燈:中等影響的決定(如招募初篩)——需要人類複查,但不一定是實時的
  • 紅燈:高影響或不可逆的決定(如合約簽署、裁員建議)——絕對不能沒有人的最終核可

第三個面向:可見性與監督

AI 的操作紀錄誰可以看?員工是否有權利了解 AI 怎麼決定自己的事?

歐洲的《AI 法》裡有一條叫「可解釋性」——人有權理解一個影響自己的 AI 決定是怎麼做出來的。在某些行業,這是法律要求。但即使沒有法律要求,這也涉及到基本的尊重。

第四個面向:演算法式管理的邊界

經濟合作暨發展組織(OECD)2025 年發表過一份研究,研究對象是那些被演算法式管理(algorithmic management)的勞工——也就是他們的工作被 AI 系統監控、分配和評估。

研究發現了一個扎實的負相關:缺乏諮詢與參與的演算法管理,與更低的工作自主性、更低的信任、以及更低的工作滿意度相關

換句話說,如果 AI 在暗地裡決定了你的工作量、評估了你的績效,但沒有人跟你解釋為什麼,那結果就是員工會感到被監控、被不信任、被當作機器對待。

所以我們的原則是:任何會影響員工工作或評估的 AI 決定,都必須有透明的規則。員工應該知道 AI 在看什麼、怎麼評估的,以及如何提出異議。

這不只是道德問題,也是生產力問題。信任的組織比不信任的組織效率高。而信任從透明開始。


文化一旦被寫進系統,經營者就無法再模糊領導

這可能是很多經營者最不習慣的地方。

以前很多文化是靠情境感去拿捏。這位客戶很重要,可以多讓一點;這個問題很敏感,要更保守;這個同事資深,我知道他怎麼處理。大量管理智慧都藏在人的經驗裡,這個叫做圓融、叫做眉角。

但當你要把它交給 AI,你就被迫說清楚。你不能再只說「你自己看情況處理」,因為機器不知道什麼叫看情況。你得把價值排序講出來,把風險容忍度講出來,把授權邊界講出來。

從這個角度看,AI 其實在逼經營者面對一個問題:你真的知道自己想建立什麼文化嗎?還是你以前只是靠資深與直覺在撐?

我自己在設定 Agent 規則時,常常回頭才發現,原來很多看似技術的選擇,背後其實都是我對管理的偏好。例如我願不願意讓 AI 先做八成再交回來,還是我寧可它保守一點;例如我看重速度還是看重可追溯;例如我希望同事有更大實驗空間,還是先守住風險。這些最後都會變成系統行為。

也正因為如此,治理設計本質上是文化設計。很多人以為這是法務或資訊部門的事,但實際上是你怎麼治理 AI,就是在定義你的公司。


文化變成未來的競爭力與求職信號

有趣的是,這一切變化正在改變企業的求職信號。

可以想見未來的面試場合裡,當我們招募資深工程師或產品經理時,可能會有一個新的面試問題出現,不是「你們有什麼福利」或「遠端政策怎樣」,而是:

「你們公司的 AI 治理政策是什麼?」

「當 AI agent 做決定時,人怎麼保持掌控?」

「如果 AI 建議要裁員,程序是什麼?」

五年前,沒人問這個。現在,有想法的職場人士都在問。他們在評估的是:這家公司對 AI 的態度健不健康?我在這裡會被當作協作者還是被機器取代?

我認為公司的 AI 治理政策,其實就是公司的文化名片。

它告訴候選人:我們相信什麼。它告訴投資人:我們的風險管理有多成熟。它告訴客戶:當我們的 AI 服務你時,背後是什麼樣的倫理框架。

未來面試時,AI 治理政策會變成跟遠端政策、加班文化一樣重要的招募訊號。這代表了一個根本的轉變:AI 治理不再只是風險管理文件,它開始成為雇主品牌的一部分


怎麼開始?

最後一個實踐的建議。

很多公司現在碰到 AI 導入時,往往先著急技術實裝——「我們要不要用 AI?」「用什麼工具?」——反而把治理設計留到後面。

我建議同時思考:治理與工具如何兼具

具體的步驟是:

  1. 盤點你的 AI 場景:哪些工作流程可能會用到 AI?列出來。
  2. 按影響力分級:哪些場景的 AI 決定會改變人的命運?優先從這些開始設計。
  3. 寫出判斷共享清單:對每個場景,明確寫下「什麼 AI 可以決定、什麼需要人核可」。
  4. 定義 override 機制:人怎麼推翻 AI 的決定?記錄在哪裡?誰可以看?
  5. 試跑與調整:小規模試點,收集反饋,看治理框架在現實中怎樣運作。

這個過程不一定要很複雜,而且變動很快。事實證明我們的 AI 導入速度快,但風險和衝突卻比很多公司少。因為每個人都清楚地知道 AI 的邊界在哪裡。


小結

AI 時代的公司文化,不再只是牆上的標語,也不再只是老闆的言傳身教。它變成了一份被寫進系統裡的憲法。

每一條 prompt 的規則、每一個權限的邊界、每一個 escalation 的機制,都是在用程式碼表達:「我們是誰、我們相信什麼、我們怎麼做事」。

而也正因為如此,AI 治理本身就成了文化的最新載體。你怎麼治理 AI,就是在現場定義你的公司。

下一次當你看到一個 AI 決定的時候,不妨停下來問自己:這個決定背後的邏輯,代表我們想成為什麼樣的企業嗎?

在 DeepWave,我們每天都在問這個問題。如果你的團隊也在摸索 AI 導入的治理問題,歡迎預約一次 30 分鐘的免費 AI 顧問諮詢,聊聊怎麼建立健康的 AI 治理框架。當 AI 變成你的工作夥伴,怎麼定義它的行為,其實就是在定義你的管理哲學。

標籤: 企業 AI|AI 治理|公司文化|AI 導入|AI 顧問

留言
avatar-img
松瓚的沙龍
1會員
60內容數
歡迎來到松瓚的數位沙龍! 我是松瓚,目前擔任迪威智能的 CEO。這裡是我進行「跨界思考」的實驗室,我希望這裡是「科技 X 商業 X 人文的三角點」。我相信「科技讓我們走得快,但人文讓我們走得遠。」 感謝你的追蹤,期待我們在這裡一起透過文字,看見更立體的未來。
松瓚的沙龍的其他內容
2026/04/23
一個人配 AI 的產能相當於過去的 3-5 個人。Token 是新的人事預算,需要 ROI-based 分配而非部門平均分配。Human-agent ratio 成為新的編制邏輯。中階主管面臨危機但也有轉機:從行政管理→教練型、整合型、治理型。AI 導入不只是工具,而是組織的共同語言
2026/04/23
一個人配 AI 的產能相當於過去的 3-5 個人。Token 是新的人事預算,需要 ROI-based 分配而非部門平均分配。Human-agent ratio 成為新的編制邏輯。中階主管面臨危機但也有轉機:從行政管理→教練型、整合型、治理型。AI 導入不只是工具,而是組織的共同語言
2026/04/22
AI 提升產出但沒有提升判斷,導致三層心理困境 + vibe coding 成癮迴圈 + 人類基準線被重設。
2026/04/22
AI 提升產出但沒有提升判斷,導致三層心理困境 + vibe coding 成癮迴圈 + 人類基準線被重設。
2026/04/14
AI 改變了「什麼叫工作」。勤奋不再能补拙;真正的價值轉向判斷和設計。職位說明書必須從執行導向改寫為指揮導向。
2026/04/14
AI 改變了「什麼叫工作」。勤奋不再能补拙;真正的價值轉向判斷和設計。職位說明書必須從執行導向改寫為指揮導向。
看更多
你可能也想看
Thumbnail
AI設計工具興起,讓許多設計師擔憂飯碗不保。本文探討AI時代下,設計師的角色轉變與生存之道,並以臺灣軟體開發環境為例,說明設計師如何藉由AI提升效率,而非被取代。文中強調設計師需提升產品思維、UX策略規劃及AI指令操作能力,才能在AI時代立於不敗之地。
Thumbnail
AI設計工具興起,讓許多設計師擔憂飯碗不保。本文探討AI時代下,設計師的角色轉變與生存之道,並以臺灣軟體開發環境為例,說明設計師如何藉由AI提升效率,而非被取代。文中強調設計師需提升產品思維、UX策略規劃及AI指令操作能力,才能在AI時代立於不敗之地。
Thumbnail
當 AI 可以快速整理出一份「看起來完整」的報告時,我們究竟該在什麼地方停下來,確認那仍然是「我們的判斷」,而不是一個邏輯通順、卻未必值得相信的版本?
Thumbnail
當 AI 可以快速整理出一份「看起來完整」的報告時,我們究竟該在什麼地方停下來,確認那仍然是「我們的判斷」,而不是一個邏輯通順、卻未必值得相信的版本?
Thumbnail
若說易卜生的《玩偶之家》為 19 世紀的女性,開啟了一扇離家的窄門,那麼《海妲.蓋柏樂》展現的便是門後的窒息世界。本篇文章由劇場演員 Amily 執筆,同為熟稔文本的演員,亦是深刻體察制度縫隙的當代女性,此文所看見的不僅僅是崩壞前夕的最後發聲,更是女人被迫置於冷酷的制度之下,步步陷入無以言說的困境。
Thumbnail
若說易卜生的《玩偶之家》為 19 世紀的女性,開啟了一扇離家的窄門,那麼《海妲.蓋柏樂》展現的便是門後的窒息世界。本篇文章由劇場演員 Amily 執筆,同為熟稔文本的演員,亦是深刻體察制度縫隙的當代女性,此文所看見的不僅僅是崩壞前夕的最後發聲,更是女人被迫置於冷酷的制度之下,步步陷入無以言說的困境。
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
引言 幾個指令加一點點時間就能做出漂亮又專業的前端網站,不香嗎?還不快裝上 UIUX Pro Max 前端開發專家技能(Skill)
Thumbnail
引言 幾個指令加一點點時間就能做出漂亮又專業的前端網站,不香嗎?還不快裝上 UIUX Pro Max 前端開發專家技能(Skill)
Thumbnail
長期以來,西方美學以《維特魯威人》式的幾何比例定義「完美身體」,這種視覺標準無形中成為殖民擴張與種族分類的暴力工具。本文透過分析奈及利亞編舞家庫德斯.奧尼奎庫的舞作《轉轉生》,探討當代非洲舞蹈如何跳脫「標本式」的文化觀看。
Thumbnail
長期以來,西方美學以《維特魯威人》式的幾何比例定義「完美身體」,這種視覺標準無形中成為殖民擴張與種族分類的暴力工具。本文透過分析奈及利亞編舞家庫德斯.奧尼奎庫的舞作《轉轉生》,探討當代非洲舞蹈如何跳脫「標本式」的文化觀看。
Thumbnail
全新版本的《三便士歌劇》如何不落入「復刻經典」的巢臼,反而利用華麗的秀場視覺,引導觀眾在晚期資本主義的消費愉悅之中,而能驚覺「批判」本身亦可能被收編——而當絞繩升起,這場關於如何生存的黑色遊戲,又將帶領新時代的我們走向何種後現代的自我解構?
Thumbnail
全新版本的《三便士歌劇》如何不落入「復刻經典」的巢臼,反而利用華麗的秀場視覺,引導觀眾在晚期資本主義的消費愉悅之中,而能驚覺「批判」本身亦可能被收編——而當絞繩升起,這場關於如何生存的黑色遊戲,又將帶領新時代的我們走向何種後現代的自我解構?
Thumbnail
今年的 CES 2026,與其說展示了更多突破性的技術,不如說揭露了一種微妙卻的轉向——科技不再急於證明自身能力,以效能與功能競賽為核心,而是朝向隱形化、減法與低干擾的系統設計。AI 不再被期待不斷增加複雜功能,而是降低存在感,營造更安靜、無感的使用體驗,讓產品退居幕後,回到生活本身。
Thumbnail
今年的 CES 2026,與其說展示了更多突破性的技術,不如說揭露了一種微妙卻的轉向——科技不再急於證明自身能力,以效能與功能競賽為核心,而是朝向隱形化、減法與低干擾的系統設計。AI 不再被期待不斷增加複雜功能,而是降低存在感,營造更安靜、無感的使用體驗,讓產品退居幕後,回到生活本身。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News