AI代理有職稱了!FedEx打造「經理、審查、工作代理」3種層級,讓AI轉型一次做到位 - 來自數位時代
最近 FedEx 宣布推動一項大規模的 AI 內部培訓計畫,目標是讓旗下 50 萬名員工都能具備 AI 應用能力,並透過客製化課程因應不同職位的需求。AI 代理人已經率先被部署在軟體開發與報關流程中,未來預計延伸至網路規劃與行銷管理。
這個消息在企業界引發不少討論,但多數報導的焦點都放在「規模有多大」、「技術有多先進」,卻很少有人去問:這個計畫背後,究竟藏著哪些我們沒有認真檢驗的假設?這篇文章不打算複述新聞,而是試著從幾個隱含前提出發,提出一些也許更值得思考的問題。
假設一:學會用 AI,就等於具備創新能力?
這是整個計畫最核心,也是最值得懷疑的前提。
FedEx 希望透過 AI 培訓提升員工的創新能力,背後隱含的邏輯是:只要讓員工能夠操作 AI 工具,他們就會更有辦法想出新的解法、提出新的流程優化方案。
但創新思維跟工具操作能力,本來就是兩件不同的事。
你可以學會用 Excel 的函數,不代表你懂財務分析的邏輯;同樣的,你學會用 AI 工具生成報告,不代表你知道哪個問題值得解決、哪個流程根本不應該存在。真正的創新往往需要的是「知道要問什麼問題」的能力,而不只是「知道怎麼找答案」的技術。
當然,也有另一種可能:也許在美國的企業文化裡,員工本來就已經具備一定程度的問題意識與創新思維,AI 只是讓這些思維有了更低的執行門檻。如果是這樣,那 AI 素養培訓或許真的有效,但這個前提在其他文化脈絡下,不見得成立。
假設二:AI 最大的價值,是解決組織裡那些「被忽略的小問題」
這個假設比較隱微,過去,大型組織之所以只能聚焦在重要問題上,是因為解決問題的成本太高,找人、開會、協調跨部門,光是這些溝通成本就已經把很多小問題的優先級壓得很低。久而久之,很多流程上的細小摩擦就這樣被默默接受了。
AI 帶來的改變,不只是讓既有流程跑得更快,而是讓「解決小問題的邊際成本」大幅下降。當組織裡的每一個節點都可以相對低成本地處理掉原本被放棄的問題,整體的營運效率就有可能出現非線性的提升。
這個邏輯在理論上很吸引人,但實際執行時會碰到一個問題:員工需要先知道哪些問題值得用 AI 去解,而這本身就是一種需要培養的判斷力。培訓課程能教這個嗎?
假設三:「學完課程」等於「實際上能用」?
FedEx 的培訓平台據稱針對不同職位設計了客製化的 AI 課程,聽起來很完整。但這裡有一個很容易被忽略的落差:在平台上學會的 AI 應用,跟在真實工作情境中有效協作,是完全不同的挑戰。
真實的工作流程充滿例外情況、跨部門的摩擦、未被明確定義的判斷邊界。課程設計得再精良,也很難完整模擬這些複雜度。
更值得追問的是:這些客製化課程,有沒有包含「這個職位需要和哪些部門協作」的脈絡?還是只專注在該職位本身的任務深化?如果是後者,那培訓出來的 AI 能力,可能只是在孤島裡進化,而不是真正提升組織的整體協作效率。
假設四:人機協作的效率,遠高於全自動化
FedEx 的計畫強調的是「員工與 AI 並肩作戰」,而不是「AI 取代員工」。這個方向在目前的技術條件下是合理的,但它背後隱含一個值得深思的問題:
當 AI 的能力越來越強,人類在這個協作關係中的定位,會怎麼改變?
現在的架構是:人類做判斷,AI 做執行輔助。但如果三年後 AI 的判斷能力已經超過大多數員工呢?到時候,人類在協作中扮演的角色,是「監督者」、「把關者」,還是只剩下「授權人」?
這不是在預言 AI 會取代人類,而是說:今天設計的人機協作框架,需要有足夠的彈性去應對能力邊界不斷移動的 AI。如果培訓計畫只是根據「現在的 AI 能做什麼」來設計,那它的有效期限可能比我們想像的短得多。
假設五:AI 的錯誤,需要有明確的問責機制
FedEx 的架構中設有「審查代理」這個角色,這個設計本身就透露出一個重要訊息:AI 的錯誤率在現階段仍然無法被完全信任,必須建立數位化的課責機制。
但這也衍生出一個現實的管理問題:當問題發生的時候,AI 與人類員工之間的責任邊界要怎麼劃定?
如果是 AI 給出了錯誤建議,但員工照著執行,那責任在誰?如果員工推翻了 AI 的判斷,但最後結果更差,又該怎麼看待這個決策?
這些問題在企業法律責任、績效評核、甚至日常的工作信任感上,都會造成真實的影響。而目前大多數企業在推動 AI 整合時,都還沒有清晰的答案。
假設六:整合既有架構,而非重新生成一個新架構
這也是一個隱藏很深的前提:FedEx 的 AI 部署方式是「嵌入現有的核心業務流程中」,讓 AI 在既有框架下運作得更有效率,而不是讓 AI 去重新設計一套全新的營運架構。
這個選擇背後,其實隱含了一個對企業核心商務邏輯的判斷:短期內,這些邏輯不會因為 AI 的介入而發生根本性的質變。
這個假設在目前來說可能是對的,但它同時也意味著:如果哪天 AI 真的有能力生成一套全新的、更有效率的營運模式,那現在這些嵌入式的 AI 訓練成果,反而可能成為組織轉型的阻力,因為大家已經習慣在舊框架下使用 AI 了。
幾個更根本的問題
除了以上這些假設,還有幾個問題我認為同樣值得提出來討論:
- 我們要怎麼判斷員工和 AI 協作得好不好? 目前大多數績效指標都是針對人類設計的,還沒有一套成熟的方式來評估「人機協作品質」。
- 如果員工和 AI 的判斷出現分歧,標準在哪裡? 這不只是技術問題,也是組織文化問題。一個習慣尊重 AI 建議的員工,和一個習慣挑戰 AI 的員工,在長期協作下會培養出完全不同的工作方式。
- 如果反過來,讓員工去客製化訓練 AI,而不是讓 AI 平台去訓練員工,會發生什麼事? 這個問法聽起來很奇特,但某種程度上,它才是真正讓 AI 融入組織知識的方式。
- 允許員工在上班時間學習 AI,這個機會成本划算嗎? 從長遠來看,這是一個需要跨越短期產能損失、換取長期轉型效益的賭注。但這個效益,真的有辦法在 2028 年之前兌現嗎?
AI 轉型不是買套軟體就能解決的事,它是一場關於「人」的集體再進化。這場轉型的成功關鍵,或許不在於技術有多強,而在於組織是否能處理好上述那些隱含的假設與衝突。
當企業選擇將 AI 視為「並肩作戰」的夥伴,我們也必須開始思考:在 AI 越來越強的明天,我們身為「人類員工」的不可替代性,究竟該建立在哪裡?
歡迎讀者分享對本文的看法,也可以提出可能存在的隱藏假設與偏誤。





















