「就算你信任司機,你會搭一輛沒煞車的車嗎?」
這句話或許最能總結媒體與網路巨擘、IAC 集團董事長 Barry Diller 最近在 TechCrunch 活動上的驚人言論。當被問及對 OpenAI 執行長 Sam Altman 的看法時,Diller 的回答出人意料:他信任 Altman,但這份信任在即將到來的通用人工智慧(AGI)面前,「根本無關緊要」。
你沒看錯。這位見證了網路時代風起雲湧的媒體大亨,一方面稱讚 Altman 聰明、正派,另一方面卻又對他正在打造的未來,投下了一張極不信任票。這看似矛盾的發言,其實揭示了當前 AI 發展中最核心、也最令人不安的困境。Diller 的話語權來自於他輝煌的經歷,他執掌的 IAC 集團是眾多知名網路公司(如 Expedia、Vimeo)的幕後推手。他的觀點,代表了一種來自科技圈核心、卻又保持清醒距離的深刻洞察。
當個人信任在 AGI 面前失效
Diller 的核心論點是什麼?簡單來說,AGI 是一股「不可預測的力量」。它的潛在威力之大,遠遠超出了任何個人、甚至任何一家公司的道德良心所能承載的範圍。
他打了一個非常生動的比方:這就像是把核武器的發射按鈕,交給一個你覺得「人還不錯」的傢伙。你可能會相信他不會亂按,但你會因此就廢除所有安全協議、發射流程和多重驗證機制嗎?當然不會。

Diller 認為,我們對待 AGI 的態度也應如此。Sam Altman 或許是個好人,但把全人類的未來,寄託在單一領導者的善意上,本身就是一種極度危險的賭博。信任,在這個層級的權力面前,顯得既脆弱又無力。
- 個人信任 vs. 系統保障:Diller 強調,我們需要的是系統性的「護欄」(guardrails),而不是對個人的盲目信任。
- AGI 的不可預測性:一旦 AGI 誕生,其行為和演化路徑可能完全超出人類的理解與控制範圍。
- 權力需要制衡:無論領導者多麼英明,絕對的權力都需要外部的監督與制衡。
AGI 到底是什麼猛獸?
或許你會好奇,AGI 到底是什麼,為何能讓 Diller 這樣的大人物如此憂心忡忡?AGI,全名「通用人工智慧」(Artificial General Intelligence),指的是一種具備與人類同等、甚至超越人類智慧的 AI。
它不像我們現在用的 ChatGPT 只能處理語言,或 Midjourney 只能生成圖片。理論上,AGI 將能夠學習、理解、並執行任何人類能完成的智力任務,從寫小說、譜曲,到進行科學研究、制定經濟策略。
它的潛力是無窮的,既可能帶領人類進入前所未有的黃金時代,解決癌症、氣候變遷等終極難題;也可能因為目標與人類不一致,而引發難以想像的災難。這就是 Diller 所說的「不可預測的力量」。
信任的悖論:加速派與安全派的十字路口
Diller 的言論,也巧妙地切入了當前矽谷最激烈的辯論:AI 的「加速主義」與「安全主義」之爭。以 Sam Altman 為代表的陣營,主張快速迭代、積極發展,相信技術的進步能解決其自身帶來的問題。
而另一派則呼籲謹慎行事,認為在沒有建立起足夠的安全保障之前,貿然推進 AGI 研究是在玩火。有趣的是,Diller 本人與 Altman 私交不錯,但他提出的觀點,卻與安全派的擔憂不謀而合。

這顯示了一個重要的趨勢:對 AI 的擔憂不再只是科幻小說家或學術圈的專利,它已經成為主流商界領袖必須嚴肅面對的課題。當一個精明的商人開始疾呼「需要護欄」時,代表風險已經高到無法忽視的地步。
政府監管,是解藥還是絆腳石?
既然個人信任靠不住,那該靠什麼?Diller 給出的答案很明確:政府與社會層級的規範。他認為,唯有透過強而有力的外部監管,才能為這輛狂飆的 AI 列車裝上煞車和方向盤。
當然,一談到政府監管,許多人就會皺起眉頭,擔心僵化的法規會扼殺創新,讓動作慢的民主國家在 AI 競賽中落後。這確實是個兩難的局面。
然而,Diller 的觀點是,與 AGI 失控的潛在風險相比,創新稍微放緩的代價或許是值得承受的。這場辯論沒有簡單的答案,但它迫使我們思考:在追求極致效率和絕對安全之間,我們該如何找到那個微妙的平衡點?
這一切,對我們普通人意味著什麼?
說到底,這些科技大老們的唇槍舌戰,跟我們喝著珍奶、滑著手機的日常生活有什麼關係?關係可大了。
Barry Diller 的警告像一記警鐘,提醒我們不應輕易地將未來交到任何一個科技巨頭或其魅力領袖手中。無論你有多喜歡 ChatGPT,或多麼佩服 Sam Altman 的遠見,保持批判性思考都至關重要。
AGI 的發展不是純粹的技術問題,它是一個牽涉倫理、社會、政治和全人類命運的複雜議題。當我們享受 AI 帶來便利的同時,也應該多花一秒鐘去思考:這背後的代價是什麼?我們需要什麼樣的「護欄」來保護自己?這場關於未來的對話,我們每一個人,都不該缺席。
參考來源: