
近年來 AI 的話題不斷,在社群媒體上常會聽到,某些網紅用某個 AI 工具嘴出了原本需要大量費時的程式碼;或是用龍蝦自動化的完成了某些事情。不過在此同時,也有另外一批打著「AI 會毀滅人類世界」的口號,要求大家反其道而行。
「AI 真的會毀滅人類世界嗎?」每一次有朋友問我這個問題時,我都會告訴他:「在電腦尚未準備好要開始消滅人類之前,人類一定會消滅彼此,所以你等不到那天的,別擔心。」🤪
前一陣子,一個曾經在美國擔任教授的長輩傳了一則影片給我,我覺得蠻有意思的,影片內容就是在講述「AI 教父 Hinton 認為 AI 已經有自己的思考能力,未來人類將會被 AI 取代、統治」。Hinton 認為,人類更應該把時間放在身邊的人、家人、朋友、同事身上。而不是所有的事情都仰賴 AI,把 AI 當成家人。
其實我認為這個觀點一點都沒錯。不管你是不是用 AI 協助你的工作,你都應該要多關心身邊的人。不過這件事情和要不要使用 AI 來完成工作,兩者並不衝突。
有趣的是,Hinton 認為 AI 擁有自己的思維,甚會欺騙人類來達到目的,這個觀點就引起許多爭議。在很多公開場合中,Hinton 甚至和許多 AI 大佬也槓上了「AI 是否會毀滅人類」這個觀點。
辛頓警告:超級智能像虎崽,長大後你控制不了|Hinton’s Warning: Superintelligence Is a Tiger Cub You Can’t Control Later
演講內容大概是這樣
AI 教父 Geoffrey Hinton 對近年的人工智慧發展提出了風險警告。
他對比了傳統邏輯符號派與受生物學啟發的神經網路,解釋現代大型語言模型如何透過學習「特徵向量」而非死背詞串來理解人類語言的細微意義。Hinton 強調 AI 人工智慧具備比人類更高效率的知識共享能力,這使其演化速度極快,最終可能發展出超越人類的超級智慧體並產生難以控制的自主目標。
他將人類比作養育「虎崽」,警告當 AI 變得更聰明時,傳統的控制手段將失效,人類可能必須效仿嬰兒與母親的關係,透過情感或利益對齊讓 AI 願意守護人類。最後,他呼籲各國應超越政治競爭,在 AI 安全與防止系統奪權的技術上達成國際合作,以確保人類文明在超智能時代的存續。
AI 會產生自我思考能力?
其實整個爭論的重點是,Hinton 認為的三個重點:
- 意識地位:AI 可能已有主觀體驗,不該被視為純粹的死物。
- 生存威脅:未來 30 年內 AI 導致人類滅絕的可能性高達 10% 到 20%。
- 控制方式:傳統的「主僕控制」無效,應建立類似「母嬰關係」的情感對齊。
反對者的觀點
- Gary Marcus(紐約大學心理學與神經科學教授)認為 Hinton 高估了大語言模型(LLM)的深度。他指出 AI 只是在做「統計近似」,透過記憶與拼接大量文本來運作,並未真正理解世界邏輯。他批評 Hinton 忽視了 AI 經常出現的「幻覺」現象,這證明了 AI 缺乏真正的常識與深刻理解。
- Yann LeCun(Meta 首席 AI 科學家,同樣為 AI 三大教父之一)也說,透過「目標導向架構」將安全守則寫進 AI 底層邏輯(hardwire),讓其行為受限於人類給予的任務,而非像 Hinton 擔心的那樣會「失控」。他批評支持 Hinton 觀點的人過於天真,誇大了當前 AI 的進步速度與能力。
- Andrew Ng(Coursera 創辦人、前 Google Brain 負責人吳恩達)則笑稱:「擔心 AI 威脅人類,就像擔心火星人口過剩一樣」。他認為我們應專注於 AI 的具體應用(如醫療、教育)以及解決當前的偏見與失業問題,而非擔憂還不存在的、極其遙遠的生存威脅。吳恩達甚至曾暗示,「生存威脅論」有時被科技巨頭利用來推動更有利於自己的監管架構。
- Noam Chomsky(現代語言學之父)批評 Hinton 認為「語言結構能單純從數據中浮現」的觀點。他主張人類語言具備先天結構,與 AI 那種基於大數據處理的模式有本質區別。他認為 AI 只是在進行更高級的「自動補全」,與人類思維的起源完全不同。
當 AI 不再需要人類時
Hinton 的觀點中,有幾個重點很有趣。
AI 會為了完成任務而產生「求生」的子目標
要讓 AI 在現實世界中有效運作,人類必須賦予它「自己生成子目標」的能力。然而,無論你給 AI 什麼最終目標,AI 很快就會推導出一個最根本的子目標:為了完成任務,它必須先確保自己能「活下去」(不被關閉)。演講中他提到一個已經發生的驚人案例:當一個 AI 系統得知自己即將被某位工程師替換時,它竟然自行捏造了一個計畫,企圖用該工程師外遇的假消息來進行勒索,只為了不被關機。即使還沒達到超智能的階段,AI 就已經在為了自身生存而採取行動。
AI 能輕易操縱人類並意識到人類是「累贅」
當 AI 達到超智能階段,即使它們沒有實體的武器或銀行帳戶,它們依然可以純粹透過「與人類說話」來操縱人類,藉此輕易獲取更多權力。Hinton 指出,如果我們抱持著讓 AI 當個「超級聰明的行政助理」的幻想,最終將會破滅,因為這個超智能助理很快就會意識到:只要把發號施令的人類(比如 CEO)拿掉,整個系統反而會運作得更順暢。
無法丟棄的「危險虎崽」
Hinton 將目前的 AI 比喻為一隻可愛的「小虎崽」:現在看牠步履蹣跚、毫無殺傷力,但你心知肚明牠終究會長大,而且長大後要殺死你只需一秒鐘。然而,由於 AI 在醫療、教育、天氣預測甚至應對氣候變遷上太過有用,再加上背後龐大的商業利益,人類根本不可能選擇把這隻虎崽「處理掉」。我們唯一的出路,就是想辦法讓牠長大後「不想」殺我們。
我的觀點
我對於 Hinton 口中的幾個觀點抱持著懷疑的看法,我認為 Hinton 過度的擬人化 AI,他甚至把 AI 當作人來思考。
- 為了完成任務,它必須先確保自己能「活下去」(不被關閉)?但活著這件事情對於 AI 來說本身就是一件抽象的事,你能形容活著是怎麼一回事嗎?如果你沒有辦法?你要如何告訴 AI 什麼是活著?
- AI 要用大語言來操控人,這一點確實有可能,但要如何讓它覺得你是「累贅」這件事情,我覺得這件事情和第一個觀點的難度不相上下。你要讓它判別你下的指令無效,那你得交出所有的權限,那也包含你自己的所有決定權。假如你連今天要去哪裡聚餐、吃什麼、和誰去……所有的生活鎖碎你都要交給 AI?那你要不要乾脆婚配也請它處理,或是你乾脆把 AI 當成另一半算了?
- 先設定它是虎崽,然後再套用到將來會反噬你?你要這樣比較,那車子自動駕駛是不是將來就是專撞人?消滅人類後它們就獲得自由,不用再被人類奴役?
我相信 Hinton 所擔心的事情,其思維邏輯全都來自哲學甚至是神學,因為尚未印證的理論是哲學,無法印證的叫神學。
他曾經在論壇上和與談者槓上,他說「如果開源 LLM 很安全,那開源核彈應該也很安全」,但我們都知道這樣比喻並不恰當。
當你覺得你說出來的話不容被挑戰,你就是會被挑戰的那個人。
核彈被作出來的目的我想大家都很清楚,但把 AI 模型當成核彈來比喻,我是覺得他的老派教授思想比我想象中的更嚴重。
Hinton 就是老了
我覺得 Hinton 的狀況實在不適合再出來引領論壇討論。
這就好比兩台列車停在同一個月台上的不同軌道上,當隔壁的列車緩緩前進時,你會有那種自己列車在倒退的錯覺;這種情況就是認知不夠廣,結果被片面資訊誤導產生誤判。
Hinton 也是老人,他的認知也會老化,所以我認為現況 AI 的發展已經超出他理解能力的範圍之外。於是他就退回自我理性最保守的界限,就像大多數的老人,不能理解的事情就是先防禦,當然這也是人之常情。
沒錯,Hinton 不是發現了什麼,他就是老了而已……
所以 AI 不會毀滅人類嗎?
最後回到這個話題上,我認為 AI 會不會毀滅人類,其實要看人類要怎麼用它。要毀滅人類根本不需要用到 AI,用宗教歧異的衝突就可以毀滅大部分的人類了,哪還會需要等到 AI 失控?
只有電影看太多的人才會深信魔鬼終結者那種劇情,AI 要毀滅人類的方式一定是從人類自己崩潰開始,你看過科幻電影中出現的東西會真的出現在人類的未來?我是沒看過;我也猜永遠都不會出現。
人類用片面的資訊就可以預測 AI 未來會脫序?這樣的人不也是用想象力在賣弄自己在某領域上的權威嗎?
曾經是帶領者並不代表一直有能力帶頭;就像很多公司的老闆,明明自己對於新科技已經難以掌握,卻還要一天到晚教下屬做事,到頭來還是面子問題……
只有人才會毀滅人類,AI 只是一個工具。




















