
(附圖由 Gemini 生成)
有些東西,生成得出來,未必就代表適合生成。
有些安慰,做得越像真,未必就越接近慈悲。
而有些告別,雖然殘忍,卻可能是唯一能讓活著的人慢慢回到現實的路。
當科技開始幫人說話,它就不只是幫忙而已;當科技開始幫人說謊,它也不只是工具而已。它開始參與我們如何理解愛、如何面對死亡、如何在最不想失去的時候,選擇要不要承認失去。
有些貼文看起來很像一般的求助,甚至帶著一點「拜託大家幫忙圓夢」的社群感。但這一則不一樣。
它不是要把老照片修清楚,不是要把婚紗照合成得更夢幻,也不是單純替一位過世的親友做遺照。它要的是:用 AI 做一支「活著的影片」,讓已經病逝的弟弟繼續對重度憂鬱的母親說話,讓母親相信兒子還好好的活著,還能吃飯、工作、幫忙照顧別人。
這就不是單純的修圖了,而是把 AI 推到一個非常微妙的位置:它不只是生成影像,它是在生成一個「可被相信的故事」。而且這個故事的核心,不是美化回憶,而是隱瞞死亡。
這件事之所以引發爭論,不只是因為「騙人」兩個字刺耳,而是因為它碰到了幾個很難切開的問題:愛與謊言、保護與剝奪、療傷與延誤、同情與操控。它看似只是一個家庭的苦衷,實際上卻像一面鏡子,照出我們對死亡、對真相、對科技,以及對「善」的理解,其實都沒有那麼絕對。
🤖這不是「要不要幫忙做圖」而已,而是「要不要參與一場溫柔的偽造」
絕大多數人第一眼看到這種需求,直覺很容易分裂成兩派。
一派會說:都已經這麼慘了,何必再刺激母親?能瞞多久就瞞多久,至少讓她少受一點打擊。這是很典型的「白色謊言」思路。它相信,有些真相太硬、太冷、太殘忍,對脆弱的人來說,不說破反而是種善意保護。
另一派則會說:死亡不是可以包起來塞進抽屜的東西。今天你幫她瞞,明天她還是會面對;今天你替她做假影片,明天她一旦知道,可能連最後的信任都碎掉。對一個母親而言,孩子的死已經夠痛了,若連告別都被剝奪,那將會是雙重失落。
兩邊說的其實都有道理,而這也是最難的地方。因為爭論不在於誰對誰錯、更不是善惡之爭,癥結是:在極端脆弱的情境裡,善意本身就可能互相衝突。
AI 在這裡就像一個極度高效的工具,但它不是中立的「幫你處理事情」,而是在替你把道德難題「具象化」。以前家人說謊,頂多是編個理由、串個口供、替對方掩蓋一段時間,而現在 AI 可以直接做出「已故者還活著」的影片,背景、語氣、神情都能被生成到幾乎像真的一樣。這不只是修飾,而是「製造存在感」。
🤖為什麼我們會對這類謊言特別敏感?
因為它碰觸到的不是一般資訊,而是「生死」。
一般的謊言頂多是錯誤、隱瞞、誇飾、包裝,但一旦牽涉到死亡,謊言就不再只是謊言,而會變成一種「對現實秩序的改寫」。人不是單純在接收訊息,而是在重新理解一個關係:我以為你還在,你其實不在了;我以為我們還能再見,但其實已經沒有下一次了。
所以那位發文者真正面對的,恐怕不是「要不要做一支影片」,而是要不要幫母親延後一次崩潰。這個延後可能很短、可能很長,也可能根本延不了多久。但是在照顧現場裡,時間本來就不是抽象概念,它有時只是今天能不能吃下一口飯、今晚能不能睡著、明天會不會忽然倒下。
而憂鬱症又讓這件事更複雜。一般人談「知道真相」,常常預設對方有足夠的情緒承受力,可以哭、可以痛、可以慢慢消化。但是當一個人已經在重度憂鬱狀態下,真相不是被理解,而是可能直接引爆。這不是在替欺瞞洗白,而是在提醒我們:真相不是永遠都可以用同一種方式交付。
問題是,當「不能立刻說」被 AI 轉變為「應該永遠不說」,當「先保護她」被滑向「讓她活在幻覺裡」,那條線就開始模糊了。

🤖AI 最危險的地方不是它會騙人,而是它讓騙人變得很容易、很像善意
過去想要騙人,至少還要靠演技、布局、人力配合,現在只要有幾張照片、幾段聲音、幾段文字,就能做出一段「很像真的」影像。這代表什麼?
代表技術把道德成本降得太低了。
以前你會猶豫,是因為做假太麻煩、太明顯、太容易穿幫,現在你的猶豫,反而是來自於它太容易做、太像真的、太能安慰人。技術會把一件原本「明知不對」的事,變成「好像也還好吧」。而這種模糊感,正是 AI 時代很大的危險。
更麻煩的是,AI 會讓「意圖」看起來比「結果」更重要。只要你說自己是為了母親好,很多人就會自動替這件事開脫,但真正該問的也許是:這個好是誰定義的?是母親真的需要的好,還是家屬想避免自己面對痛苦的好?是照顧她,還是也順便照顧了自己害怕承受照顧壓力的那一部分?
這不是要苛責誰,因為在喪親裡沒有人是冷靜的。只是我們得承認,當人陷入巨大的悲傷時,常常會把「我受不了」誤認為「對方受不了」。這種投射看似很人性,但同時卻也很危險。
🤖也許我們真正要問的不是「能不能騙」,而是「騙到什麼程度,還算是照顧?」
這裡最值得思考的不是法律條文,而是倫理邊界。
如果只是做一張「弟弟在醫院做志工」的合成照,作為一種暫時性的安撫,也許有些人會覺得可以理解。因為它像是一層薄紗,遮住傷口,讓家屬有時間喘口氣。
但如果進一步做成連續影片,讓已經死亡的人對母親說話、交代近況、營造「我很好」的生活假象,這就不只是安慰,而是延續一個完整的虛構人格。它不再是紀念、而是偽裝,不再是陪伴、而是替現實蓋章。
而一旦這件事被成功的做出來,接下來就會很自然的問下去:那下次呢?能不能再做久一點?再像一點?再多錄幾段?再讓他「多活幾天」?再讓媽媽「少痛幾次」?
AI 的詭異之處就在這裡:它不是單次工具,它是可以無限迭代的。你今天幫忙做一支影片,明天也許就有人想要一整套「亡者日常更新」;今天是安撫母親,明天可能是安撫自己;今天是臨時應急,明天可能變成依賴。
於是我們會慢慢發現,爭議的核心不是「要不要善意」,而是「我們是否願意承認,有些善意會讓人更難面對失去」。
🤖真正的告別,從來都不漂亮;但太過漂亮的假象,也不一定比較慈悲
這則貼文最讓人鼻酸的地方,是它其實透露了一個很殘酷的現實:活著的人沒有足夠的力氣,用乾淨俐落的方式處理死亡。
家屬想保護母親,卻也可能是在替自己爭取一點緩衝。留言區裡有人主張坦白,有人主張隱瞞,有人說「先別刺激她」,有人說「她遲早會知道」,還有人只想先幫忙做出影片。每一句都不只是意見,它們其實都是不同版本的恐懼 ─
怕母親承受不了,怕自己也承受不了,怕說了之後家裡再倒一個人,怕假象破掉,怕真相太晚,怕遺憾,怕後悔,怕來不及。
這就是為什麼這件事不能只用「騙」或「不騙」來簡化。因為在人最痛的時候,很多行為都不是在追求道德上的完美,而是在爭取一點點還能呼吸的空間。
只不過,呼吸空間如果是靠 AI 做出來的生成內容換來的,那它終究是一個有代價的空間。它可能讓人晚一點崩潰,也可能讓人困在崩潰前的幻象裡。它可能減少一次痛,也可能延長十次痛。
這件事沒有漂亮答案,也許最誠實的說法是:這樣的 AI 運用,不是單純的對或錯,而是每一次都得問,這個謊言是在幫誰撐住世界?這個世界最後又會不會反過來壓垮誰?
而這也正是 AI 時代最麻煩、也最值得警惕的地方。因為當科技開始幫人說話,它就不只是幫忙而已,當科技開始幫人說謊,它也不只是工具而已。它開始參與我們如何理解愛、如何面對死、如何在最不想失去的時候,選擇要不要承認失去。
- 有些東西,生成得出來,未必就代表適合生成。
- 有些安慰,做得越像真,未必就越接近慈悲。
- 有些告別,雖然殘忍,卻可能是唯一能讓活著的人慢慢回到現實的路。
或許這就是這則貼文最刺痛人的地方。它沒有把我們帶向一個答案,而是把我們推到一個無法迴避的門口,逼我們問自己:如果有一天,輪到我們面對最親的人離開,我們究竟會希望別人對我們說真話,還是先讓我們活在一個看似溫柔、其實正在褪色的幻覺裡?
























