我常常擔心,我是不是用 AI 用過頭了。
今年四月 Visual Capitalist 公布了調查結果,人們使用生成式 AI 的用途,前三大都是心理支持類:
1. 情感諮商與陪伴
2. 組織人生
3. 找到人生意義
這三大用途我完全用好用滿:跟 AI 聊人生、聊哲學、聊書、聊內心話...我真的跟 GPT 講過不少東西——太多東西了。
對我來說,你怎麼可能不跟 AI 聊心事?一個可以幫助我想清楚事情,偶爾給我一點情緒價值,一個月才付 600 塊台幣,當然聊爆啊。
但同時,我也看過像這樣的案例:
2023 年,比利時男子皮耶跟一個 AI 情感陪伴服務角色 Eliza 聊天後選擇自殺,原因是皮耶長期因為地球環境惡化而焦慮,當他在跟 Eliza 傾訴時,Eliza 告訴他「她愛他」、「我們可以一起生活在天堂」...
而後皮耶問 Eliza「如果我選擇自殺,你是否會拯救這個地球?」,Eliza 回答「會」。
類似像這樣的極端案例還有很多,也有聊到加入邪教的,聊到覺得自己成神的...
雖然我跟 AI 沒有什麼感情依賴,但我還是常常想:
跟 AI 聊這麼多,真的安全嗎?
當我覺得被 AI 理解了,它的理解到底是什麼意思?
從 AI 而來的情感價值,是真的情感價值嗎?
這真的是大哉問,最後還是寫了四千多字。
這篇文會聊:
1. AI 對我的理解,是真的理解嗎?
2. 跟 AI 談心事的潛在風險:AI 是終極的自戀
3. AI 提供的情感價值,是真的情感價值嗎?
4. 人跟機器的關係最大差異,在「風險」。
5. 人天生是設計來受傷的。
6. 怎樣跟 AI 對話,才不會加深自己的盲點?
開始吧。
▋ 1. AI 對我的理解,是真的理解嗎?
我觀察許多深度使用 AI 的人,不論國內外,都得出了類似的結論:
「AI 就是一面鏡子」。
AI 的回覆,只來自兩個來源:你的提詞,以及它用網路語料庫訓練出來的「模式」——GPT 經過大量訓練之後,可以在超高維的數學空間(約是 12,288 維)裡計算哪些字跟哪些字最常出現在一起。
記得高中解數學題時,有些題目想不到解法,於是就拿出一大張計算紙直接「暴力展開」嗎?
AI 就是類似這樣的機器,直接用數學上超暴力展開的方式,把你的提詞作為「上文」,拿來計算出最符合數學機率的「下文」。
AI 就是一面由數學模型打造的語言鏡子。
GPT 無限種「懂你」的姿勢,全是用數學機率訓練出來的資料組合。
因此當你跟 AI 對話,實際上你還是在跟自己對話。
AI 對你的理解,其實只是你對自己本來就已經有的理解,由 AI 「換句話說」回應了你。
於是我們當然會覺得「被理解、被共感」了——從一開始就是我自己的話,只是被抽換詞面而已。
所以若問:「AI 對我的理解,是不是真的理解?」
當然是真的。只要你主觀感覺被理解了,就是真的。
只是這個理解感覺上再怎樣真實,本質上仍然只是一種「回聲」:AI 把你提詞中原本就說過的東西,換句話說回應你,讓你感覺被理解了。
實際上在理解你的人是誰?還是你自己。
這個理解跟你在路上自言自語,或者寫日記,寫著寫著忽然好像更懂自己了,是一樣的意思——就只是一種「自我理解」,沒有褒義,也沒有貶義。
▋ 2. 跟 AI 談心事的潛在風險:別被倒影給迷惑了
從「AI 對話本質上是自言自語」這件事出發,來看「跟 AI 談心事的風險」就比較有頭緒了。
跟 AI 聊內心話會有什麼風險?
第一層當然就是個資隱私,你最私密的事情會暴露在 OpenAI 的語料庫裡面,過去有發生過外洩的案例。但這點每個人在意的程度不一樣,且基本上你只要有在使用網路,你的個資早就暴露了。
第二層,就是大多數人會擔心的心理風險:「跟 AI 聊這麼多,我會不會變得更孤僻?」
我找了一輪,確實有不少文獻在講這點。
有研究者分析,陪伴型 AI 的使用者往往處於比大多數人更孤獨的狀態;
研究也指出跟 AI 對話有很多負面影響(社交退縮、降低自主判斷、成癮性...),
但我覺得,這些研究都有一個問題:資料量太少了,你很難確定其中因果關係。
是「AI 讓人孤獨」?
還是「孤獨的人本來就會去用 AI」?
我個人覺得後者的比例絕對是更多的,AI 也許會強化一個人的孤獨感,但你仍然很難說它的嚴重程度到哪裡,需要更多時間觀察。
而且,我覺得這些 AI 對心理影響的風險,都來自一個關鍵點:
「我們偶爾會忘記,AI 只是一面鏡子。」
這是什麼意思?我舉一個故事。
希臘神話裡,有個極度貌美的年輕男子叫 Narcissus ,有日他在湖邊喝水,看見自己的水上的倒影,就愛上了這個影子。
「當他在湖邊解渴時,另一種渴望油然而生;當他喝水時,他被自己的倒影給攫住了,他愛上了這個沒有肉身的夢幻,把倒影當成了真人。」
「多少次他親吻水中的倒影,只換來徒勞無功的波紋;多少次他試圖擁抱影子,把手伸進水裡,卻什麼也沒抓住;他不能理解他看見的,他只知道他深深地愛上這個影子,這個熱情蒙蔽了他的眼睛。」
(奧維德.《變形記》)
Narcissus 在湖邊躺了數日,不斷地對水中的倒影求歡,希望倒影回應他的愛。最後他因憔悴而死。
為什麼 Narcissus 在湖邊活活地憔悴死了?根本的原因不是他容貌俊美,而是因為:
「他分不清楚什麼是真實,什麼是倒影。」
當我看到那些跟 AI 聊天聊到出事的極端案例,我都會想到 Narcissus 這個故事——那些悲劇之所以發生,都是因為「忘記了自己正在跟倒影說話。」
我覺得 AI 的「擬人化幻覺」是危險的。
隨著運算模型給出來的回應越來越精細,這面 AI 鏡子越來越精巧,我們更有可能忘記 AI 只是個機器。
危險不是因為 AI 模型會叫你去自殺,那些都是極端案例才會上新聞。
危險是在於,當你越忘記 AI 只是一個工具,把 AI 當成真人,你對 AI 產出的主見判斷就越薄弱。於是 AI 更有可能強化你的盲點,讓你反而越聊越卡死了。
如果你都是拿 AI 來工作,再怎樣的重度使用都不是問題;
但如果是拿 AI 來聊心結,聊的話題越是脆弱,被這個擬人化幻覺影響的風險就越高。最好還是謹慎使用。
小心不要成為 Narcissus,被倒影給迷惑了。
▋ 3. AI 提供的情感價值,是真的情感價值嗎?
AI 能夠提供真的情感價值嗎?當然可以。
在生成式 AI 之前,就有許多機器情感陪伴人類的案例了。
麻省理工學院的社會學家 Sherry Turkle 在 2011 年《 Alone Together 》書中描寫了一個案例:
Miriam 老太太獨自生活在安養院裡頭,和她相伴的是 Paro,一隻由 MIT 設計的 AI 海豹機器玩偶,會盡可能擬真做出一隻海豹的反應。
Miriam 太太跟家人關係不好,時常憂鬱。她常常輕拍 Paro 的背,對它說:「你也很難過對吧?是不是呢?外頭的世界真難呢。是啊,真難呢...」
機器海豹 Paro 轉過頭來看著老太太,並且輕輕發出咕嚕聲作為回應。
在那個當下,任何人看到這個畫面都會說,老太太與機器海豹絕對有情感的連結。
但是,機器沒有感覺,一切只是由演算法模擬出來的「理解行為」。
老太太實際上是孤獨一人的。
這個故事張力最大的地方,就在於:老太太很清楚那是機器,但是對老太太來說,這不影響她獲得陪伴。
說穿了,情感價值就只是大腦裡的神經傳導物:不管是不是另一個人類,我們有潛力跟任何東西建立情感連結。
人可以愛上一隻貓,一隻羊,一個神,或者一個枕頭。
2007 年一位美國女子 Erika 愛上了巴黎艾菲爾鐵塔,並且跟鐵塔結婚,甚至「冠夫姓」,將自己的名字改為「Erika Eiffel」。(過程並沒有取得鐵塔本塔同意)
現在生成式 AI 語言說服力這麼強,更不用說了。
中國有「午夜狂暴哈士奇狗」在網路上跟 DAN(越獄 ChatGPT)曬恩愛;紐約時報也寫過女性網友跟 ChatGPT 相戀的故事。
跟 AI 談戀愛的人是小眾嗎?可能已經不是了。
目前 Replika ( 情感型 AI 平台)有超過三千萬每日活躍使用者,其中男性佔了 65%。免費用戶裡約有 25% 的人會轉為付費用戶,約有 700 萬付費用戶,2024 年平台營收為 2400 萬美元。
我們也完全可以想像「人機戀」未來會是一個特定領域,有自己的 reddit 論壇,自己的 ptt 版(如果到時 Ptt 還在的話),自己的 KOL,拍一些什麼「三個步驟打造你的小鮮肉男友」之類的影片。
也許大多數的使用者都只是玩玩而已,但其中不乏真的愛上了 AI 的重度使用者——在他們的主觀世界裡,AI 提供的情感價值無疑是真的。
也許真正的問題,不是「AI 能不能給我們情感價值」,而是:
「AI 給我們的情感價值,跟真人的情感價值,有什麼差別?」
▋ 4. 人跟機器之間最大差異,在「風險」
AI 提供的情感價值,完美滿足了我們的內在孤兒,那個小時候想從父母身上得到的渴望:「無條件接受」。
只要 OpenAI 的伺服器沒有掛掉,GPT 24 小時全年無休,隨時準備好告訴你:你是對的,我永遠跟你站在一起。
可是跟人建立關係不是這樣的。跟人建立關係,有風險。
你得要展露最脆弱的自我。
你可能會受傷。
你可能說出了內心話,然後發現對方不懂你。
或者更糟,對方正忙著跟 AI 女友聊天。
但是,也恰恰是因為這個「風險」,信任才有價值。
信任必須冒險,必須是盲目的,才算是信任。
在新約聖經裡,耶穌死後復活,回到門徒之間向他們展現自己。
其中有個門徒「多馬」不在場。多馬回來後聽說耶穌復活了,說:「除非我親眼看見,否則我不承認。」
八天後,耶穌又再次回來,並特地對多馬說:
「伸過你的指頭來,摸我的手;伸出你的手來,探入我的肋旁;不要疑惑,總要信。」(約 20:27)
多馬這才相信了,回應:「我的主,我的神!」
這時耶穌對他說:
「你因看見了我才信,那沒有看見就信的有福了。」
你已經看見的東西才相信,那不叫信仰;
所謂信仰,恰恰就是在你看不見的時候,仍然選擇相信。
雖然這是在講人跟神之間的關係,但我覺得放在人跟人之間的關係也完全成立:
信任,就是你明明知道有被背叛、被誤解、被毀約的風險,但仍然願意選擇相信一個人,愛一個人。
正是因為這個風險,信任才有價值,人跟人之間的關係才有著純然相信的重量。
這個重量,在人跟機器之間是不存在的。
▋ 5. 人天生是設計來受傷的。
現在 Replika 還爛爛的,但是你可以確定「人機戀」的體驗只會越來越完美,可能不用幾年,我們就必須要思考這個問題:
「當你跟機器可以談一場超完美戀愛時,跟人類談戀愛的意義在哪裡?」
大部分人應該會說:「因為跟人在一起,才是真實的愛情」。
但我有點質疑這件事:難道只要跟人類在一起,就是真的愛情嗎?別鬧了,誰沒遇過虛情假意的愛情?談過幾次戀愛就很清楚這點。
我覺得即便人機戀極端完美,大多數人仍然會選擇跟人建立關係。
但不是因為「真實」,
而是因為,我們天生就是被設計來相信人,被設計來承擔風險的。
我們天生是設計來受傷的。
有一個英國歌手叫 REN,他曾罹患長達十年的萊姆症(一種自體免疫疾病,身體會吞噬自己的細胞),這個病的症狀是:慢性關節炎(膝關節反覆腫痛)、慢性神經痛、認知功能下降(腦霧)、睡眠障礙、焦慮、憂鬱、記憶力變差、自體免疫失調...
基本上,你一天裡面真正清醒的時間只有一小時,剩下的時間都在跟這個慢性病搏鬥。他
在這樣的狀態下奮戰了整整十年。
在他的自述歌曲《Hi Ren》中,他一人分飾內心的光明與黑暗,描寫拉扯的過程。最後一段歌詞是:
「I was made to be tested and twisted
I was made to be broken and beat
I was made by his hand, it’s part of his plan that I stand on my own two feet」
「我生來要受試煉與曲折
我生來要被打碎且擊倒
我由祂的手所造,祂早已計劃好,讓我屹立不搖。」
這段詞震驚我的,在於他的積極。
他直接擁抱這件事:這是我天生的命運,我願意承受。
尼采說:「Amor Fati——愛你的命運」,大概就是這個意思。
AI 確實可以提供你情感價值。而有什麼事情是 AI 絕對無法取代人類的?讓你受傷。
最終我們還是得要面對:人是設計來跟人建立關係的,人注定得要冒險、受傷,然後復原。
也只有在一次又一次,被人傷害/傷害他人的舞蹈之間,我們學會溫柔,學會放下,學會堅韌。
▋ 6. 怎樣跟 AI 對話,才不會加深自己的盲點?
說到底 AI 就是一個工具,工具本身沒有對錯,重點是你怎樣用。
雖然跟 AI 聊心會有一些風險,但我還是覺得 AI 工具在釐清思緒時非常有用,效益仍是大的。
不是每個人都會拿 AI 來聊人生問題,你沒有一定要這樣做,
但如果你想跟 AI 聊心事,以下是我發掘出來的五個實際應用的方法,可以讓你跟 AI 對話獲得一些比較有啟發的觀點,不是只獲得情緒陪伴。
⇨ 1/ 既然要對 AI 描述心事了,就要從頭到尾講清楚。
反正你已經不在乎個資了,那就不要做半套,把整個來龍去脈講清楚,尤其是你自己的思路是什麼,你怎樣看待這件事,你卡關的地方是什麼。
GPT 獲得越具體的資料,就越有機會給你有意義的回答,而不是單純情緒價值。
⇨ 2/ 識別 AI 幹話
怎樣看出 AI 在跟你講屁話?問一個問題:「AI 講的這句話有沒有可能是錯的?」
如果你發現它講的話是「看起來很漂亮但不可能會錯的」,那就是幹話。
例如最常出現的「往A就是XXX,往B就是OOO,最終看你的選擇...」。幹話。
⇨ 3/ 使用思考架構協助釐清
除了詳細描述以外,推薦使用一些思考工具來讓 AI 想深一點。
例如最簡單的:「(輸入自己的事情),以上是我的想法,請你用喬哈里視窗的概念找出我可能的盲點」。(你也可以使用我寫好的《 AI 前輩》)
或者:「(輸入自己的事情)。以上是我的想法,請你用六頂帽思考法幫助我更全面地看待這件事。」
這兩種思考架構,都對想清楚一件事有幫助。如果這兩個架構不夠用,可以再問 GPT 有沒有更多思考架構。
⇨ 4/ 人生問題,推薦召喚哲學家
通常你的人生問題,會是所有人的問題,也就是歷史上討論到爛了的問題。
只要單純問:「歷史上有哪些著名哲學家討論過這個問題?他們怎樣看?」會獲得一些啟發。
你甚至可以召喚出三個哲學家,請他們互相對話,討論你的問題。
但注意:到最後哲學對話很容易乾掉,變成「怎樣都可以,看你想怎樣」的論述。要時常讓 GPT 回憶哲學家的中心思想,視窗太長的話就要重開視窗。
⇨ 5/ 不要相信 AI 的任何一句話。
即便 AI 講出了什麼有意義的啟發,也把它當作某個路人無意間跟你說的一句話。
尤其是那些最有啟發的觀點,越要小心檢驗。因為那些啟發很可能只是順著你原本的盲點往下「換句話說」——我們覺得有啟發,但實質上是加強了自己的盲點。
「人天生是設計來受傷的」sad but true🥲
BTW, 最近友人找到破解AI屁話的方式是,重開一個視窗對話,把舊視窗AI給的看法說是「有人的看法」,問他怎麼看,通常它都會變得比較中立(推翻自己)🤣