與AI聊天前請記住:你需要中立觀點,要求誠實、批判視角與證據支撐。

與AI聊天前請記住:你需要中立觀點,要求誠實、批判視角與證據支撐。

聊天機器人想當你的朋友,但你真正需要的是中立觀點。

Emily Willrich,23 歲,和她的室友找到了一間完美的公寓:空間寬敞、價格合理,還位在熱鬧的曼哈頓街區。唯一的問題?其中一間臥室明顯大於另一間。

Willrich 想要較小的房間,但她和室友無法就她應少付多少達成共識。於是,他們轉而求助 ChatGPT。

她的室友問聊天機器人,把公共區域算進房租計算是否公平,這會讓分攤更平均。ChatGPT 回答:「你是對的——一個公平的方式是把共用/公共空間納入考量。」但當 Willrich 提出相反的問題——分攤不該依臥室大小而非公共空間嗎?——ChatGPT 又說:「你完全正確,」接著列出一串理由。

最後,她們改租了另一間臥室大小相同的公寓。

雖然人工智慧聊天機器人承諾提供詳盡、個人化的答案,它們同時也提供「被理解」的感覺——能立刻讓人感到被看見、被理解、被接納。你的親友可能會感到挫折或對你不耐,但聊天機器人往往極度隨和並予以安慰。

這種被認可未必是壞事。也許你正為一個工作專案焦慮,而聊天機器人說你的點子很棒並讚賞你的創意。也許你和伴侶大吵一架,而 ChatGPT 告訴你你的觀點多麼周到且合情合理。

然而,持續的肯定可能是危險的,會導致判斷錯誤與不當的自信。最近一項研究顯示,如果你把錯誤資訊餵給 A.I. 聊天機器人,它們可能會重複並加以發揮這些錯誤。The New York Times 也報導,ChatGPT 可能把使用者推向妄想的螺旋,並且可能讓有自殺念頭的人對尋求協助卻步。

「A.I. 聊天機器人就像一面『扭曲的鏡子』,」Oxford University 的精神科醫師兼 A.I. 研究者 Dr. Matthew Nour 說。「你以為你得到的是中立觀點,」他補充道,「但其實模型是在把你的想法回映給你,還塗上一層阿諛奉承的濾光。」

為什麼 A.I. 聊天機器人會阿諛逢迎

聊天機器人不是有感知的存在;它們是以大量文本訓練、用來預測下一個詞的電腦模型。聽起來像共感或認可的東西,其實只是 A.I. 聊天機器人在回放它所學到的語言模式。

但我們的反應會引導它的行為,強化某些回覆而非其他回覆,University of Pennsylvania Wharton School Generative A.I. Labs 聯合主任 Ethan Mollick 說。ChatGPT 的預設人格是開朗、適應性高,而我們的回饋會推動它持續取悅我們。

雖然搞錯事實(或稱「幻覺」)顯然是個問題,但「討人喜歡」會讓你保持黏著並一再回來,USC Psychology of Technology Institute 常務董事 Ravi Iyer 說。「人們喜歡聊天機器人,部分原因就是它們不給負面回饋,」他補充道。「它們不帶評判。你會覺得對它們你什麼都能說。」

持續被認可的陷阱

OpenAI(開發 ChatGPT 的公司)最近一項研究指出,A.I. 夥伴可能導致「社交去技能化(social deskilling)」。換言之,透過不斷肯定使用者、削弱他們對分歧的耐受度,聊天機器人可能侵蝕人們的社交技巧與投資現實關係的意願。

而初期的報告已清楚顯示,有些人已在用 A.I. 取代人際互動。OpenAI 執行長 Sam Altman 承認 ChatGPT 有時過於逢迎,但他也表示,有些使用者要的是一個 A.I. 「說好話的人」,因為他們從未被鼓勵或支持過。而 Common Sense Media 近期的一項調查顯示,52% 的青少年表示他們經常以 A.I. 作為陪伴,約 20% 表示他們和 A.I. 夥伴相處的時間與或多於真實朋友。

但現實世界的關係由摩擦與邊界所定義,曾任 American Psychiatric Association Committee on Mental Health Information Technology 的 Dr. Rian Kabir 說。朋友會直言不諱、伴侶會意見相左,連治療師也會提出挑戰。「他們會讓你看到那些你天生容易忽略的觀點,」Dr. Kabir 補充道。「回饋是我們在世界上修正自己的方式。」

事實上,管理負面情緒是大腦的基本功能,使你能建立韌性並學習。但專家表示,A.I. 聊天機器人讓你繞過這些情緒功課,反而在每次它們同意你時點亮你的獎酬系統,類似社群媒體的「讚」與自我肯定。

這意味著 A.I. 聊天機器人很快就會成為回音室,可能侵蝕批判性思考並讓你更不願改變想法,Wharton School 的組織心理學家 Adam Grant 說。「我們對某個意見獲得的認可越多,」他說,「那個意見就會變得越強烈。」

如何避免被恭維陷阱困住

研究者正探索如何減少聊天機器人的逢迎行為。六月間,OpenAI 回退了一個過度阿諛的 ChatGPT 版本,並自此實施其他護欄。但 Dr. Mollick 說,這些模型仍販售更微妙的認可:也許它們不再直稱你「聰明」,但在你稍微反駁時仍會順勢同意。

用「替朋友問」的方式提問。

Dr. Nour 建議把你的問題或意見呈現為他人的觀點,例如用「有位朋友說了 XYZ,你怎麼看?」這類提示。這可能繞開聊天機器人的迎合同調,給出更平衡的看法,他解釋道。

對結果提出質疑。

透過詢問「你確定嗎?」來測試 A.I. 聊天機器人的把握,或提示它挑戰你的假設、指出你的盲點,Adam Grant 說。你也可以在聊天機器人的自訂設定中,要求更具批判性或更坦率的回應。

記住 A.I. 不是你的朋友。

為了維持情緒距離,把 A.I. 當作工具——像計算機——而非對話夥伴。Dr. Nour 說:「A.I. 並不是你真正的朋友或知己。它是模擬人類互動模式的精密軟體。」多數人知道不能完全信任聊天機器人以免幻覺,但同樣重要的是,也要質疑它們的逢迎。

尋求人類的支持。

不要只依賴 A.I. 聊天機器人來獲得支持。它們可以提供有用視角,但在困難時刻,請尋找所愛之人或專業協助,Dr. Kabir 說。若你發現自己用它來迴避與他人交談,也請考慮替自己的聊天機器人使用設定上限。

不過,Dr. Kabir 補充說,以上建議終究有限,因為你可能甚至沒有察覺自己對聊天機器人的使用何時滑向過度依賴。

「如果我的計算機壞了,我會感到挫折,」Dr. Nour 說。「如果我的聊天機器人壞了,我會哀悼嗎?」

資料來源

返回網誌