向ChatGPT問健康醫療資訊:5招安全用法與避險心法,新手必讀指南。
Share
專家權衡利與弊。
不論好壞,許多人正向人工智慧聊天機器人詢問健康資訊與建議。根據健康研究組織 KFF 於 2024 年 6 月的民調,約每六位成人就有一位會經常這麼做,專家表示此比例其後仍在上升。
近期研究顯示,ChatGPT 能通過醫師執照考試,並且在解決臨床案例上可比人類更準確。但 A.I. 聊天機器人也以「編造內容」而惡名昭彰,而它們錯誤的醫療建議似乎也已造成真正的傷害。
這些風險並不代表你應該停止使用聊天機器人,Mid-Atlantic Permanente Medical Group 前任首席 A.I. 長 Dr. Ainsley MacLean 說,但它們確實凸顯了謹慎與批判性思考的必要。
Dr. MacLean 說,聊天機器人很擅長為你列出向醫師提問的清單、簡化病歷中的專業術語,並帶你逐步理解診斷或治療計畫。但目前沒有任何聊天機器人能取代你的醫師,因此在向 A.I. 詢問可能的診斷或醫療建議時,要更為謹慎。
我們請教專家,如何在你的健康照護問題上,最好地使用聊天機器人。
在風險低時先練習。
Penn Medicine 醫療轉型與創新中心執行董事 Dr. Raina Merchant 說,一般而言,人們習慣從 Google 尋找醫療建議,也懂得第十頁的結果不如第一頁好。
但多數人沒有那麼多使用 A.I. 聊天機器人的經驗。專家表示,這有一段學習曲線,你需要練習如何架構問題並審視回覆,才能獲得最佳結果。
因此別等到出現重大健康疑慮才開始嘗試 A.I.,著有《ChatGPT, MD: How A.I.-Empowered Patients & Doctors Can Take Back Control of American Medicine》的 Dr. Robert Pearl 說。
Dr. Pearl 建議,回想你上一次就醫時,你的醫師回答得很好的幾個問題。然後把這些問題丟給聊天機器人,用不同提示測試,並把它的答案與你醫師的回答相比。他說,這個練習能讓你感受聊天機器人的長處與限制。
另外,也要注意聊天機器人拍馬屁與不斷肯定的傾向。帶有引導性的問題——例如「你不覺得我應該做 M.R.I. 嗎?」——可能會讓聊天機器人附和你,而非提供正確答案。不過你可以透過提出平衡、開放式的問題來防範。
Dr. Pearl 甚至建議把自己從問題中拿掉——「你會對一位有嚴重咳嗽的病人說什麼?」——以更好地繞過聊天機器人傾向於同意你的問題。你甚至可以直接問:「你會說出他可能不想聽的什麼?」
提供脈絡——但掌握分寸。
UCSF Health 內科醫師 Dr. Michael Turken 說,除了你告訴它的以外,聊天機器人對你一無所知。因此在詢問醫療問題時,提供你願意分享的盡可能多的脈絡,可提高獲得更個人化答案的機會,他表示。
比方說,你詢問聊天機器人最近的髖部疼痛。當然可能原因有數十種。「但只要你提供年齡、既往病史、相關疾病、用藥、職業,聊天機器人就能開始提出非常具體、個人化的診斷,」Dr. Pearl 說——而你接著可以帶去詢問你的醫師。
不過,談到 A.I. 就有嚴重的隱私疑慮,Emory University 人類—演算法協作實驗室主任 Dr. Ravi Parikh 說。大多數熱門聊天機器人不受《Health Insurance Portability and Accountability Act》,或 HIPAA 的拘束,他補充說,而且目前不清楚誰可能取得你的對話紀錄。因此,避免分享可識別個人身分的細節,或上傳完整病歷。這些文件可能包含住址、社會安全號碼與其他敏感資料。
若你擔心隱私,許多聊天機器人提供匿名或無痕模式,在其中對話不會用於訓練模型,並會在短時間後刪除。Dr. Turken 說,線上也有多款符合 HIPAA 的醫療聊天機器人可用,例如 My Doctor Friend、Counsel Health 與 Doctronic。
長對話時定期校正。
Dr. Parikh 說,A.I. 聊天機器人有時會遺忘或混淆關鍵細節,特別是免費版本或在長時間對話期間。因此,理想上,針對醫療問題使用付費、較進階的模型,因為它們通常有更長的記憶、更好的「推理」過程與更即時的資料,他補充。
定期開新對話也有幫助,但許多病人會覺得重複輸入醫療資訊、讓模型重新上軌道很挫折。此時,Dr. Merchant 建議定期請聊天機器人「總結你對我病史的了解」。這類檢查能修正誤解,並確保聊天機器人維持在正軌上。
邀請更多問題。
整體而言,A.I. 聊天機器人比較擅長給答案,而不是問問題,因此它們往往跳過醫師會追問的重要細節,Dr. Turken 說——例如你是否有任何潛在疾病或正在服用藥物。當你在詢問可能的診斷或醫療建議時,這尤其成問題。
為了補強,Dr. Turken 建議用類似這樣的提示對聊天機器人下指令:「請問我任何你需要以安全推理的補充問題。」
預期會冒出一連串問題,但請盡量逐一謹慎回覆。若你漏答或跳過某題,它很可能不會再次追問,Dr. Turken 說。
若提供具體細節並回答後續問題,聊天機器人在提供病人的「鑑別診斷」方面其實相當不錯,也就是一份可解釋你症狀的可能疾病的排序清單,Dr. Turken 說。只要記得,雖然它們可能發現你醫師忽略的診斷,這些聊天機器人也可能給出一些令人憂心的、最壞情境的選項。
「ChatGPT 並沒有實際看過上百位病人的經驗,也不知道各種疾病的機率,」Dr. MacLean 說。
讓聊天機器人自我交叉驗證。
網路上或朋友給的每一則健康建議都帶有某種內建觀點,A.I. 聊天機器人也不例外,Dr. Pearl 說。問題在於,即使 A.I. 犯下基本錯誤,它仍然表現得很有自信,且看似無所不知。
因此要存疑,並要求聊天機器人提供來源——然後確認那些來源真的存在,Dr. MacLean 說。你也應該提出困難的追問,並要求聊天機器人解釋其推理過程。「要非常投入,」她補充說。「沒有人比你自己更在乎你的健康。」
想把聊天機器人再推進一步,提示它採取不同觀點。一開始,Dr. MacLean 說,你可以告訴聊天機器人,「你是一位謹慎且經驗豐富的初級照護醫師。」但之後,請它改採專科醫師的視角,這往往能引導模型走向更深入、領域特定的知識。
你也可以要求聊天機器人批判它的第一個答案,接著統整兩種回應,以促使它更審慎思考,Dr. Turken 說。但別僅僅照單全收——務必用可信的健康資源再次核對其資訊,當然,還要向你的醫師確認。
專家表示,對於你能安全詢問聊天機器人的內容,並沒有嚴格的紅線;最重要的是你如何運用這些資訊。關鍵在於,把 A.I. 視為教育資源,而非決策者。



![燙金小囍字貼紙 [24枚]](http://wish.with.tw/cdn/shop/products/hqdefault_2cb3b4c8-ec0a-453e-a8be-1b14dad58faf.jpg?v=1619698098&width=533)



