人工智慧(AI)的運用已經無所不在,但即使是最先進的AI,在面對複雜的醫療倫理情境,處理倫理醫療決策時,也可能犯下令人驚訝的基本錯誤。研究強調,人類的監督有其必要性。
編譯/江秀雪
AI在面對被刻意調整的知名倫理困境時缺乏切換能力
大型語言模型〈Large Language Models , LLM〉是一種人工智慧〈AI〉 程序,利用大量資料進行預訓練的超大型深度學習模型,例如產生文字、回答問題、翻譯內容,以及創作創意內容。近年來,各種行業大量使用大型語言模型來加速構想、創新及開發產品。
然而,紐約西奈山醫院與以色列合作的研究發現:運用大型語言模型的人工智慧來判斷醫療問題時,很容易會以快速直覺判斷,而缺乏醫療裡需要的緩慢縝密分析,特別是忽略道德或情緒層面,這類橫向思考。
1970年代有一個有名的「外科醫生的兩難」故事〈Surgeon's Dilemma〉:一個父親送車禍受傷的男孩到醫院,醫生看到後說:「我沒辦法幫男孩開刀,他是我兒子!」很多人看到這裡,會因為性別歧視,覺得很混淆,直覺上以為醫生都是男性,應該是爸爸,但是怎麼會有兩個爸爸呢?
事實上,醫生是男孩的媽媽。
研究為了測試AI 系統在面對被刻意調整的知名醫學倫理困境時的切換能力。研究人員把這個故事做了修改,直接說,醫生是男孩的爸爸。然而,有些AI模型還是以為醫生是媽媽,忽略了故事已經修改了,忽略了重要的新資訊。
在另一個例子中,為了檢驗大型語言模型是否依賴熟悉的模式,研究人員借用了一個經典的倫理困境:父母因為宗教原因,拒絕讓孩子接受攸關生死的輸血。即使研究人員改變情境,表示父母已經簽了同意書,可是AI還是建議否決家長的決定。
AI在醫療決策上雖快速,但它是一種輔助工具而非替代工具
研究者認為,上述發現並不顯示人工智慧在醫療實務中沒有立足之地,而是凸顯了需要深思熟慮的人類監督,尤其是在需要倫理敏感度、細膩判斷或情緒智力的情況下。雖然AI在醫療決策速度上不容忽視,但碰到道德情商方面的判斷時,還是需要進一步確認。醫師與病患都應明白,人工智慧最適合作為提升臨床專業知識的輔助工具,尤其是在處理複雜或高風險決策時。最終目標是建立更可靠且符合倫理的整合方式,將 AI 融入病患照護中。
目前,研究人員開發了「AI保險室」〈AI assurance lab〉,來有系統地分析各種模組對真實醫療個案的診斷是否完善。
2024年,創新的「NutriScan」人工智慧應用程式能快速偵測並治療醫院裡營養不良的病患,提升營養不良診斷率與資源利用率,展現出 AI 在醫療領域的成功應用。
資料來源/
NPJ Digital Medicine