醫院是ChatGPT“禁區”?若醫生問診時“求助”AI,患者能接受嗎? 滾動
如果給你開診斷書的不是醫生,而是AI,你會接受嗎?
就在人們熱議以ChatGPT為代表的生成式AI將如何取代人們的工作時,大家發現,醫院,似乎成了這類人工智能產品的一個“禁區”。
生成式AI可能掌握比單個醫生更多的信息,從而有更多的“經驗”,但是,醫生的決定往往事關道德,AI很難從道德角度來做決定。
(資料圖片僅供參考)
也有醫生贊成在醫院中使用AI技術的。斯坦福大學醫學院教授、曾任擁有超過1200萬患者的美國醫療集團Kaiser Permanente首席執行官的Robert Pearl說:
我認為AI對醫生來說將比過去的聽診器更重要。任何醫生都不該把ChatGPT或其他形式的生成式AI拒之門外。
Pearl認為,ChatGPT可以幫助醫生來撰寫患者的臨床報告、診斷書,甚至在和患者交流遇到困難時向醫生提供建議。在他看來,生成式AI對醫學發展來說是好事。
醫學專業人士希望生成式AI的語言模型可以挖掘數字診療檔案中的有用信息,或者為患者提供簡潔明了的專業解釋,但也有人擔心這些技術會蒙蔽醫生的雙眼或提供不準確的回應,從而導致錯誤的診斷或治療計劃。
開發AI技術的公司已制定了雄心勃勃的進駐醫療行業的計劃。去年,微軟研究院推出了BioGPT,這是一種在一系列醫療任務上取得高分的語言模型,OpenAI、馬薩諸塞州總醫院和AnsibleHealth共同完成的一篇論文聲稱,ChatGPT可以通過美國執業醫師執照考試,分數超過及格線60分。幾周后,谷歌和旗下的DeepMind的研究人員推出了Med-PaLM,它在同一考試中達到了67%的準確率——這一結果雖然振奮,但谷歌當時表示,“仍然不如臨床醫生”。微軟和全球最大的醫療保健軟件供應商之一Epic Systems宣布計劃使用支持OpenAI的GPT-4來搜索電子診療檔案。
研究AI對醫療保健影響的哈佛大學公共衛生講師Heather Mattie認為,人們需要破除對AI的迷信,即必須認識到AI不可能是100%正確的,并且可能會產生有偏見的結果。她認為,如果有這樣的認識,AI將成為醫生們很好的助手。
她尤其擔憂的是,AI在心腦血管疾病和重癥監護方面是否會給出錯誤答案,對其他臨床領域直接應用AI,她也表示擔心,因為有時候AI會捏造事實,并且不清楚它所借鑒的信息是否已經過時。因此她認為,如果醫生對AI生成的答案不進行事實核查和鑒別,則很有可能出現誤診。
此外,一些倫理學家擔心,當醫生遇到艱難的道德決定時,比如手術是否能夠提高患者的存活率和存活時間,AI未必給出符合倫理的答案。
英國愛丁堡大學技術道德未來中心的倫理學家Jamie Webb說:
醫生不能將這種程序外包或自動化給生成式AI模型。
去年,Webb參與的一個團隊得出結論,AI系統很難可靠地平衡不同的道德原則,如果醫生和其他工作人員過度依賴機器人而不是自己思考棘手的決定,他們可能會遭受“道德去技能化” .
醫生們之前曾被告知,AI將徹底改變他們的工作,結果卻大失所望。
今年2月,在哈佛大學舉行的一次關于AI在醫學領域的潛力的討論會上,初級保健醫生Trishan Panch回憶說,當時正是ChatGPT火熱之際,他在社交媒體上看到了一份由ChatGPT撰寫的診斷書。Panch回憶說,當時興奮的臨床醫生很快在會議上承諾在他們自己的實踐中使用該技術,但在使用ChatGPT到第20次左右時,另一位醫生插話說,該模型生成的所有參考資料都是假的。
盡管AI有時會犯明顯的錯誤,但Robert Pearl仍然非??春肅hatGPT等生成式AI。他認為,在未來的幾年里,醫療保健領域的AI語言模型將變得更像iPhone,充滿了可以增強醫生能力和幫助患者管理慢性病的功能。他甚至認為,ChatGPT這樣的AI可以幫助減少美國每年因醫療錯誤導致的超過25萬例死亡。
Pearl確實認為有些事情是AI的禁區。他說,幫助人們應對悲傷和失落的情緒、與家人進行臨終對話,以及一些高風險的診療手段不應該將AI牽扯其中,因為每個病人的需求都不一樣:
那些是人與人之間的對話。
他將ChatGPT比作一名醫學生:能夠為患者提供護理并參與其中,但它所做的一切都必須由主治醫師審查。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: