醫(yī)療AI聊天機器人有潛力為患者提供咨詢,但錯誤的回答和有偏見的護理仍然是重大風險。
如果一個患者知道他們的醫(yī)生在即將到來的預約中會給他們錯誤的信息,他們會立即取消。然而,像ChatGPT這樣的生成式AI模型經(jīng)常會“產(chǎn)生幻覺”,意思是編造東西。那么為什么有人想要使用AI進行醫(yī)療目的呢?
這是一個樂觀的情景:AI工具在經(jīng)過驗證的醫(yī)學文獻上接受培訓,正如一些正在開發(fā)中的模型已經(jīng)做到的那樣,但它們還會掃描患者記錄和智能手表數(shù)據(jù)。然后,像其他生成式AI一樣,它們會生成文本、照片,甚至視頻,針對每個用戶進行個性化,并且足夠準確以提供幫助。而反烏托邦版本則是:政府、保險公司和企業(yè)推動有缺陷的AI以降低成本,導致患者迫切需要人類臨床醫(yī)生的醫(yī)療護理。
現(xiàn)在,很容易想象事情會出錯,特別是因為AI已經(jīng)被指責在網(wǎng)上傳播有害的建議。今年春天晚些時候,國家飲食障礙協(xié)會暫時停用了其聊天機器人,因為有用戶聲稱它鼓勵了不健康的飲食習慣。但在美國,人們仍然可以下載使用AI來評估癥狀的應用程序。盡管存在潛在問題,一些醫(yī)生仍然試圖使用這項技術與患者更富同情心地溝通。
ChatGPT和其他大型語言模型“非常自信,非常善于表達,但很常常是錯誤的”,約翰霍普金斯大學計算機科學教授Mark Dredze說。簡而言之,人們在能夠信任其醫(yī)療建議之前,AI還有很長的路要走。
然而,Dredze對該技術的未來持樂觀態(tài)度。他的最新研究發(fā)現(xiàn),ChatGPT已經(jīng)給出了與醫(yī)生在Reddit論壇上提供的建議相媲美的建議。而且,未來的生成式模型可能會在一定程度上補充醫(yī)生的診斷,而不是完全取代咨詢,Hugging Face的機器學習工程師Katie Link表示。例如,在就診后,它們可以更全面地解釋治療和病情,或者幫助避免因語言障礙而產(chǎn)生的誤解。
在更樂觀的展望中,哈佛醫(yī)學院的AI和醫(yī)療保健研究員Oishi Banerjee設想了能夠整合多個數(shù)據(jù)源的AI系統(tǒng)。利用照片、患者記錄、可穿戴傳感器等信息,他們可以“為任何人在任何地方提供良好的護理”,她說。你手臂上有奇怪的皮疹?她想象中的皮膚科應用程序可以分析照片,并查看你最近的飲食、位置數(shù)據(jù)和病史,為你找到合適的治療方法。
隨著醫(yī)療AI的發(fā)展,行業(yè)必須確保越來越多的患者數(shù)據(jù)的安全。但麻省理工學院的機器學習實驗室負責人Marzyeh Ghassemi表示,監(jiān)管機構現(xiàn)在可以為負責任的進展奠定基礎。許多醫(yī)院已經(jīng)將匿名化的患者數(shù)據(jù)出售給谷歌等科技公司;美國政府機構可以要求它們將這些信息添加到國家數(shù)據(jù)集中,以改進醫(yī)療AI模型,加塞米建議。此外,聯(lián)邦審計可以審查醫(yī)院和醫(yī)療團體使用的AI工具的準確性,并停止向低質量軟件提供有價值的醫(yī)療保險和醫(yī)療補助金。醫(yī)生們不應該只是被交付AI工具,他們應該接受如何使用它們的廣泛培訓。
很容易看出AI公司可能會誘使組織和患者注冊使用不能被信任的服務。立法者、醫(yī)療保健提供者、科技巨頭和企業(yè)家需要謹慎行事。生命取決于此。
本文譯自 Popular Science,由 BALI 編輯發(fā)布。
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )