半月談評論員 秦黛新
近日,有關(guān)“帶著DeepSeek看病”的話題引發(fā)了大家的關(guān)注和討論,有人分享了自己用AI問診的經(jīng)歷,稱不僅AI給出的答案和醫(yī)生給出的建議是一樣的,甚至醫(yī)院的檢查報告還沒出結(jié)果,AI就已經(jīng)幫忙分析好了。
人工智能的興起正在引發(fā)醫(yī)療行業(yè)的變革,各地多家醫(yī)院引入DeepSeek,通過本地化部署將其應(yīng)用于臨床、科研和行政管理等多個場景。然而,AI真的能完全代替醫(yī)生看病嗎?這恐怕得打個問號。
湖南省醫(yī)保局日前印發(fā)通知,其中明確規(guī)定:“嚴(yán)禁接收人工智能等自動生成處方”,一些醫(yī)生也表示,AI的診斷結(jié)果只能作為診斷的參考,在處理復(fù)雜病例、結(jié)合患者個體差異進(jìn)行診斷等方面仍有局限性,最終的診斷還是要依靠醫(yī)生。就現(xiàn)有情況看,AI看病雖然有時候看起來很“準(zhǔn)”,但仍然需要醫(yī)生更為專業(yè)的判斷,AI診斷技術(shù)也更加適合專業(yè)醫(yī)護(hù)人員輔助診療使用。更為重要的是,對于缺乏專業(yè)醫(yī)療知識的普通大眾來說,在使用AI問診時,警惕“AI幻覺”帶來的虛假編造也是其中的關(guān)鍵。
很多時候,當(dāng)我們問AI一個問題時,可能會發(fā)現(xiàn),AI給出了一個詳細(xì)、具體、很有邏輯的答案,而當(dāng)我們就其中的內(nèi)容做進(jìn)一步核實時,卻發(fā)現(xiàn)這些信息存在虛構(gòu)和編造,這就是AI幻覺。AI幻覺在各大模型中都難以避免,如果大模型的訓(xùn)練數(shù)據(jù)存在偏差、不全面,AI就容易“學(xué)偏”,生成不準(zhǔn)確的結(jié)果。同時,AI模型大多基于概率生成,缺乏對個案的真實感知和對事實的深度理解,這種“概率游戲”使得AI在生成內(nèi)容時,容易陷入“自說自話”的境地,甚至編造看似合理實則荒謬的信息。
AI幻覺現(xiàn)象已被不少網(wǎng)友發(fā)現(xiàn),有人發(fā)帖表示,在用AI進(jìn)行文獻(xiàn)分析時,答案里會出現(xiàn)一些查無此文的文獻(xiàn);有人發(fā)現(xiàn),AI會把一本書的作者安到另一個人的身上;還有人發(fā)現(xiàn),AI給出的答案存在上下文不符、邏輯不一致的現(xiàn)象。這提醒我們,AI生成的內(nèi)容并不是完全可靠的,要理性看待和使用,謹(jǐn)防虛假和編造內(nèi)容的出現(xiàn),尤其是在醫(yī)療等嚴(yán)肅領(lǐng)域,更不可完全信奉A(yù)I,以免對自身的健康造成危害。
警惕AI幻覺并不是說我們就要因噎廢食,而是要及時從技術(shù)層面加以改進(jìn),在倫理和規(guī)范層面未雨綢繆。AI的發(fā)展需要在進(jìn)步中不斷反思,更要在反思中持續(xù)前行。唯有如此,我們才能讓AI成為推動社會進(jìn)步的有力幫手,而非隱患之源。