前言:本站為你精心整理了醫(yī)學(xué)人工智能應(yīng)用現(xiàn)狀及倫理問題思考范文,希望能為你的創(chuàng)作提供參考價(jià)值,我們的客服老師可以幫助你提供個(gè)性化的參考范文,歡迎咨詢。
摘要:人工智能技術(shù)在醫(yī)療領(lǐng)域的應(yīng)用越來越廣泛,并有巨大的前景,醫(yī)學(xué)人工智能在給衛(wèi)生健康行業(yè)的發(fā)展帶來巨大的便利的同時(shí),也帶來了一些倫理方面的問題和挑戰(zhàn),本文通過研究我國醫(yī)學(xué)人工智能的應(yīng)用現(xiàn)狀,分析其在應(yīng)用中存在或潛在的倫理問題,并從理念、研發(fā)、應(yīng)用、監(jiān)管4個(gè)方面提出對策和建議,以期更好地提高我國的醫(yī)療水平,促進(jìn)人類的健康。
關(guān)鍵詞:醫(yī)學(xué);人工智能;倫理;對策和建議
人工智能的概念在1956年第一次被明確地提出,60多年以來,人工智能技術(shù)已經(jīng)取得了長足的進(jìn)步,它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)[1]。人工智能在很多領(lǐng)域中發(fā)揮重要作用,其中包括醫(yī)療衛(wèi)生領(lǐng)域。醫(yī)學(xué)人工智能的應(yīng)用在給人類的健康管理與疾病診斷帶來極大的便利的同時(shí)也帶來了諸多倫理問題和挑戰(zhàn)。本文通過研究我國醫(yī)學(xué)人工智能的應(yīng)用現(xiàn)狀,分析其存在的倫理問題,并嘗試構(gòu)建我國醫(yī)學(xué)人工智能倫理治理總體框架,提高人工智能技術(shù)在醫(yī)療衛(wèi)生領(lǐng)域中的應(yīng)用水平,促進(jìn)我國衛(wèi)生健康事業(yè)的發(fā)展,提高人類的健康水平。
1我國醫(yī)學(xué)人工智能的應(yīng)用現(xiàn)狀
國務(wù)院《新一代人工智能發(fā)展規(guī)劃》中明確指出要推動智能醫(yī)療發(fā)展,建立精準(zhǔn)智能服務(wù)體系,探索智慧醫(yī)院建設(shè),開發(fā)人機(jī)協(xié)同醫(yī)療機(jī)器人、智能診療助手并加強(qiáng)智能健康和群體智能健康管理[2]。醫(yī)學(xué)人工智能在我國衛(wèi)生健康行業(yè)的應(yīng)用越來越廣泛,目前我國醫(yī)學(xué)人工智能的應(yīng)用主要包括7個(gè)方面:智能臨床輔助診療應(yīng)用、醫(yī)用機(jī)器人、智能公共衛(wèi)生服務(wù)應(yīng)用、智能醫(yī)院管理、智能化醫(yī)學(xué)教育培訓(xùn)、醫(yī)療設(shè)備智能化管理和人工智能輔助藥物研發(fā)[3]。這7個(gè)方面的應(yīng)用涵蓋了各級醫(yī)療衛(wèi)生機(jī)構(gòu),方便了醫(yī)生精確診治的同時(shí)有效地提升了醫(yī)師的診療質(zhì)量和工作效率,使醫(yī)院逐漸向互聯(lián)網(wǎng)化、智能化發(fā)展,大幅度提升了患者的就醫(yī)體驗(yàn)和百姓的滿意度,極大地促進(jìn)了我國醫(yī)療衛(wèi)生領(lǐng)域的發(fā)展。
2醫(yī)學(xué)人工智能應(yīng)用中存在的倫理問題
人工智能改變著人類的日常生活和工作方式,尤其在我國醫(yī)療領(lǐng)域有著廣闊的應(yīng)用前景,促進(jìn)了我國醫(yī)療衛(wèi)生事業(yè)的發(fā)展,但是隨著人工智能技術(shù)的進(jìn)步和發(fā)展一些倫理問題和挑戰(zhàn)也隨之出現(xiàn),下文分析了在我國醫(yī)學(xué)人工智能的應(yīng)用中遇到的或潛在倫理問題。
2.1隱私保護(hù)問題
我們既享受著大數(shù)據(jù)時(shí)代給我們帶來的生活或工作上的各種便利之余,又深受著隱私泄露帶來的困擾。人工智能技術(shù)的應(yīng)用則高度依賴“數(shù)據(jù)”,它們需要從海量、多樣、實(shí)時(shí)及序列的數(shù)據(jù)資源來進(jìn)行訓(xùn)練和學(xué)習(xí)算法,在這一過程中,用戶的很多重要數(shù)據(jù),如身高、體重、血壓、心功能、位置信息、生活習(xí)慣等,都將不可避免地被實(shí)時(shí)地采集和保存。通過挖掘和分析這些簡單的看似是碎片化的個(gè)體資料,人工智能數(shù)據(jù)庫系統(tǒng)就可以自動生成內(nèi)容豐富的個(gè)體“肖像圖”,從而導(dǎo)致使得用戶在不知情況中失去了對自身隱私的控制權(quán)[4]。這些數(shù)據(jù)被醫(yī)院或人工智能產(chǎn)品公司掌握,由于醫(yī)療數(shù)據(jù)本身具有較高的價(jià)值,如果這些信息被販賣給騙子或者其他醫(yī)療機(jī)構(gòu),數(shù)據(jù)主體將面臨著被詐騙或被推銷醫(yī)療產(chǎn)品的風(fēng)險(xiǎn);另一方面,如果這些數(shù)據(jù)因?yàn)楣芾聿划?dāng)或系統(tǒng)漏洞產(chǎn)生泄露,也將會對數(shù)據(jù)主體及其家庭造成嚴(yán)重?fù)p害。
2.2公平性問題
醫(yī)學(xué)智能化的一種重要實(shí)施途徑就是“個(gè)性化”,即向每個(gè)個(gè)體提供各不相同的醫(yī)療衛(wèi)生服務(wù)。目前我國的醫(yī)療人工智能的應(yīng)用主要集中在大型醫(yī)療機(jī)構(gòu),偏遠(yuǎn)地區(qū)或基層診所的患者或居民很難獲得足夠的機(jī)會去享受應(yīng)用這項(xiàng)技術(shù)。另外,由于目前我國醫(yī)療人工智能的研究與發(fā)展還正處于初始和起步時(shí)期,研發(fā)成本高、研發(fā)人才少,導(dǎo)致一些人工智能提供的服務(wù)價(jià)格高昂,只有少數(shù)有錢人可以消費(fèi)得起,這也是我國人工智能醫(yī)學(xué)應(yīng)用可及性和可負(fù)擔(dān)性差的重要原因。難以保證大多數(shù)人受益,保證醫(yī)學(xué)人工智能應(yīng)用的公平性仍需一段漫長的道路[1]。
2.3醫(yī)務(wù)人員的職業(yè)地位弱化問題
智能化系統(tǒng)的應(yīng)用,已經(jīng)大幅度地降低了檢驗(yàn)、病理、影像、手術(shù)等工作負(fù)荷。持續(xù)不斷的智能化將會使越來越多的醫(yī)療衛(wèi)生人員的工作內(nèi)容發(fā)生變化、甚至變得多余,在未來高度智能化的產(chǎn)品可以直接生成檢查結(jié)果和針對患者的治療和建議,自助型的看病體驗(yàn)可能會使醫(yī)生的專業(yè)權(quán)威甚至職業(yè)受到威脅,從而引發(fā)醫(yī)患之間的信任危機(jī)。
2.4醫(yī)務(wù)人員被過度監(jiān)視問題
醫(yī)務(wù)人員監(jiān)督評價(jià)系統(tǒng)可以有效的促進(jìn)醫(yī)務(wù)人員的診療規(guī)范化,提高工作效率,衡量績效,但如果使用不當(dāng),會日益強(qiáng)化醫(yī)療衛(wèi)生人員的“受監(jiān)視”感,進(jìn)而促使他們的日常工作決策與行為發(fā)生相應(yīng)變化,如引發(fā)過度檢查、過度審慎、刻意規(guī)范化等一系列問題,增加醫(yī)務(wù)人員的工作量,過度檢查又會提高患者的就診費(fèi)用。
2.5技術(shù)依賴與成癮問題
一些人工智能產(chǎn)品的應(yīng)用,如醫(yī)用機(jī)器人、醫(yī)學(xué)輔助診療技術(shù)等的應(yīng)用,給醫(yī)生的診斷帶來便利的同時(shí),如果過度使用和依賴,可能會使醫(yī)生產(chǎn)生依賴性,在專業(yè)知識和技術(shù)上產(chǎn)生懈怠;游戲型大眾宣傳與醫(yī)生教育機(jī)器人、聊天型心理治療機(jī)器人等的過度使用有可能引起患者的心理依賴、情感異化、能力退化等一系列問題。
2.6醫(yī)患關(guān)系問題
不斷完善的智能咨詢系統(tǒng)及智能化私人醫(yī)生的應(yīng)用,將慢慢改變現(xiàn)有的醫(yī)患之間存在巨大的“信息不對稱”狀況。這種改變將對醫(yī)患關(guān)系管理及醫(yī)患糾紛的防控產(chǎn)生深遠(yuǎn)影響。智能化、網(wǎng)絡(luò)化系統(tǒng)的日益普及,會允許患者同時(shí)獲得多個(gè)醫(yī)生、多個(gè)智能系統(tǒng)的診療與治療建議。當(dāng)這些診斷與建議經(jīng)常出現(xiàn)相互矛盾時(shí),將降低患者對醫(yī)生的信任感,可能會引起醫(yī)患糾紛[5]。
2.7責(zé)任劃分問題
隨著醫(yī)學(xué)人工智能技術(shù)應(yīng)用的日益廣泛,因技術(shù)濫用或技術(shù)不足以及技術(shù)管制中的疏忽而導(dǎo)致患者或居民健康與生命安全問題的機(jī)率也會相應(yīng)增加。中間過程幾乎是“暗箱”的“神經(jīng)網(wǎng)絡(luò)”的技術(shù)一旦出現(xiàn)偏差往往很難發(fā)現(xiàn)。基于云端或者互聯(lián)網(wǎng)的人工智能平臺很易受到非法入侵和控制,從而做出對人類有害的事情。過時(shí)或不適宜的證據(jù)與規(guī)則的應(yīng)用在新環(huán)境中的錯誤應(yīng)用會給出錯誤的診療建議,從而有損人類的健康與安全。當(dāng)有機(jī)器人深度參與的醫(yī)療衛(wèi)生服務(wù)若出現(xiàn)事故,又該如何界定衛(wèi)生人員、機(jī)器及廠商等的責(zé)任?這一點(diǎn)在我國法律上還沒有明確的規(guī)定。
3對策和建議
近些年,人工智能等前沿技術(shù)逐漸應(yīng)用到醫(yī)學(xué)的方方面面,推動了新時(shí)代新型醫(yī)學(xué)得誕生和演變,同樣也賦予了傳統(tǒng)醫(yī)學(xué)新的理念、新的內(nèi)涵、新的范圍、新的診療手段與康復(fù)模式。這些無論對醫(yī)生和患者,都帶來了深遠(yuǎn)的影響,已經(jīng)逐漸成為時(shí)代和社會發(fā)展的一種必然趨勢。在無法逆轉(zhuǎn)社會發(fā)展潮流時(shí),必須正確處理醫(yī)學(xué)人工智能技術(shù)在應(yīng)用中所帶來的倫理問題,推動醫(yī)學(xué)人工智能技術(shù)健康有序的發(fā)展。一些地區(qū)在人工智能倫理治理上已有所嘗試,歐盟在2019年提出“可信任的AI倫理準(zhǔn)則”,即尊重人類自主原則、預(yù)防傷害原則、公平性原則、可解釋性原則[6]。中國臺灣在2019年《人工智能科研發(fā)展指引》,提出3個(gè)AI應(yīng)遵從的核心價(jià)值:以人為本、永續(xù)發(fā)展、多元包容;還有八項(xiàng)核心指引:共榮共利、公平性與非歧視性、自主權(quán)與控制權(quán)、安全性、個(gè)人隱私與數(shù)據(jù)治理、透明性與可追溯性、可解釋性、問責(zé)與溝通[7]。本文參考以上準(zhǔn)則,從理念、研發(fā)、應(yīng)用、監(jiān)管4個(gè)方面提出對策和建議,確保醫(yī)學(xué)人工智能在全生命周期內(nèi)安全、穩(wěn)健、合法且符合倫理地運(yùn)行。
3.1“以人為本”的理念
醫(yī)學(xué)倫理學(xué)的三大基本原則為病人利益第一、尊重病人、公正。在醫(yī)學(xué)人工智能的應(yīng)用中,必須要遵循倫理學(xué)的基本原則[8],醫(yī)學(xué)人工智能產(chǎn)品是為人類的健康服務(wù),在產(chǎn)品的開發(fā)、應(yīng)用等全生命周期都應(yīng)該貫徹“以人為本”的理念。以病人的需求為出發(fā)點(diǎn),在應(yīng)用人工智能的診療過程中充分尊重病人的各項(xiàng)權(quán)利和意愿。
3.2技術(shù)穩(wěn)健性和安全
一方面,制定產(chǎn)品和服務(wù)的研發(fā)標(biāo)準(zhǔn)和規(guī)范。在產(chǎn)品的研發(fā)過程中,將醫(yī)學(xué)倫理學(xué)原則和法律準(zhǔn)則“嵌入”到人工智能“算法”中,并事先對醫(yī)學(xué)人工智能產(chǎn)品的實(shí)際應(yīng)用場景、行為特點(diǎn)等進(jìn)行道德風(fēng)險(xiǎn)評估,在前期進(jìn)行道德防控[9];另一方面,嚴(yán)格保護(hù)系統(tǒng),防止漏洞和黑客惡意攻擊,制定和測試安全措施以最大程度地減少意外后果和錯誤,并在系統(tǒng)出現(xiàn)問題時(shí)制定可執(zhí)行的備份計(jì)劃。
3.3公平和透明性
醫(yī)療人工智能技術(shù)產(chǎn)品的部署和運(yùn)行既要始終堅(jiān)持其實(shí)質(zhì)性的公平又必須能夠保證流程的公平,應(yīng)該能夠確保其利益與成本之間的平等分配、個(gè)體和群體不被歧視或受偏見。同時(shí),醫(yī)學(xué)人工智能技術(shù)產(chǎn)品的各種功能與目的必須嚴(yán)格地保證信息公開透明,特別是在醫(yī)學(xué)人工智能產(chǎn)品還處于臨床試驗(yàn)階段時(shí),患者應(yīng)具有知情同意權(quán),患者有權(quán)利知道醫(yī)學(xué)人工智能產(chǎn)品的精確度和局限性。
3.4隱私和數(shù)據(jù)保護(hù)
在醫(yī)學(xué)人工智能產(chǎn)品的研發(fā)、應(yīng)用、銷毀等全流程都要嚴(yán)格保護(hù)用戶的數(shù)據(jù)和隱私,確保收集到的信息不被非法利用。應(yīng)當(dāng)從法律層面清晰地明確個(gè)人對于其信息所擁有的各種基本權(quán)利,規(guī)范企業(yè)在網(wǎng)絡(luò)上搜索、和使用個(gè)人信息等的行為。因此,目前我國醫(yī)療人工智能的應(yīng)用仍然急需政府部門制定一系列的安全性標(biāo)準(zhǔn)和完善相應(yīng)的法律、法規(guī),以便于保護(hù)病人的信息隱私,在任何一個(gè)環(huán)節(jié)都要嚴(yán)格保護(hù)、嚴(yán)防泄露。諸如所有涉及接觸到訪問、傳遞和存放受保護(hù)病人信息的專業(yè)技術(shù)人員和單位都應(yīng)被限制在政府部門制定的相應(yīng)安全性規(guī)范內(nèi)。
3.5有效監(jiān)管
建立醫(yī)學(xué)人工智能技術(shù)倫理與法律風(fēng)險(xiǎn)審查體系。包括區(qū)域性(中央、省、地三級)及規(guī)模較大醫(yī)療衛(wèi)生機(jī)構(gòu)內(nèi)的“審查委員會”,以分別負(fù)責(zé)所在地區(qū)或機(jī)構(gòu)的醫(yī)學(xué)人工智能項(xiàng)目的倫理與法律風(fēng)險(xiǎn)的審查。強(qiáng)調(diào)“委員會”成員的合理組合,發(fā)揮人工智能學(xué)科專家、醫(yī)學(xué)專家、哲學(xué)倫理專家、法律專家、社會學(xué)專家的協(xié)同作用。人工智能在現(xiàn)代醫(yī)學(xué)技術(shù)中得到快速的應(yīng)用和發(fā)展,極大地促進(jìn)了我國現(xiàn)代醫(yī)療衛(wèi)生事業(yè)的繁榮與發(fā)展,這已經(jīng)成為一個(gè)時(shí)代和社會發(fā)展的必然趨勢[10],必須重視醫(yī)學(xué)人工智能發(fā)展中帶來的倫理問題和挑戰(zhàn),在醫(yī)學(xué)人工智能產(chǎn)品的開發(fā)、應(yīng)用等過程中秉承以人為本的理念,保證產(chǎn)品的安全性和技術(shù)穩(wěn)健性,遵循公開透明的原則,注重隱私和數(shù)據(jù)保護(hù),建立相關(guān)審查體系,實(shí)現(xiàn)有效監(jiān)管,讓人類更多地享受技術(shù)的進(jìn)步帶來的便利,進(jìn)而提高全人類的健康水平。
參考文獻(xiàn):
[1]王姍姍,翟曉梅.人工智能醫(yī)學(xué)應(yīng)用的倫理問題[J].中國醫(yī)學(xué)倫理學(xué),2019,32(8):972-976.
[2]國務(wù)院.關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知[EB/OL].(2017-07-08).
[3]戈晶晶.5G賦能智慧醫(yī)療[J].中國信息界,2019(4):51-53.
[4]徐銳.論我國人工智能的倫理規(guī)范建設(shè)[J].嶺南學(xué)刊,2019(1):111-117.
[5]董星宇,陳敏.醫(yī)療人工智能發(fā)展存在的問題及對策[J].醫(yī)學(xué)與社會,2019,32(5):80-82.
[6]蔡甫昌,胡嘉輝.人工智能醫(yī)療應(yīng)用與倫理準(zhǔn)則[J].澄清醫(yī)護(hù)管理雜志,2020,16(2):4-8.
[7]李姿瑩.2019年歐盟人工智能倫理準(zhǔn)則協(xié)助產(chǎn)業(yè)建立值得信賴的數(shù)字轉(zhuǎn)型架構(gòu)[J].電工通訊季刊,2019(2):98-99.
[8]盧霄雯.醫(yī)患關(guān)系管理中的問題及對策研究[D].濟(jì)南:山東大學(xué),2015.
[9]范敏,管琳.人工智能技術(shù)在互聯(lián)網(wǎng)金融中的應(yīng)用及安全風(fēng)險(xiǎn)探析[J].山東農(nóng)業(yè)工程學(xué)院學(xué)報(bào),2018,35(3):56-59.
[10]安睿.人工智能的應(yīng)用領(lǐng)域及其未來展望[J].科技經(jīng)濟(jì)導(dǎo)刊,2017(29):15.
作者: 肖志敏 單位:安徽醫(yī)科大學(xué)衛(wèi)生管理學(xué)院
醫(yī)學(xué)護(hù)理 醫(yī)學(xué)思政教育 醫(yī)學(xué)期刊 醫(yī)學(xué) 醫(yī)學(xué)人文精神案例 醫(yī)學(xué)文獻(xiàn)論文 醫(yī)學(xué)教育 醫(yī)學(xué)心理學(xué) 醫(yī)學(xué)科普教育 醫(yī)學(xué)發(fā)展論文 紀(jì)律教育問題 新時(shí)代教育價(jià)值觀