自从谷歌推出的人工智能(AI)“alphago”连续战胜世界最顶尖围棋高手柯洁、李世石等之后,具有深度学习功能的AI如同核当量级爆炸一般在产业界、资本界引发巨澜。最近半年以来,“人工智能+某某”频出媒体:人工智能+医疗,人工智能+法律,人工智能+会计,人工智能+教育……,以上尤以人工智能+医疗最为引人注目,谷歌在停止开发人工智能围棋项目之后,率先进入的领域也是医疗领域。
医疗领域最易开展人工智能应用的是图像分析。图像分析在医疗诊断中有特殊地位,许多疾病的诊断依靠图像,如皮肤病图谱,眼底病图谱,病理显微图片,X线、CT、MRI、B超成像,心电图,等等。现有图像数据分析的分辨力可以达到0.01mm,与医疗图像的肉眼分辨水准相当,如果结合人工智能的深度学习功能,以机器代替人类进行图像的医学诊断不是没有可能。
据最近的几篇文章披露,人工智能在特定疾病的图像诊断如肺结节的CT诊断、甲状腺癌乳腺癌的病理诊断、单导联的心律失常心电图诊断等方面,已经达到或接近一名普通主治医生的诊断水平。需要注意的是,具有深度学习功能的人工智能的基本特征是自我学习,也就是只要通过人工标注教会了电脑识别特征性标志的能力,当基础数据达到一定程度比如100万张图谱时,电脑可以脱离人类而不断自我学习、自我否定,无限接近正确水平。所谓自我学习,亦即电脑可以自我创造海量的新的疾病图谱,这种创造可能达到每天数百万张图谱,比如可以创造出现有疾病图谱库里不曾有过的肺结节CT图像,然后对照既往的图像数据而进行自我诊断、自我修正,这种自我创造、自我修正能力当然有利于疾病的诊断。
不排除,AI在自我学习中创造出来的某一张肺结节CT图像恰好符合未来某一个病人的肺CT特征,并提前作出诊断,也就是未卜先知。未卜先知,我不知道人类能否做到,但至少在某些领域,电脑可以做到。这其中的哲学玄机,偏离了本文主题,我无意再深究下去。
获得学习能力的AI,其诊断水平可以在短时间内光速提高,现有临床规培、专培的培养速度与之完全不能比拟。AI系根据概率而作出诊断,比如某个肺结节CT图像符合中央型肺癌的概率达到90%即诊断为肺癌,某个心电图图谱符合预激综合征的概率达到99%而诊断为预激综合征,或者某个图谱不具有任何现有疾病特征而从概率上排除疾病而诊断为无明显异常或符合正常。这种依据概率作出的诊断符合一般临床医学规律,临床影像医生的诊断往往也描述为“印象是……”,“考虑为……”,“符合……”,“”……病的可能性大“,这其实亦是一种概率,只不过是人为估算、心证的概率,因此AI的诊断达到一定标准时,完全可以、也应当替代医生的诊断,否则开发人工智能诊断失去价值。
既然AI诊断是一种医学诊断,可直接代替医生应用于临床,则直接影响病人的生命健康,因此法律规制殊显重要。作为一名医疗诉讼专业律师,我认为考察AI诊断的法律原则时,至少应包括以下四个问题:
一 做出AI诊断的主体在法律上是人(医生)还是物(医疗器械)?
二 AI诊断进入临床应用的法律标准是什么?
三 AI诊断出现缺陷或医疗过失的判断依据是什么?
四 AI诊断发生医疗损害,谁应承担法律责任?
其中第一个问题最基本也最重要,因为在法律上明确了AI诊断的主体身份时,其他的如AI诊断的准入条件、缺陷或过失标准、法律责任等等均迎刃而解;又AI诊断只是AI在医学上的应用之一,弄清了AI诊断的法律原则,其他医学应用也触类旁通,纲举而目张。
一、AI诊断的法律主体是人(医生)还是物(医疗器械)?
--既是人也是物
AI是人还是物? 这是一个非常深奥的哲学问题,恐怕穷尽人类现有智慧也难以回答这个问题。如说是物,可是AI又具有其他物包括高等动物所不具备的智能功能;如说是人,可是AI不过是一堆人类制造的电子或者量子元器件,即使将来出现以DNA等生物分子作元器件的AI,亦不过是一堆人为的物质聚合体,目前没有任何证据证明除人类之外,其他人为的无机、有机复杂聚合体达到一定的复杂性时能够产生智慧。
为什么对AI的定义如此困难?依我看根本原因在人类自己,人类不知何时,将世界二分成人与物或者身与心,此二分法将人、物对立,身、心对立,在法律上更是有人格权法、物权法,以及人、物相混的合同法。倘若人类智慧更进一步,认识到人、物不能分,身、心不能分,人即是物,物即是人,身即是心,心即是身,则对AI的认识不至如此困惑:AI既是人,也是物;或者一定条件下是人,一定条件是物。我相信,随着人工智能的迅猛发展,必将改变人类对人自身的根本认识,包括对肉体、对意识的根本认识,很多我们习以为常的观念将出现颠覆性改变。
所以,我的建议,现有法律可以视AI既是人,又是物;或者在一定条件下视AI为人,一定条件下视AI为物。何为一定条件,端看AI的具体应用场景。其实在生物医学领域,法律上视某种实体既是人、又是物的情况并不鲜见,比如体外受精卵,离体的待移植的有功能的器官等,将之简单定性为物不妥,将之简单定性为人也不妥,只能在一定法律条件下定性为物,在另一法律条件下又定性为人,方能在法律上圆润妥帖。下面再回到本文主题--人工智能诊断。
首先,人工智能诊断不同于X光机、CT仪、心电图机等医疗仪器所打印出来的一张张胶片或图纸(这些胶片、图纸离了医生的分析与诊断,并无任何医疗上的价值),而是实实在在的具有医疗价值的诊断结论,这些诊断结论是经由AI分析医疗大数据,经由归纳、演绎等逻辑推理(深度学习算法)而得出的,实际相当于一名有经验的医生运用医学知识、逻辑分析而得出的结论。AI的诊断实质等同于医生的诊断,可直接用于判断疾病性质而指导治疗;同样,AI的误诊相当于医生的误诊,比如AI将某一个肺CT结节诊断为肺癌,然后医生按肺癌进行了手术,可是术后病理显示(注意,这个术后病理亦可用AI诊断)患者所患并非肺癌而是良性结节,显然AI发生了误诊,此等误诊并非机器读写错误或机械误差,而是对疾病性质的智能判断出现了错误,这个错误相当于诊断医生的错误。
因此人工智能诊断的主体在法律上首先应视为一个人或一个医生作出的诊断,应以类似医生的资质要求而要求其准入条件,当其作出误诊时应以诊疗常规、规范而判断其是否存在医疗过失。当然鉴于人工智能诊断的设计有其特殊性,其具体的准入条件、过失判断标准亦有其特殊性,下文再述。
其次,人工智能诊断毕竟是由机器作出的诊断,这个机器所使用的诊断系统、算法是由人设计的,受人所控制,尽管其在一定条件下能够脱离人的控制而自我学习、自我提高,但这个能够自我学习、自我提高的基础能力仍是由人所赋予的,因此人工智能诊断的主体在法律上亦应视为物即医疗仪器作出的诊断,有关医疗仪器的法律适用于人工智能,比如《医疗器械管理条例》所规定的临床试验、注册制度,比如《产品质量法》关于产品安全的规定、产品缺陷的定义、产品责任的规定等等都应适用于人工智能诊断设备。
二、AI诊断进入临床应用的法律标准是什么?
--最佳医疗水平标准
如前文分析,AI诊断的法律主体既是人(医生),也是物(医疗器械),因此其进入临床应用的法律标准应当分别适用人即医生的标准和物即医疗器械的标准。
医疗卫生法立关于医生的准入资格包括医生的一般准入资格和特定学科的准入资格得适用于AI。一般准入资格是指凡以医生身份执业者,均应经国家统一考核取得医师资格证,并应经临床实践而注册取得医师执业证,根据2017年4月1日最新之《医师注册管理办法》的规定,我国医师执业证采省级行政区划制度,凡经注册取得执业资格的医师,在注册所在省级行政区划范围内准予执业,欲跨省执业者,需再申请外省注册;特定学科的准入资格是指对于医疗技术要求高的少数学科如器官移植、心脏介入、神经外科等,应当通过该等学科的特别考核方能取得执业资格。
当AI诊断视为医生作出的诊断而拟进入临床应用时,其诊断水平应当达到医生的一般准入资格和特定学科的准入资格所要求的水平是没有任何疑义的。但这远远不够,因为AI诊断有以下三个显着特点,是作为自然人的医生所不具备的:
1、AI诊断是在采集现有医疗大数据,并结合深度学习的算法而获得的智能诊断。理论上,AI采集的医疗大数据越多,算法越接近最高水平的医生,则其诊断正确的概率越高,理论上AI诊断正确的概率可以超过其所获得的医疗大数据的诊断正确率。而获得更多的医疗大数据,最大可能地吸收最高水平医生的诊断技术,以达到或超越当时的最高诊断水平,是任何一个AI的市场竞争要求,也是商业伦理的内在要求。
2、AI诊断的算法决定了其具有自我学习、自我提高的基本能力,这种能力使得AI可以迅速提高诊断水平,结合第1点,AI达到或超越当时或当地最高医疗水平不是难事。
3、最重要的一点,AI诊断系自动化的智能诊断,其诊断效率可能是人工的数百万倍乃至无限倍,比如自然人医生一天只能阅片数十张,而AI可能达到数百万张,效率无限增加时,误诊的绝对数也无限放大。假如AI存在BUG,这个BUG可能造成误诊,则由于AI诊断的放大效应,误诊在人群中的后果是灾难性的。
综合以上3点,我认为,对AI诊断的技术准入要求应当采最高医疗水平标准。鉴于AI的诊断水平是以自然人医生的诊断水平作为对比的,AI诊断的医疗水平术不应低于当时医生的最高医疗水平。中国《侵权责任法》”医疗损害赔偿“章第57条规定医务人员的注意义务以”当时的医疗水平“为限:”医务人员在诊疗活动中未尽到与当时的医疗水平相应的诊疗义务,造成患者损害的,医疗机构应当承担赔偿责任。“这里所谓”当时的医疗水平“是指与医生的职称相应的平均医疗水平,AI显然改变了这一标准。
何为当时的最高医疗水平?法律或技术上如何界定?两种方法:
1、具体标准或概率标准。鉴于医生的医疗水平取决于各种主客观条件,现实中难以找到一个从不出错、代表最高水平的医生,即使是水平最高的医生,也只能说他的诊断正确率最高,因此判断AI是否达到当时的最高医疗水平时,亦应以概率作为判断标准,比如法律可以规定,当AI的诊断正确率超过99%或更高的医生时,可以认为AI达到了当时的最高医疗水平,可以获准上市。鉴于我国的医师采省级行政区划注册制,可以规定,向省级医药行政部门申请上市的AI,其AI的诊断水平应当超过该省99%或更高的相应学科的医生水平;向国家医药监督部门申请上市的AI,其诊断水平应当超过全国99%或更高的相应学科的医生水平。alphago的胜率甚至达到了对全部世界冠军的100%。
2、抽象标准或者异议标准。鉴于AI是以现有医生的诊疗技术作为其算法基础的,而现有医生的诊疗技术处于变动不居中,随时可能获得突破性进步;又,AI上市时,即使达到99%的正确率,亦难以排除其存难以预测的缺陷,故应当建立AI上市后的异议制度,即AI上市后,任何一名医生或医疗机构,如果认为其诊疗水平超过AI,可以向国家医药监督部门提出书面异议,如果其提出的数据能够初步证明其观点,国家应当启动异议程序,异议成立时,国家应当暂停该AI上市或退市,并应当考虑提高AI准入的概率标准,比如提高到99.9%。这一制度类似于商标或专利上市后的无效宣告制度。
当AI诊断的法律主体视为医疗器械时,其应当遵守国家关于医疗器械的准入制度,包括临床试验、器械注册、上市许可等。惟这里的临床试验是以病人为对象的,当对病人的临床试验达到相当程度的诊断正确率时,其仍不一定符合上市标准,因为如前文所述,AI诊断首先应视为一名医生的诊断,其应与同类医师对比,在法律上达到当时的最高医疗水平。
三、AI诊断出现缺陷或医疗过失的判断依据是什么?
将AI视为一个人时,其出现的诊断错误可以称之为医疗过失,因为只有人才会产生过失;将AI视为一个仪器时,其出现的诊断错误可以称之为缺陷或产品缺陷,因为仪器或产品不具有意识不能产生过失,只能称为缺陷。那么法律上如何判断AI出现的过失或缺陷呢?
就医疗过失而言,现行《侵权责任法》规定了两种判断标准,一是具体标准,即第58条第一款所规定的,违反法律、行政法规、规章以及其他诊疗规范的,推定医生存在过失;二是抽象标准,即第57条所规定的,当医生未尽到与当时的医疗水平相应的诊疗义务时,应当认定医生存在过失。对AI出现的诊断错误能够适用这两个法律判断标准么?
我认为,不能。其一,AI是以医疗大数据为基础,运用计算机的深度学算法而作出诊断的,不是如医生一般系通过运用诊疗常规、规范而得出诊断结论的,因此即使其出现诊断错误,也不可能通过考察其是否违反诊疗常规、规范而得出过失与否的结论;其二,AI的准入资格决定了其是以概率计算的、以当时的最高医疗水平为标准的,故不能以”与当时的医疗水平相应的诊疗义务“作为判断依据。
当AI因未能达到当时的最高医疗水平而出现诊断错误时,这既是AI的一种医疗过失,更是AI产品的设计或算法缺陷,此时基于人的过失和基于产品的缺陷合二为一了,在法律上可以适用同一标准而判断之,最好的标准便是产品缺陷标准。
但是必须注意到,临床上的误诊是非常常见的,并非所有的误诊都需要承担法律责任,甚至可以说绝大多数误诊都无需承担责任,只有违反诊疗常规、规范或者未尽到与当时的医疗水平相应的诊疗义务的误诊才构成过失,才有可能承担法律责任。AI诊断亦是一样,如果AI达到准入条件,其诊断水平超过99%医生的医疗水平,其仍然发生了误诊并导至患者损害,此种损害是法律允许的,不产生过失或缺陷、不产生法律责任,除非能够证明该种误诊是因为AI的设计或算法出现缺陷而产生,此时适用产品缺陷的判断标准。
产品缺陷的判断标准适用《产品质量法》,第46条规定:本法所称缺陷,是指产品存在危及人身、他人财产安全的不合理危险;产品有保障人体健康和人身、财产安全的国家标准、行业标准的,是指不符合该标准。
该法第41条还规定:生产者能够证明存在以下情形的,不承担赔偿责任:一)未将产品投入流通的;(二)投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。
四、AI诊断发生医疗损害,谁应承担法律责任?
当国家准予AI诊断应用于临床时,则医生对AI的诊断产生信赖利益,如因AI的诊断错误导至后续的治疗错误而产生医疗损害时,不应由医生或医疗机构承担法律责任,而应由AI的产品责任人承担法律责任。当然受害人可以依据《侵权责任法》或《产品质量法》的规定而起诉AI的使用者--医疗机构或医生,但承担责任的医疗机构或医生有权向AI的产品责任人追偿。
AI的产品责任人一般就是AI的生产者或设计人,具体可依据对AI产品缺陷的的分析而确定,谁对产品缺陷负责,谁就是最终的法律责任人。
文章来源:小桔灯网
{replyUser1} 回复 {replyUser2}:{content}