【关键词】医疗人工智能;法律地位;侵权责任
引言
随着科技的进步,医疗人工智能正在日益广泛、深入地应用于医疗服务领域,其在诊断、治疗等方面展现出了巨大潜力。然而,医疗人工智能的应用也引发了侵权责任归属的新问题,这对现有的法律体系提出了一定挑战。本文旨在深入探讨医疗人工智能在侵权责任方面的法律问题,通过分析医疗人工智能侵权的现状、法律困境及完善路径,为构建适应新时代要求的医疗人工智能侵权责任制度提供参考,以期在保障患者权益的同时,推动医疗人工智能技术的健康有序发展。
一、医疗人工智能及其立法现状
(一)医疗人工智能的界定
1956年的达特茅斯会议上,麦卡锡、罗切斯特等专家首次提出了“人工智能”这一术语[1]。随着医疗人工智能的研究发展,有学者认为,医疗人工智能即以人工智能为技术手段,在数字医疗的基础上,提供精确医疗服务的人工智能[2]。
人工智能医疗对传统医疗和传统法律产生了巨大的冲击,法学界也在积极思考和回应其引发的法律问题。
(二)医疗人工智能的立法规制
目前,医疗人工智能尚处于初级的开发和应用阶段,国内外对于医疗人工智能乃至人工智能的法律规制都尚处于探索阶段。
1.域外立法
欧盟在人工智能相关法律制定方面一直走在世界前列,早在2017年出台的《欧洲机器人技术民事法律规则》里,就大胆设想人工智能可取得法律人格[3]。2024年3月,欧洲议会正式通过欧盟《人工智能法案》,与2022年欧盟《关于缺陷产品责任的指令的提案》结合起来,对人工智能产品存在缺陷并致害的侵权责任进行规制。
2.中国立法
近年来,我国关于医疗人工智能的行政法规、部门规章和地方性法规数量不断增多,医疗人工智能技术的应用逐步被纳入规范化管理。从更高层次立法进程看,《人工智能法(草案)》被纳入《国务院2023年度立法工作计划》,并于2024年再次确认,标志着我国人工智能立法正式迈入人大立法的新阶段。
二、医疗人工智能侵权认定困境
(一)医疗人工智能侵权责任主体不明确
由于人工智能产品使用过程中的复杂性,人工智能侵权的责任主体一直存在较大争议。2015年英国发生了首例达芬奇机器人致死案件,该案最终认定了医务方对于事故的影响,从而以医疗损害责任的形式结案。但是,假使主刀医生当时尽到了其应尽的责任,那么病人的死亡结果又应该由谁负责?是达芬奇机器人的设计者、生产者、销售者,还是所有者呢?与传统的医疗侵害不同,人工智能的介入使得医疗过错的界定变得更为困难。在这种情形下,由于机器本身目前不能独立承担法律责任,医疗人工智能又存在“人机混合”的属性,若抛开机器自身存在缺陷的可能性而仅由医方承担责任的话,实在有失偏颇。
(二)“技术黑箱”阻碍侵权责任认定
医疗人工智能软件和算法缺陷的隐蔽性形成“技术黑箱”,使得作为“局外人”的我们无法知晓人工智能产品本身具体的运算过程,而只能知道其最终的演绎结果,这极易导致推理与演绎过程出现逻辑断链,从而难以认定因果关系。按照我国民事诉讼法确立的“谁主张,谁举证”原则,患者作为原告方,需证明医疗人工智能软件和算法存在缺陷、造成损害以及两者之间存在因果关系,承担较高的举证责任,造成“专业者不举证,举证者不专业”的局面。
(三)侵权责任性质认定不明确
在医疗人工智能侵权的问题上,我国立法尚未作出相应的规定,司法实践通常将此类案件纳入现行侵权法律框架。
