医疗人工智能面临四方面的主要法律问题

文章正文
发布时间:2024-07-12 18:40

  2021年4月24日,国家卫生健康委员会医院管理研究所、《中国数字医学》杂志社、社会科学文献出版社共同发布了《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》。

  医疗人工智能面临的法律问题,其核心或者出发点是对大数据与核心算法的规制。因为大数据与核心算法是医疗人工智能的灵魂与表现形式。然后确立规制医疗人工智能的基本原则。医疗人工智能基本原则是安全、有益、平等,最终目的是以人为本。还有一个问题是医疗人工智能的知识产权问题。在确定了出发点与最终目的之后,就从以下几个方面进行规制。

1. 是否可以确立医疗人工智能(或者“机器人医生”)的法律人格

  医疗人工智能的法律人格问题可以分为两个层面:一个是是否必须确定医疗人工智能法律人格的问题;另一个是如何确立医疗人工智能的法律人格的问题。人工智能通过深度学习,逐渐呈现出一些“自主性”的特征。“机器人是人吗?”这个问题变得越来越重要。因为人工智能的民事主体身份的确认是明确其法律行为、法律责任、归责原则等问题的基础。在传统的民法体系中,民事主体有自然人、法人、非法人组织、国家与国际组织。深度学习的强人工智能是否可以被赋予有限的民事能力,是否能以“机器人”的名义位列民事主体是一个重大的法律问题。

2. 如何设定医疗人工智能的诊疗规则

  法律是以国家名义颁布的、以权利义务为内容的、以国家强制力保障的主体的行为规范。无论是设定医疗人工智能的民事主体身份,还是把医疗人工智能当作医生的医疗辅助手段,都必须有相关的法律文件对医疗人工智能的诊疗行为进行规制,例如,关于机器人手术的相关法规,2012年,国家卫计委印发的《机器人手术系统辅助实施心脏手术技术规范(2012年版)》和《机器人手术系统辅助实施心脏手术技术培训管理规范(2012年版)》。但实际上,手术机器人不仅做心脏手术,还做脑部、胸部、腹部、四肢等多部位手术,但其他的相关法律法规的设立还在摸索初期,国际公认的手术机器人标准也尚未形成。

3. 法律责任归责原则与承担方式

  医疗人工智能导致医疗损害的责任认定要从两个层面去进行法律架构:一个是法律责任的归责原则;另一个是法律责任的承担方式。医疗人工智能有可能因硬件故障、程序漏洞、深度学习后的自主性等引发医疗事故,例如,在英国2015年首例“达·芬奇”手术机器人心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。我国《侵权责任法》规定:“责任医师或医疗机构对患者在医疗服务中所受的损害有过错的,医疗机构应承担赔偿责任。医疗器械产品缺陷导致的医疗损害,由医疗机构和生产者承担连带赔偿责任,适用无过错责任原则。”很显然,《侵权责任法》考虑到了由医疗器械导致的损害的责任承担问题。但是在由具有自主性、独立性和拟人性的医疗人工智能导致的医疗损害的案件中,谁是责任主体、应用什么归责原则,却是一个新问题。

  4. 风险防范问题

  (1)隐私风险

  患者个人的医疗数据包括个人基本信息,比如姓名、年龄、性别、住所、籍贯、工作单位、联系方式等,还包括身体指标、既往病史、诊疗记录、生物基因信息等健康信息。这些相关的隐私信息如何收集,如何储存,如何使用,如何在保障患者知情权的情况下,合法获取患者的疾病信息都是重要的法律问题。

  (2)数据安全

  医疗人工智能的深度学习需要收集并分析海量的数据资源。而这些数据资源关系到国计民生,甚至国家战略决策,一旦泄露后果不堪设想,例如,2015年我国深圳某基因科技服务有限公司、某医院与英国牛津大学开展合作研究,研究中国人类遗传资源。在合作过程中,中国公司把人类遗传资源信息通过网络传递到国外,且没有经过相关部门的批准与许可,因此收到科技部的行政处罚书。2016年,英国伦敦皇家自由医院为了研究肾脏医疗新方法,约160万名患者的相关信息被该医院交给“深度思维”公司,因为侵犯患者隐私,侵犯患者知情同意权,“深度思维”公司数据来源的合法性和正当性受到质疑,同时皇家自由医院也因传递患者信息这一行为被英国信息委员会要求整改。因此如何充分利用大数据以供人工智能的深度学习同时保护好大数据安全也是一个期待解决的法律问题。

  (3)医疗人工智能深度学习后的“自主性”导致的风险

  上海交通大学江晓原教授认为人工智能的发展的会对人类造成远期、中期、近期的三大威胁。“近期威胁是大规模失业与人工智能的军事化应用。中期威胁是人工智能的失控与反叛。远期威胁是至善全能的人工智能消解人类的生存意义。”人工智能通过大数据的喂养与“自主性”地深度学习,成为各个领域的实际控制者。民众不知不觉地被无形的、强大的算法技术管控与统治,无法抗拒。如被算法控制的打车平台、自动驾驶与导航系统、银行对个人或者企业的信任风险评估体系、互联网的广告分发系统、媒体软件的内容推送系统、犯罪预警系统、股票与基金模型等,其中一些具有偏见与歧视的算法被数据科学家称为“数学毁灭武器”。尤其是人工智能的反叛与失控可能会给人类带来毁灭性的打击,因此如何防范人工智能深度学习后的“自主性”导致的风险是一个极其重要的法律问题。

  (4)伦理风险

  人工智能有可能因为设计者的偏见与歧视,或者经过深度学习后习得了偏见与歧视,这种有意或者无意的偏见与歧视会导致不公平,或者对某些特定群体不利。因此我们要防止技术的滥用和异化,尽量避免歧视与偏见,避免损害生命体的尊严。在真实世界中,昂贵的医疗人工智能诊疗新技术的应用有可能侵犯贫困患者平等的生命健康权利;优生优育计算软件有可能剥夺某些缺陷胎儿的生存权利;利用医疗数据软件指导开发的某些药物与医疗器械有可能不利于某些特定人群、种族、性别等。算法的不透明,有可能严重影响消费者利益,甚至有可能通过辅助决策与执行影响公共政策。当然还有战争机器人的伦理问题等。

  (参见《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》p127-131,社会科学文献出版社2020年12月)

首页
评论
分享
Top