提示: 手机请竖屏浏览!

在医疗领域实施机器学习——解决伦理学挑战
Implementing Machine Learning in Health Care — Addressing Ethical Challenges


Danton S. Char ... 其他 • 2018.03.15
相关阅读
• 预测未来——大数据、机器学习与临床医学 • 机器学习与医学预测——跨越过度期望的顶峰之后

机器学习时代的医疗歧视、隐私和利益冲突

 

张翼

领星生物科技有限公司

 

最近,机器学习在医学领域的应用经常成为科技新闻的焦点:《自然·神经生物学》发表的普林斯顿大学的一项研究,使用机器学习方法发现了数百个与自闭症风险相关的候选基因1;谷歌开发了一种深度学习算法来帮助医生检测乳腺癌转移病灶病理图像上的肿瘤,算法检出肿瘤的准确率已经超过了病理学医生2。而在中国,腾讯发布了一款AI医学影像产品——腾讯觅影,用于食管癌、肺癌、糖尿病性视网膜病变三个病种的筛查,该产品已经进入临床预试验;科大讯飞与清华大学联合研发的“智医助理”人工智能辅助诊疗系统开始在合肥庐阳区“实习”,辅助基层全科医生完成大量诊疗工作。

查看更多

将机器学习融入临床医学中有望显著改善医疗服务。私人公司正在争先恐后地将机器学习融入医疗决策中,同时寻求为医生提供支持的工具,以及旨在独立于医生运作的算法。医生-研究人员预测,熟悉用于分析大数据的机器学习工具将成为下一代医生的基本要求,并且算法可能很快在涉及对图像进行仔细研究的领域中与医生竞争或取代医生,例如放射学和解剖病理学1

但是,如果要实现这些优点,就必须考虑在医疗领域应用机器学习所固有的伦理学挑战。一些伦理学挑战是直截了当的,需要加以防范,例如担心算法会反映人类在决策过程中的偏见。其他挑战,例如算法成为集体医学思想储存库的可能性,没有那么明显的风险,但却会引发更广泛的伦理问题。

在非医学领域引入的算法已经被证明可以做出有问题的决策,反映出用于训练算法的数据中固有的偏倚。例如,有的程序旨在通过预测罪犯的累犯风险来协助法官量刑,而这些程序显示出种族歧视这一令人不安的倾向2

类似的种族偏见可能会被不经意地纳入医疗算法。医疗服务已经因种族而异。如果在某些人群中很少有(或没有)遗传研究,那么设计用于根据遗传检测结果预测结局的算法将会有偏差。例如,试图利用弗雷明汉心脏研究(Framingham Heart Study)的数据来预测非白种人人群中心血管事件的风险,导致了有偏倚的结果,包括高估和低估风险3

医疗服务中固有的隐性歧视可能更难预料;因此,防止算法学习并纳入这类偏倚可能会更困难。临床医生在分配稀缺资源(例如移植器官)时已经考虑到神经发育迟缓和某些遗传检测结果。这样的考虑可能会导致自我强化的预言:如果临床医生总是对有某些检测结果(例如极度早产或脑损伤)的患者停止治疗,机器学习系统可能会得出结论,这些检测结果总是致命的。另外,如果可以构建算法来弥补已知偏倚或确定所需研究的领域,在适当部署时,机器学习也可以帮助消除医疗服务的差异。

还需要考虑机器学习系统设计背后的意图。算法可以被设计成以不符合伦理学的方式执行。最近一个引人注目的例子是优步的软件工具Greyball,该软件旨在预测哪些乘客可能是便衣执法人员,从而使得该公司可以识别和规避当地法规。更复杂的欺骗可能涉及设计用于作弊的算法,例如大众汽车的算法,该算法在车辆排放测试时减少氮氧化物排放,从而使其通过测试。

为临床使用而创建机器学习系统的私营企业设计师也可能受到类似诱惑。鉴于质量指标对于公众评价和确定报销率的重要性日益增加,可能会产生一种诱惑:教机器学习系统引导用户执行可改善质量指标,但不一定反映更好的医疗临床操作。这样的系统也可能会扭曲为公众评价提供的数据,或者在潜在的医院监管机构对数据进行审查时识别。临床决策支持系统也可以通过程序设计,以增加系统设计者或购买者的利润(例如通过推荐他们拥有利益的药物、检查或设备,或通过改变转诊模式),而不让临床用户察觉到。

机器学习系统设计的背后意图和用户(医疗团队和患者)目标之间的潜在差异可能会产生伦理压力。在美国医疗体系中,改善健康和创造利润这两个目标之间存在着永久的紧张关系。这种紧张关系需要在机器学习的实施中得到承认和解决,因为机器学习系统的构建者和购买者不太可能是提供临床医疗的人。

在复杂的医疗实践中使用机器学习将需要不断的考虑,因为在特定情况下正确的诊断和什么是最佳实践是有争议的。过早地将特定的诊断或实践方法结合到算法中可能意味着没有数据证实的合法性。

随着临床医学逐渐走向基于换班的模式,从疾病表现随访至疾病最终结局的临床医生数量正在减少。这一趋势突出了机器学习和基于人工智能的方法在医疗中的机会,但它也可能给这些工具带来意想不到的权力和权威。集体医疗思想正在成为已出版文献和在医疗系统中获取的数据的组合,而不是个人临床经验。虽然这种转变提供了从汇总数据中学习这一令人兴奋的机会4,但电子集体记忆可能拥有从未设想过的权威。临床医生可能会转而使用机器学习来获得诊断和治疗建议,而不仅仅是作为一种辅助工具。如果发生这种情况,机器学习工具将成为治疗关系中的重要角色,并且需要受指导临床医生的核心伦理原则(如善意和尊重患者)的约束。

我们可以制定道德准则,以赶上已经来临的机器学习和人工智能时代。可以让使用机器学习系统的医生更多地了解这些系统的结构、建立系统所依据的数据集以及它们的局限性。对机器学习系统的构建仍然一无所知,或者让机器学习系统被构造成黑箱,可能会导致伦理上有问题的结局。

更广泛地说,在提供医疗服务的过程中引入算法,引发了关于医患关系性质的问题。临床医学的核心是一个契约——患者和医生之间信托关系的承诺。随着临床医学的中心关系变成了患者与医疗系统之间的关系,信托责任的含义已经变化,个人责任观念已经丧失。

医学伦理学将需要适应这一新情况。随着机器学习系统加入这一不断变化的环境中,即使医生仍然是提供医疗服务的人员,但哪几方参与到信托契约中变得越来越不清楚。曾经作为希波克拉底伦理学基石的保密观念,在很久以前就被形容为“过时”5。在电子病历时代,根据传统的保密意识,医生须自行保存信息,而不输入病历,以便真正保密。一旦将基于机器学习的决策支持集成到临床医疗中,意图将信息不输入电子记录会变得越来越困难,因为没有记录数据的患者无法从机器学习分析中获益。因此,机器学习系统的实施将需要重新考虑保密和职业道德的其他核心原则。更重要的是,一个学习型医疗系统将会有代理机构,这也需要被纳入到患者医疗的伦理学考虑中。

我们认为,必须尽快解决诸如潜在的偏见和患者与机器学习系统之间的信托关系问题等挑战。在机器学习系统的建立过程中,可以反映在医疗中指导其他行为者的伦理标准,并可以遵守这些标准。关键的一步是无论通过政策制定、编程方法、工作组工作还是结合多种策略,必须确定如何确保采用了伦理标准。

    Disclosure forms provided by the authors are available at NEJM.org.

 

译者:时境迁,职业翻译

校对:侯海燕,NEJM医学前沿


作者信息

Danton S. Char, M.D., Nigam H. Shah, M.B., B.S., Ph.D., and David Magnus, Ph.D.
From the Department of Anesthesiology, Division of Pediatric Cardiac Anesthesia (D.S.C.), the Center for Biomedical Ethics (D.S.C., D.M.), and the Center for Biomedical Informatics Research (N.S.), Stanford University School of Medicine, Stanford, CA.

 

参考文献

1. Obermeyer Z, Emanuel EJ. Predicting the future — big data, machine learning, and clinical medicine. N Engl J Med 2016;375:1216-1219.

2. Angwin J, Larson J, Mattu S, Kirchner L. Machine bias. ProPublica. May 23, 2016 (https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing).

3. Gijsberts CM, Groenewegen KA, Hoefer IE, et al. Race/ethnic differences in the associations of the Framingham risk factors with carotid IMT and cardiovascular events. PLoS One 2015;10(7):e0132321-e0132321.

4. Longhurst CA, Harrington RA, Shah NH. A ‘green button’ for using aggregate patient data at the point of care. Health Aff (Millwood) 2014;33:1229-1235.

5. Siegler M. Confidentiality in medicine — a decrepit concept. N Engl J Med 1982;307:1518-1521.

服务条款 | 隐私政策 | 联系我们