原标题:|必读|NEJM评述医疗机构引入机器学习, 预防傲慢与偏见

未来,医院与商家合作把机器学习AI决策系统作为科技亮点引入常规医疗服务。《新英格兰医学杂志》刊文“AI机器学习”决策系统面临的伦理之争。为防患于未然,是时候考虑伦理问题了。

越来越多的医院管理和疾病诊疗流程引入了“AI机器学习”系统。医院与商家合作,把机器学习AI决策系统作为医疗服务亮点和前沿阵地。

不久的将来,AI机器学习将成为医生诊疗疾病决策的必备工具。与此同时,未来医生把掌握机器学习、大数据分析作为必需技能和择业优势。看来,早些时候传言AI机器人系统“取代”医生,特别是某些专业技术人员,如影像和临床病理专业等并非空穴来风。

《新英格兰医学杂志》刊文探讨“AI机器学习”决策系统所面临的伦理问题。

应用机器学习辅助决策有益于患者,是可以接受的。若由此引起争议或质疑,譬如机器学习和AI算法也有“人为偏见”,在辅助决策过程中,过于执着“医疗决策”而淡漠于同情和关怀(医疗服务的本质之一),又是谁之过?

把AI机器学习和算法应用于医疗决策流程,为防患于未然,是时候考虑伦理问题了。

《新英格兰医学杂志》文章以非医疗领域“AI机器学习”为例,阐述了由于训练AI机器学习的数据自身带有“偏见”,譬如辅助司法审判时,AI机器学习决策系统会对嫌疑人有种族歧视和犯罪嫌疑等偏见。

在现有医疗流程中也存在着或多或少、各式各样种族歧视或不公平现象。用此日积月累的医疗数据培训机器学习AI系统,其结果也就难免有“偏见”。

比如说,由于对少数族裔基因研究数据过少,在应用机器学习AI决策系统评估遗传基因时,就容易产生种族“偏见”。在著名Framingham心脏病研究项目中,采用机器学习分析非白人群体心脏病风险因素时,容易出现过度强调或忽略因素的偏差。

在日常医疗服务中,存在偏见很难避免或完全消除。但是,让机器学习AI系统也感染上“人为偏见”,则更难矫正和回避。若已知偏见和存在的歧视,也可以利用机器学习AI系统来矫正和调和。

机器学习AI决策系统的设计带有了设计者的意识烙印,即机器学习算法本身可以表现出非伦理或失公允。

最近被曝光的“优步”Greyball软件系统也是一例。机器学习不但能甄别执法人员,也能逃避监管法规。更有甚者,大众汽车公司设计的智能算法就是为了欺诈和逃避汽车检测尾气含氮氧化物排放量监测不达标问题。

可以推断,AI系统研发公司设计的机器学习用于临床诊疗流程,难免出现上述类似做手脚。

比如,随着医保服务不断完善和改革,按照服务质量作为付费标准评估服务将成为未来发展方向,那么,有可能通过AI机器学习系统来“谎骗”临床诊疗状况,而实际上并未达到如此好的服务质量。这就是AI系统给医保付费做了个"局"。

同样地,评估医院服务也可以采用AI机器学习智能系统,蒙骗公共卫生和医疗服务质量监管部门和人员。

冷酷的现实是,AI机器学习系统不仅能进行人为程序化,达到增加医疗服务机构的获益,而不增加成本;或误导采购或处方高价药。而这一切始作俑者可能是医生,患者却毫不知情,因为依靠的是AI机器学习系统的决策。

医生依靠机器学习给出诊断和治疗建议,有伦理问题吗?

机器学习系统设计意图与用户(医疗团队和病人)目标之间的潜在差异可能会引发道德问题。在美国联邦医保系统中,改善健康创造利润这两大目标之间存在着亘古不变的紧张关系。

这种紧张关系需要借助机器学习梳理头绪和化解矛盾。因为机器学习系统的构建者和购买使用者一般不是提供临床医疗服务的相关方。

在复杂的医疗实践中使用机器学习需要持续改进。因为在特定情况下对于诊断的正确性和最佳实践的判断是存在争议的。过早地将一个特定诊断或治疗方案纳入到一个算法中,很难再验证其决策的合理性。

随着临床医学模式的逐渐转变,通过最终结果跟踪疾病的临床医生越来越少了。这一趋势为机器学习和基于AI的医疗保健途径创造了商机,但也可能赋予这种AI辅助工具不可估量的权威。

医生可能会依靠机器学习给出诊断和治疗建议,而不是将其作为辅助工具。一旦这种情形发生了,机器学习决策系统在治疗过程中将扮演重要角色,应当受到伦理原则的约束。譬如对病人的同情和尊重。这些也是指导医生临床实践的原则。

AI

在人工智能时代,医生需要与时俱进建立新的伦理道德指南,是时候了。

更明确地讲,引入AI服务辅助算法,将医患关系的本质问题摆上了台面。医患关系的核心临床诊疗是一种“契约”—即患者和医生之间信托关系的承诺。

由于临床医学的中心关系是患者与医保系统之间的关系,受托责任的意义已经变得牵强附会,个人责任概念也就丧失了。

医学伦理需要不断地适应医疗模式转变。随着机器学习系统参与到医疗模式转变,即使医生仍是服务提供者,患者越来越搞不清楚哪些当事人参与了医患关系。曾经作为希波克拉底伦理学基石的隐私权保密理念,已经被描述为“陈旧”的理念了。

一旦将机器学习辅助医疗决策集成到临床流程中,从电子档案中提取信息将会变得越来越困难。因为没有电子病历记录数据的患者将无法从机器学习中获益。机器学习系统的实施也需要重新考量职业道德的保密性和伦理原则。

业界越来越意识到,如果存在偏差,因此而影响患者和机器学习系统之间的信托关系,必须尽快解决,必须建立机器学习系统应用新的伦理准则,确保其应用的公正性。

自家招贤纳士

欢迎转发分享,微信平台等转载,请务必联系授权:sasctm告知。返回搜狐,查看更多

责任编辑:

相关文章