您好,欢迎访问新葡萄官网最新版

常见问题
您的位置: 主页 > 新闻中心 > 常见问题

技术与伦理的博弈,医疗AI的B面隐忧如何解?_新葡萄官网最新版

发布日期:2023-11-15 05:20浏览次数:
本文摘要:在希波克拉底誓言奠下医学伦理基础的2400年后,人工智能的经常出现有可能给医学伦理带给史上仅次于的挑战。

在希波克拉底誓言奠下医学伦理基础的2400年后,人工智能的经常出现有可能给医学伦理带给史上仅次于的挑战。专家预测,到2024年,AI医疗将是一个近200亿美元的市场。人工智能未来将会沦为医疗实践中的福音,需要提高临床效果、获取个性化化疗,并及时发现未来的公共医疗风险。

即便如此,该技术依然引起了一系列棘手的道德难题。当AI系统决策犯规时会经常出现哪些问题?如果有问题的话,该谁负责管理?临床医生如何检验甚至理解AI“黑匣子”的内容?他们又该如何防止AI系统的种族主义并维护患者隐私?2018年6月,美国医学会(AMA)公布了首个关于如何研发、用于和调节人工智能的指南。

值得注意的是,该协会将人工智能称作“augmentedintelligence”(智能强化),而非我们普遍指出的“artificialintelligence”。这指出,美国医学会指出人工智能的起到是强化而非代替医生的工作。

虽然AMA在指南中回应,人工智能应当设计用作辨识和解决问题种族主义、确保弱势群体市场需求、构建过程透明性并维护患者隐私,但在具体实施中,这些拒绝很难获得符合。以下是医学从业者、研究人员和医学伦理学家必须面临且尤为严峻的道德挑战。背后的种族主义,怎么解决?2017年,芝加哥大学医学院(UCM)的数据分析团队用于人工智能来预测患者有可能的住院时长。

其目标是确认可以提早出院的患者,从而获释医院资源并为新的患者获取医治。然后,医院还不会指派一名案例管理人员来协助患者处置保险事宜,保证患者及时回家,并为其早日出院铺平道路。在测试系统时,研究小组找到,预测患者住院时间最精确的因素是他们的邮政编码,这马上给研究团队响起了警钟。

他们告诉,邮编与患者的种族和社会经济地位密切相关。依赖邮政编码做到预测,不会对芝加哥最贫穷社区的非裔美国人导致不良影响,这些人往往住院时间更长。因此该团队指出用于该算法分配案例管理员将是有偏见和不道德的。

“如果你要在实践中实行这个算法,你不会获得一个对立的结果,那就是把更好(病例管理)资源分配给更加富足的白人患者,”UCM内科医生、医疗伦理学教授MarshallChin说。最后数据分析团队移除了邮政编码这个预测因素。该算法仍在研发中,仍未测试出有模型。

这个案例认为了基于人工智能的医疗保健工具的弱点:算法一般来说可以体现现有的种族或性别身体健康差异。这个问题如果没获得解决问题,就可能会造成长期性种族主义并烧结医疗保健领域现有的不公平现象。

种族主义还不会影响罕见病或新的疾病的化疗,这些疾病的化疗数据受限。人工智能系统可能会必要得出一般化疗方案,而不考虑到患者的个人情况。这时,人工智能建议书的化疗方案是违宪的。

最近,斯坦福大学麻醉学助理教授DantonChar在一篇关于机器学习的论文中认为,因为相当严重脑损伤患者或近于早产儿的存活几率很低,因此医生经常暂停对他们的护理。而即使某些患者个体肾功能较好,机器学习算法依然可能会必要得出结论:所有类似于病例都是可怕的,并建议退回化疗。

“黑匣子”问题,路在何方?第二个道德挑战是,一般来说情况下,研究人员并不理解AI系统是如何计算出来出有结果的,即所谓的黑匣子问题。先进设备的机器学习技术可以在没具体命令的情况下吸取大量数据并辨识统计资料模式,整个过程人类特别是在无法检验。盲目遵循这种系统的医生可能会在无意中损害患者。“我们一般来说很难解读算法的'思想'过程是什么。

”联合国大学政策研究中心新兴网络技术研究员EleonorePauwels回应。2015年的一项研究特别强调了该问题。在这项研究中,研究人员较为了有所不同AI模型预测肺炎患者丧生风险的程度。预测之后,那些风险较高的人将被送到医院,而较低风险的病人可以转至门诊化疗。

其中一个模型是“基于规则”的系统,其决策过程对研究人员来说是半透明的,却预测出违背直觉的结果:患上肺炎和哮喘的患者比仅患上肺炎的患者存活机会更大,因此患上两种疾病的患者可以延期化疗。显而易见,医护人员需要确切的辨别患上两种疾病的患者具备更高的丧生风险,但算法无法。所以意味着依赖这种算法,意味著最不妙的病人将无法及时获得他们所必须的化疗。另一种用于神经网络和机器学习算法的模型产生了更加精确的结果,但其推理小说过程是不半透明的,因此研究人员无法及时发现其中的问题。

该研究的负责人、微软公司研究员理查德卡鲁阿纳得出结论:神经网络模型风险过于大,无法转入临床试验,因为没办法辨别它否罪了类似于的错误。决策犯规谁来买单?根据AMA的医学伦理基本原则,医生必需几乎对患者负责管理。但是,当人工智能转入等式时,责任又该如何区分?这个问题的答案仍在由伦理学家、研究人员和监管机构制订。

人工智能超越了获取医疗服务的群体容许,一些传统上不不受医学伦理约束的人,比如数据科学家,也可以为患者获取医疗服务。此外,正如黑匣子问题右图,人们并不总是需要清楚地告诉人工智能系统是如何作出临床或班车化疗处方的。有缺陷的算法有可能对患者导致根本性损害,从而造成医疗事故。

斯坦福大学麻醉学家Char将人工智能比作处方药。查尔回应,虽然无法确信临床医生理解他们班车的药物的每一个生化细节,但基于他们的临床经验和医学文献科学知识,他们最少必须告诉这些药物是安全性有效地的。至于人工智能系统,除非经过细心研究,他相信这是最佳自由选择,否则他会用于。Char说:“当你对工具的理解并不充份时,你不愿让任何患者的生命正处于危险性之中。

”患者隐私何去何从?美国医学协会曾收到警告:人工智能必需维护患者信息的隐私和安全性。对医患保密的允诺,是自希波克拉底发誓以来医学伦理不存在的基石。但为了作出精确的预测,机器学习系统必需要采访大量的患者数据。如果没个人的医疗记录,人工智能将无法获取精确的临床或简单的化疗方法,更加无法构建更为个性化的化疗。

更加最重要的是,如果数以百万计的病人掩饰他们的医疗数据,关键的公共卫生趋势可能会被忽视,这将是每个人的损失。一个潜在的解决方案就是指用医疗记录中分开移除个人辨识信息来维护患者隐私。然而,最近由加利福尼亚大学联合的一项研究回应,目前的电子邮件化技术还过于成熟期,并无法保证数据的有效地清理。

不过,未来可以研发更加简单的数据搜集方法,以更佳地维护隐私。不管技术能力如何,医学专家建议医学界重新考虑患者隐私的整个概念。随着医疗系统显得更为简单,将有更加多的机构有合法合理的市场需求去采访脆弱的患者信息。

Char在论文中写到:“机器学习系统的构建,意味著我们必须重新认识医疗数据隐私和其他职业道德核心原则。”在实践中,医院和机构必须夺得患者的信任。患者有权利理解他们的医疗隐私数据是如何被用于的,以及数据是不会使他们自身获益或不能让未来的患者获益。

伦敦大学学院身体健康信息学研究所的高级研究员NathanLea回应:“如果患者更佳地理解人工智能是如何提高个人和公共身体健康的,他们有可能不愿退出传统的隐私观念。隐私本身并不是意味著的,我们无法以维护患者隐私为借口而拒绝接受数据背后的可观价值。”动脉网有话说医学科技与道德伦理的冲突仍然不存在,从人体解剖学的人权问题,到克隆技术的身份争议;从人工流产的人道批评,到如今人工智能的人伦修辞,环绕医学技术创新与社会道德伦理的争辩未曾止息。正是这些对人性、人道、人类精神、人的价值的注目,才使医学反映了人文的关怀,维持了人性的张力。

AI医疗技术的应用于和普世的伦理道德观念本不对立,关键在于在权衡权衡中寻找更加合理的打开方式。我们期望人工智能在伦理思维的鞭策下递归转型,最后需要以自己的方式协同解决问题人类社会的简单问题。


本文关键词:新葡萄官网最新版

本文来源:新葡萄官网最新版-www.hoodiabalance.com

Copyright © 2007-2023 www.hoodiabalance.com. 新葡萄官网最新版科技 版权所有 备案号:ICP备28353428号-5

020-88888888