(资料图片仅供参考)
你会相信由人工智能生成的医疗建议吗?这是我最近一直在思考的问题,因为有越来越多的媒体和新闻宣称人工智能技术可以诊断一系列疾病。这通常意味着,它们比受过专业医学培训的医务人员更好、更快、更便宜。 这些技术中有许多都有众所周知的问题。比如,它们接受的训练是有限或有偏见的数据,它们对女性和有色人种的效果往往不如对白人男性。不仅如此,这些系统训练使用的一些数据也是完全错误的。 还有另一个问题。随着这些技术开始渗入医疗保健机构,研究人员认为,我们看到了所谓的“人工智能家长主义”的兴起。自这个职业诞生以来,医学上的家长主义就一直饱受争议。但现在,医生可能倾向于相信人工智能,而牺牲或忽视了患者自己的生活经验和他们自己的临床判断。
(来源:Pixabay) 人工智能已经被用于医疗保健领域。一些医院使用这项技术来帮助对病人进行分诊,还有些医院和医生用它来帮助诊断,或制定治疗计划。但英国牛津大学的技术与监管学教授桑德拉·瓦赫特()说,人工智能被采用的实际程度尚不清楚。 “有时我们并不知道现在使用的是哪种系统,”说。但她说,我们确实知道,随着技术的进步和医疗保健系统在寻找降低成本的方法,它们的普及程度可能会增加。 研究表明,医生们可能已经对这些技术充满了信心。在几年前发表的一项研究中,肿瘤学家被要求将他们的皮肤癌诊断与人工智能系统的诊断进行比较。他们中的许多人接受了人工智能给出的结果,即使这些结果与他们自己的临床观点相矛盾。我们有一个非常现实的风险,即我们将更加依赖这些技术,由此体现出家长主义。 加拿大安大略省病童医院的梅丽莎·麦克拉登()和罗克珊·基尔希()在最近的一篇论文中写道:“家长主义集中体现在‘医生最权威’的话语权中。”这个想法是,医学培训使医生成为为病人做出决定的最佳人选,而不管那个人的感受、信仰、文化和其他任何可能影响我们所做选择的因素。 和基施还指出,“当人工智能被定位为最高形式的证据,家长主义的主角将由无所不知的医生变成无所不知的人工智能,因此会有一种‘算法家长主义’的增加趋势”。这个现象将带来许多问题。 首先,如上所述,人工智能并不是绝对正确的。这些技术都是根据带有缺陷的历史数据集进行训练的。沃赫特说:“你没有把一个算法送到医学院,然后在那教它如何了解人体和疾病。” 因此,和写道,“人工智能无法理解,只能预测。”例如,人工智能可以接受训练,以了解过去皮肤细胞活检中哪些规律与癌症诊断有关。 但是,那些过去做出这些诊断并收集了这些数据的医生,更有可能遗漏了有色人种的病例。识别过去的规律,并不一定能告诉医生他们需要知道的、所有关于病人应该如何继续治疗的一切。今天,医生和病人应该在治疗决策过程中合作。人工智能的引入和更多使用,不应减少患者的自主权。 那么,我们如何才能防止这种情况的发生呢?一个潜在的解决方案是,设计在更优秀的数据集上训练的新技术。例如,一种算法可以根据关于不同社区的信仰、多样化的生物数据进行训练。但在我们能够做到这一点之前,我们需要真正走出去收集这些数据——这是一项耗时、耗力、耗钱的行动,可能不会吸引那些希望使用人工智能来削减成本的人。 这些人工智能系统的设计者应该仔细考虑将被他们评估的人的需求。他们需要记住,对某些群体有效的技术不一定对其他群体有效,不管是因为他们在生物学上的不同,还是他们的信仰不同。“所有人都不一样,”说。 最好的办法可能是,以与我们使用成熟的技术相同的方式使用这些新技术。X光和核磁共振成像,再加上其他健康信息,可以帮助我们进行诊断。人们应该能够选择他们是否想做扫描,以及他们想如何处理他们的结果。我们可以利用人工智能,但不能放弃我们的自主权。
支持:Ren
原文:
https://www.technologyreview.com/2023/04/21/1071921/ai-is-infiltrating-health-care-we-shouldnt-let-it-make-decisions/
运营/排版:何晨龙
关键词: