当谈到诊断决策时,最近的一项研究表明放射科医生和其他医疗专业人员可能过于依赖人工智能(AI),特别是在AI突出显示 X 光片中的感兴趣区域时。
最近发表在Radiology上的一项研究显示,放射科医生和其他医生可能在 X 光图像中识别特定感兴趣区域时过度依赖人工智能(AI)。
“截至 2022 年,美国食品药品监督管理局已批准 190 个用于放射学的 AI 程序,”该研究的高级作者之一,田纳西州孟菲斯圣犹大儿童研究医院智能影像信息学主任 Paul H. Yi 医生说。“尽管如此,AI 的概念证明与其实际临床应用之间出现了脱节。建立对 AI 推荐的适当信任对填补这一空白至关重要。”
这项前瞻性研究在多个地点进行,涵盖 220 名医生,包括 132 名放射科医生以及内科和急救医学的专家。他们在 AI 的协助下分析了胸部 X 光片,AI 的诊断表现与领域专家相当。每位医生在模拟 AI 助手的指导下评估了八个胸部 X 光案例。临床场景包括前视 X 光片以及在可用情况下的侧视 X 光片,这些图像来源于波士顿的贝斯以色列女执事医院,通过开放来源 MIMI 胸部 X 光数据库获取。一组放射科医生选择了旨在反映现实世界临床情境的案例。
对于每个案例,参与者获得患者的临床细节、AI 的建议和 X 光图像。AI 可以提供正确或错误的诊断,并通过局部或全局解释作支持。局部解释特别强调图像中被认为关键信息的区域,而全局解释则提供类似的先前案例图像,以澄清 AI 如何得出结论。
“这些局部解释直接引导医生实时关注关键区域,”Yi 医生解释道。“在我们的研究中,AI 实质上框定了受到肺炎或其他问题影响的区域。”
审阅者可以选择接受、调整或拒绝 AI 的建议,并被要求分享他们对结果的信心以及为 AI 的建议在实用性方面排名。
在混合效应模型的帮助下,研究的共同第一作者 Drew Prinster, M.S. 和 Amama Mahmood, M.S.,两位约翰霍普金斯大学计算机科学博士候选人,指导分析了各种实验变量如何影响诊断准确性、效率、对 AI 有用性的看法以及“简单信任”(用户同意或不同意 AI 指导的速度)。分析考虑了用户人口统计学和专业经验等因素。
研究结果显示,审阅者在提供局部解释时,更倾向于与 AI 建议保持一致的诊断选择,并且在考虑这些决策时花费的时间更少。
“当 AI 的建议正确时,局部解释提高了医生的诊断准确性,”Yi 医生指出。“它们还通过减少在 AI 建议上反复斟酌的时间,增强了整体诊断效率。”
当 AI 的建议正确时,审阅者的平均诊断准确性在局部解释的情况下达到了 92.8%,而全局解释为 85.3%。相反,当 AI 提供错误指导时,医生的准确性在局部解释中为 23.6%,在全局解释中为 26.1%。
“当提供局部解释时,研究中的放射科医生和非放射科医生都更快地信任 AI 的诊断,无论 AI 的准确性如何,”Yi 医生评论道。
共同高级作者、约翰霍普金斯大学计算机科学助理教授 Chien-Ming Huang 博士强调,信任 AI 可能会带来风险,导致过度依赖或自动化偏见。
“如果我们对计算机的建议过于信任,那就会出现问题,因为 AI 并不总是正确的,”Yi 医生警告说。“放射科医生必须保持对这些风险的意识,并对他们的诊断实践和培训保持警惕。”
根据 Yi 医生的研究见解,AI 系统的开发者需要深思熟虑地评估不同类型的 AI 解释可能如何影响对 AI 推荐的信任。
“我相信行业与医疗研究者之间的合作至关重要,”他总结道。“我希望这项研究能促使讨论,并导致富有成效的未来研究合作。”