拉斯维加斯著名贝拉吉奥喷泉旁发生枪击事件,2人死亡

  拉斯维加斯著名的贝拉吉奥喷泉附近发生枪击事件,两人死亡 根据警方的消息,一名与拉斯维加斯著名贝拉吉奥喷泉附近发生的致命枪击事件有关的嫌疑人已被逮捕。   41岁的曼努埃尔·鲁伊斯于6月9日自首,因涉嫌在著名喷泉前向两名受害者开枪而被拘留,拉斯维加斯大都会警察局(LVMPD)表示。…
健康膝盖X光:关于啤酒和关节的误解

膝盖X光:关于啤酒和关节的误解

最近的一项研究揭示了一个重要问题,即使用人工智能进行医学影像研究时的“捷径学习”,这一问题使得人工智能系统的结果虽高度准确但可能具有误导性。研究人员对数千例膝盖X光片进行了仔细审查,发现这些人工智能模型可以对完全无关的特征进行“预测”,例如患者是否避免食用炸豆和饮用啤酒。尽管这些预测缺乏任何医学相关性,但模型通过利用微妙且意想不到的数据模式取得了令人印象深刻的准确性。

人工智能为医疗保健专业人员和研究人员在诊断影像分析中提供了宝贵的资源。尽管放射科医生可以在X光片中发现骨折和其他不规则现象,但人工智能模型可以检测到人类观察者可能错过的模式,从而增强医疗影像的有效性。

然而,发表于Scientific Reports的研究揭示了与医学影像中人工智能相关的重大障碍——“捷径学习”问题,导致高度准确但可能具有误导性的结果。

研究人员检视了通过NIH资助的骨关节炎倡议收集的超过25,000张膝盖X光片,并注意到人工智能模型可以“预言”无关和不切实际的特征,例如患者戒食炸豆或饮用啤酒。尽管缺乏医学基础,模型通过利用数据中的微妙和意想不到的模式获得了显著的准确性。

“虽然人工智能有潜力彻底改变医学影像,但我们必须小心行事,”研究的资深作者、达特茅斯健康医院的骨科外科医生彼得·希林博士警告说,同时也是达特茅斯地赛尔医学院的助理教授。

希林补充道:“人工智能可以识别超出人类感知的模式,但并不是它能感知的每一个模式都是有意义或可靠的。认识到这些风险至关重要,以避免误导性的结论并保持科学诚信。”

研究人员发现,人工智能算法通常依赖于混淆因素,例如X光设备的变异或临床地点标识符,而不是依赖医学上重要的特征。减轻这些偏见的努力仅取得了微小的成果——人工智能模型只会适应学习其他隐藏的数据模式。

研究的共同作者、达特茅斯希区医院的机器学习科学家布兰登·希尔评论道:“这个问题比基于种族或性别的偏见更深层次。我们发现算法甚至可以推断出X光拍摄的具体年份。这是非常狡猾的——当你限制它学习某一个元素时,它只是转而学习其他先前被忽视的元素。这种风险可能导致可疑的主张,研究人员必须谨慎对待这种情况在采用这种方法时是多么容易发生。”

研究结果突显了在基于人工智能的医学研究中严格评估标准的重要性。单纯依赖传统算法而不进行全面分析可能导致误导性的临床见解和治疗策略。

希尔指出:“在使用模型识别新的医学模式时,证明标准大幅提高。我们自己的偏见在这个问题上也有贡献。假设模型以我们相同的方式解释数据是非常容易陷入的陷阱。最终,它并没有这样做。”

希尔进一步阐述:“与人工智能的互动就像与外星智能的互动。你可能会倾向于说该模型在‘作弊’,但这会将技术拟人化。它发现了一种解决其分配任务的方法,但不一定以反映人类推理的方式。它缺乏我们通常理解的逻辑和理由。”

希林博士、希尔和共同作者、达特茅斯地赛尔医学院的三年级医学生弗朗西斯·科巴克在与佛蒙特州白河交界的退伍军人事务医疗中心的合作下进行了这项研究。