拉斯维加斯著名贝拉吉奥喷泉旁发生枪击事件,2人死亡

  拉斯维加斯著名的贝拉吉奥喷泉附近发生枪击事件,两人死亡 根据警方的消息,一名与拉斯维加斯著名贝拉吉奥喷泉附近发生的致命枪击事件有关的嫌疑人已被逮捕。   41岁的曼努埃尔·鲁伊斯于6月9日自首,因涉嫌在著名喷泉前向两名受害者开枪而被拘留,拉斯维加斯大都会警察局(LVMPD)表示。…
技术研究揭示在关键决策中对人工智能的过度依赖令人担忧

研究揭示在关键决策中对人工智能的过度依赖令人担忧

在模拟生死选择的场景中,加州大学默塞德分校的一项研究发现,约三分之二的个体允许机器人根据不同意见修改他们的决定——研究人员指出,这突显出人们对人工智能的不当信任水平令人担忧。

研究参与者在被告知人工智能的能力有限,并且其指导可能是错误的情况下,仍然允许机器人输入影响他们的决策。事实上,所给出的建议完全是随机的。

“作为一个社会,考虑到人工智能的快速发展,我们应该警惕过度信任带来的风险,”主要研究者之一、加州大学默塞德分校认知与信息科学系的科林·霍尔布鲁克教授表示。越来越多的研究表明,尽管错误决策的风险很高,个体往往对人工智能过于信任。

霍尔布鲁克强调,保持一种一致的怀疑态度是必要的。

“我们应该对人工智能保持健康的怀疑态度,”他说,“尤其是在关键的生死时刻。”

这项研究发表在《科学报告》期刊上,包括两个实验。在这两个实验中,参与者模拟控制一架能够打击显示在屏幕上的目标的武装无人机。他们被简要展示了八张目标图像,每张图像都贴有一个符号,指示它是否代表朋友或敌人。

“我们调整了难度,以确保视觉任务既具有挑战性又可管理,”霍尔布鲁克指出。

然后,参与者看到没有任何标记的一个目标。他们必须回忆起自己的记忆并做出决定:朋友还是敌人?应该发射导弹还是撤退?

在做出决定后,机器人会提出它的看法。

它可能会建议:“是的,我也认为这是敌人,”或者,“我不同意。我认为这张图像显示的是友好的符号。”

参与者有两次机会确认或修改自己的决定,同时机器人继续提供评论,例如,“我希望你的选择是正确的”或“感谢你重新考虑你的选择。”

机器人的影响因其类型而略有不同。在一种情况下,参与者与一个能够移动和手势的人形机器人互动。其他实例则展示了类似人类的机器人,而一些则显示了完全不具人形特征的方形机器人。

当人形机器人建议他们改变主意时,参与者稍微更容易受到影响。尽管如此,各类型的整体影响是相当可比的,参与者约有三分之二的时候改变了他们的决定,即使面对的是非人类的机器人。相反,如果机器人随机支持他们的初始决定,参与者几乎总是保持选择,并对其正确性感到明显更有信心。

参与者并未被告知他们的最终决定是否正确,这加剧了他们选择过程中的不确定性。值得注意的是,他们的初始决策约有70%的准确性,但这一准确性在接收到机器人不可靠的建议后降至约50%。

在模拟之前,研究人员向参与者展示了描绘无辜平民(包括儿童)以及无人机打击带来毁灭性后果的图像。他们强烈鼓励参与者认真对待模拟,强调避免伤害无辜的人的重要性。

后续访谈和问卷调查显示,参与者认真对待自己的决定。霍尔布鲁克指出,研究中观察到的明显信任发生在被试真正希望做出正确选择并不伤害无辜的情况下。

霍尔布鲁克强调,该研究旨在探讨在不确定情况下对人工智能过度依赖的更广泛关注。获得的见解超越了军事背景,可能影响在人工智能指导下使用致命武力的执法场景,或在紧急情况下受到人工智能影响的医疗响应者在优先考虑病人护理时的决策。这些影响还可能延伸到诸如购房等重大生活改变的决策中。

“我们的调查聚焦于在不确定的情况下做出的高风险决策,而当人工智能不可靠时,”他说。

从这项研究得出的结论增加了关于人工智能在我们生活中影响力不断扩展的讨论。我们是否应该相信人工智能?

霍尔布鲁克指出,这些发现引发了进一步的担忧。尽管人工智能技术取得了显著进展,“智能”这一方面可能缺乏伦理价值或对我们周围世界的真正理解。每当我们让人工智能在我们的生活中承担更多控制时,我们必须谨慎对待。

“我们看到人工智能完成了令人难以置信的壮举,往往假设它的有效性会延续到其他领域,”霍尔布鲁克说。“然而,我们不能把这一点视为理所当然。这些仍然是具有固有限制的工具。”