最近的一项研究揭示,当人们将人工智能(AI)视为具有类人特征时,他们更有可能将道德错误归咎于这些AI。这些发现由来自韩国首尔淑明女子大学的Minjoo Joo于2024年12月18日在开放获取期刊《PLOS ONE》上提出。
先前的研究表明,个体常常将AI视为对各种伦理违规行为负责,例如自主车辆与行人的碰撞或医疗或军事背景下的有害决策。额外的研究表明,归咎的倾向更常指向被认为具备意识、推理和规划能力的AI。这种倾向可能源于人们倾向于将具有人类思维的AI视为能够体验意识情感。
在之前工作的基础上,Joo提出,被视为具有类人思维的AI将因道德违规行为而被赋予更多的责任。
为了研究这一概念,Joo进行了几个实验,在这些实验中,参与者遭遇涉及AI犯下道德罪行的不同现实场景 —— 例如种族主义自动标记图像 —— 并被要求评估他们对AI心智的看法和他们分配给AI、其程序员、背后的公司或政府的责任水平。在某些场景中,AI的“心智感知”通过提供其姓名、年龄、身高和爱好等细节进行了修改。
结果显示,参与者通常会对被视为拥有更类人心智的AI给予明显更多的责备。这种视角的转变使参与者在评估相对责任时对相关公司的责备减少。然而,当被要求独立评估各方的责备时,分配给公司的责备并没有减少。
这些结果突显了我们如何看待AI的心智在决定其过失责任中的重要性。Joo还对将AI作为替罪羊的风险表示担忧,并呼吁对AI相关实例中的责任分配进行进一步研究。
作者总结道:“AI能因道德失败而被追究责任吗?这项研究表明,视AI为类人会加重对它们的责备,同时减轻分配给人类利益相关者的责任,这引发了关于潜在误用AI作为道德替罪羊的重要担忧。”