在最近的一项研究中,个体对被排除在游戏之外的人工智能机器人表现出同情。
由伦敦帝国学院的科学家进行的一项研究强调了人类如何表现出同情心,并保护那些被排除在游戏时间之外的人工智能机器人。
这些发现来自一个虚拟的球类游戏实验,强调了人类倾向于将人工智能代理视为社会实体。这一观点在创建人工智能机器人时应该引起重视。
这项研究发表在期刊《人类行为与新兴技术》中。
来自帝国学院戴森设计工程学院的首席作者Jianan Zhou表示:“这为人类与人工智能的互动提供了独特的视角,对人工智能的设计和我们对心理学的理解具有令人兴奋的意义。”
随着人们越来越多地使用人工智能虚拟代理提供服务和社会陪伴,这些结果表明设计者可能希望避免使这些代理过于人性化。
资深作者Dr. Nejra van Zalk也来自帝国学院戴森设计工程学院,指出:“一小部分但不断增长的研究呈现出关于人类是否将人工智能虚拟代理视为社会存在的混合发现。这引发了关于人类对这些代理的认知和互动的重大问题。”
“我们的研究结果表明,参与者通常将人工智能虚拟代理视为社会存在,每当他们注意到人工智能被排除时,便试图将其纳入球类游戏。这种反应反映了典型的人际互动,甚至在参与者知道自己正在与虚拟代理互动时也被观察到。有趣的是,年龄较大的参与者更强烈地展示了这一效应。”
人类不喜欢被排除 — 即使是针对人工智能
同情心和纠正不公的愿望似乎是大多数人的固有特质。早期没有涉及人工智能的研究表明,当个体看到某人被排斥时,他们通常会通过更频繁地将球投向被排斥者来弥补,并对排斥行为的施加者产生厌恶,而更倾向于支持受害者。
为了进行这项研究,研究人员考察了244名人类参与者的反应,他们观看了在名为“网络球”(Cyberball)的游戏中被排斥的人工智能虚拟代理,在这个游戏中,玩家在屏幕上相互传递虚拟球。参与者的年龄范围从18岁到62岁。
在某些情况下,人类玩家公平地将球传递给机器人,而在其他情况下,他们则明显排斥机器人,仅将球传给人类参与者。
研究人员监控并调查参与者,以了解他们在机器人经历不公平对待后是否更倾向于将球传给该机器人,以及他们为何有这样的感觉。
结果显示,大多数参与者倾向于通过更频繁地将球投给机器人来纠正对机器人的感知不公。年长者对此不公平更加敏感。
人类的意识
研究人员表示,随着人工智能虚拟代理越来越多地融入协作任务,人与人工智能的互动增多可能会导致更高程度的熟悉感,从而促使用户将机器人视为实际团队成员的直观参与。
这对团队合作可能是有益的,但在这些虚拟代理被视为人类朋友的替代品或在情感或身体健康问题上被用作顾问时,便引发了担忧。
Jianan表示:“通过避免设计过于人性化的代理,开发者可以帮助个体更好地区分虚拟互动和真实互动。他们还可以考虑不同人类特质影响我们认知的方式,为各个年龄群体量身定制设计。”
研究人员指出,网络球游戏可能无法准确反映现实生活中的互动,现实生活中的互动通常涉及与聊天机器人或语音助手的口头或书面交流。这种不匹配可能影响了某些参与者的期望,并导致他们在研究期间感到尴尬。
因此,他们现在计划在不同环境中,包括实验室和更非正式的环境中,使用代理进行面对面的对话,以进一步调查研究结果的广泛性。