大型语言模型(LLMs)——如ChatGPT背后的高级人工智能——正越来越多地融入日常生活,协助完成诸如撰写电子邮件、回答问题,甚至支持医疗决策等任务。但是,这些模型能否像人类一样与他人协作?它们能理解社会情境、作出妥协或建立信任吗?来自慕尼黑亥姆霍兹中心、马克斯·普朗克生物控制论研究所和图宾根大学的新的研究表明,尽管今天的人工智能很聪明,但在社会智能方面仍有很多需要学习的地方。
大型语言模型(LLMs)——如ChatGPT背后的高级人工智能——正越来越多地融入日常生活,协助完成诸如撰写电子邮件、回答问题,甚至支持医疗决策等任务。但是,这些模型能否像人类一样与他人协作?它们能理解社会情境、作出妥协或建立信任吗?来自慕尼黑亥姆霍兹中心、马克斯·普朗克生物控制论研究所和图宾根大学的新的研究表明,尽管今天的人工智能很聪明,但在社会智能方面仍有很多需要学习的地方。
通过游戏理解人工智能行为
为了了解LLMs在社会情境中的行为,研究人员应用了行为博弈理论——一种通常用于研究人们如何合作、竞争和决策的方法。团队让包括GPT-4在内的各种人工智能模型参与一系列旨在模拟社会互动的游戏,并评估公平、信任和合作等关键因素。
研究人员发现,GPT-4在需要逻辑推理的游戏中表现出色——特别是在优先考虑自身利益时。然而,它在需要团队合作和协调的任务中挣扎,往往在这些领域表现不佳。
“在某些情况下,人工智能似乎过于理性,反而不好,”研究的主要作者埃里克·舒尔茨博士表示。“它能够立即发现威胁或自私的行为并进行报复,但在理解信任、合作和妥协的大局方面却显得力不从心。”
教人工智能社会思考
为了鼓励更具社会意识的行为,研究人员实施了一种简单的方法:在作出决策之前,促使人工智能考虑其他玩家的视角。这种被称为社会思维链(SCoT)的技术取得了显著的改善。通过SCoT,人工智能变得更加合作、更加灵活,并且在达到互利结果方面更加有效——即使是在与真实人类玩家互动时。
“一旦我们促使模型进行社会推理,它开始采取更像人类的方式行事,”研究的第一作者埃利夫·阿卡塔表示。“有趣的是,参与实验的人类参与者常常无法分辨他们是在与人工智能玩游戏。”
在健康和患者护理方面的应用
这项研究的影响远远超出了博弈论的范围。研究结果为开发更以人为本的人工智能系统奠定了基础,特别是在社会认知至关重要的医疗环境中。在心理健康、慢性疾病管理和老年护理等领域,有效支持不仅依赖于准确性和信息传递,还依赖于人工智能建立信任、解读社会线索和促进合作的能力。通过建模和优化这些社会动态,这项研究为更具社会智能的人工智能铺平了道路,对于健康研究和人机互动均具有重要意义。
“一个能够鼓励患者坚持用药、支持某人应对焦虑或引导关于困难选择的对话的人工智能,”埃利夫·阿卡塔说。“这就是此类研究的方向所在。”