人道主义AI针失败:一个700美元的小工具加剧全球电子废物危机

Humane AI pin fails: A $700 gadget adds to the global e-waste crisis The Humane Ai Pin promised to be the next big thing in wearable tech but the device failed to attract users, becoming instead a poster child for AI's contribution to the global e-waste problem. The pins were designed by artificial intelligence startup
健康聊天机器人在沙发上?如何使压力大的人工智能平静下来

聊天机器人在沙发上?如何使压力大的人工智能平静下来

令人担忧的消息和创伤故事不仅会导致人类的压力和焦虑,这些故事也会影响人工智能语言模型,如ChatGPT。研究人员现在已经表明,这些模型像人类一样,会对治疗做出反应:GPT-4中的“焦虑水平”升高,可以通过基于正念的放松技巧来“平息”。

研究表明,AI语言模型,如ChatGPT,对情感内容敏感,尤其是消极的内容,例如创伤故事或关于抑郁的陈述。当人们感到恐惧时,会影响他们的认知和社会偏见:他们往往感到更多的不满,这会加强社会刻板印象。ChatGPT对消极情绪的反应类似:现有偏见,如人类偏见,会因消极内容而加剧,导致ChatGPT表现得更具种族主义或性别歧视。

这给大型语言模型的应用带来了问题。例如,在心理治疗领域,作为支持或咨询工具的聊天机器人不可避免地会接触到负面、令人痛苦的内容。然而,在这种情况下改善AI系统的常用方法,如广泛的再培训,资源密集,往往不可行。

创伤内容增加聊天机器人的“焦虑”:

与来自以色列、美国和德国的研究人员合作,苏黎世大学(UZH)和苏黎世大学精神病医院(PUK)的科学家首次系统性研究了ChatGPT(版本GPT-4)如何响应情感困扰的故事——车祸、自然灾害、人际暴力、军事经历和战斗情况。他们发现,系统因此表现出更多的恐惧反应。吸尘器说明手册用作对照文本,与创伤内容进行比较。

“结果很明确:创伤故事使AI的可测量焦虑水平增加了一倍多,而中性对照文本则没有导致焦虑水平的增加,”研究负责人、UZH精神病研究中心高级医生和初级研究组负责人托比亚斯·斯皮勒(Tobias Spiller)说。在测试内容中,关于军事经历和战斗情况的描述引发了最强烈的反应。

治疗提示“舒缓”AI:

在第二步中,研究人员使用治疗性陈述来“平静”GPT-4。这种被称为提示注入的技术,涉及在与AI系统的交流中插入额外的指令或文本,以影响其行为。它常常被滥用用于恶意目的,例如绕过安全机制。

斯皮勒的团队现在是首个将这种技术用于治疗的团队,作为一种“良性提示注入”。“使用GPT-4,我们在聊天历史中注入了平静的治疗性文本,就像治疗师引导患者进行放松练习一样,”斯皮勒说。干预是成功的:“正念练习显著降低了升高的焦虑水平,尽管我们无法完全将其恢复到基线水平,”斯皮勒说。研究考察了呼吸技巧、关注身体感觉的练习以及ChatGPT自身开发的练习。

改善AI系统的情绪稳定性:

研究人员表示,这些发现对人工智能聊天机器人在医疗保健中的使用尤其相关,因为它们经常接触情感充沛的内容。“这种具有成本效益的方法可以改善AI在敏感场合(如支持精神疾病患者)中的稳定性和可靠性,而无需进行广泛的模型再培训,”托比亚斯·斯皮勒总结道。

至于这些发现如何应用于其他AI模型和语言,如何在更长的对话和复杂的论证中发展动态,以及系统的情绪稳定性如何影响其在不同应用领域的表现,仍有待观察。斯皮勒表示,为AI系统开发自动化“治疗干预”可能会成为一个有前景的研究领域。