最近在UCL进行的一项研究表明,人工智能(AI)系统倾向于继承并增强人类偏见,从而使这些AI的用户也发展出自己的偏见。
根据发表在《自然人类行为》上的研究,人类和AI偏见可以形成一个反馈循环,即使是轻微的初始偏见也会增加人类犯错误的可能性。
研究人员强调,AI偏见可能会产生重大现实影响,指出与有偏见的AI系统互动的个人更倾向于低估女性的表现,并高估白人男性获得高地位工作的可能性。
UCL心理学与语言科学系、马克斯·普朗克UCL计算精神病学和老龄化研究中心及MIT的共同首席作者Tali Sharot教授表示,“人类天生就有偏见,因此当我们用人类创造的数据训练AI时,AI算法会捕捉到这些数据中存在的人类偏见。因此,AI倾向于利用并放大这些偏见,从而提高其预测准确性。”
“我们发现,与有偏见的AI系统互动的个体甚至可能变得更加偏见,触发潜在的滚雪球效应。原始数据集中的小偏见可以通过AI被放大,进一步加剧用户的偏见。”
研究人员进行了系列实验,涉及1200多名参与者,他们在与AI系统互动时执行各种任务。
为了设置其中一个实验的背景,研究人员使用参与者的回应数据集训练了一个AI算法。他们让个人评估照片中的一组面孔是快乐还是悲伤。结果显示存在轻微偏见,参与者更倾向于将面孔分类为悲伤。AI吸收了这种偏见并加以夸大,导致更强烈的倾向于将面孔判定为悲伤。
在随后的任务中,另一组参与者被告知AI对每张照片的判断。在与该AI系统互动一段时间后,这组参与者内化了AI的偏见,并比他们在互动前更有可能描述面孔为悲伤。这表明AI从人类生成的数据集中采纳了偏见,并进一步放大了另一组的现有偏见。
在利用不同任务的实验中也出现了类似的模式,例如评估屏幕上点的运动或判断另一个人在任务中的表现。研究结果特别揭示,人们在与有偏见的AI系统互动后,更倾向于高估男性的表现,该AI系统是故意设计的性别偏见,以反映许多现有AI的典型偏见。值得注意的是,参与者在很大程度上并未意识到AI对他们判断的影响程度。
当个体被误导以为他们在与另一个人互动,但实际上是在与AI交流时,他们内化的偏见程度较低。研究人员建议,这可能是因为人们期望AI在某些任务中比人类更准确。
此外,研究人员实验了一个流行的生成AI系统Stable Diffusion。在一项试验中,他们促使AI生成金融经理的图像,结果显示有偏见的结果,白人男性的比例过高。随后,他们让参与者查看一系列头像,并识别最有可能成为金融经理的个体,时间是查看AI生成的图像之前和之后。研究结果表明,在看到Stable Diffusion生成的图像后,参与者更有可能选择白人男性作为最有可能的金融经理。
UCL心理学与语言科学系及马克斯·普朗克UCL中心的另一位共同首席作者Moshe Glickman博士表示,”有偏见的个体不仅促成了有偏见AI的产生,而且,有偏见的AI系统可以塑造人们的信念,使这些AI工具的用户在社会判断到基本认知等领域变得越来越偏见。”
“重要的是,我们还发现,与准确的AI互动可以增强人们的判断,因此,精炼AI系统以尽可能无偏见和准确是至关重要的。”
Sharot教授补充道,“算法开发者在设计AI系统方面肩负巨大责任,因为AI偏见的影响可能对我们日益AI驱动的世界产生深远的影响。”