地球核心之谜揭晓:3000公里深处固体岩石如何流动

在地球表面下,近3000公里深处,存在一个神秘的层面,在这里,地震波的传播速度 inexplicably 加快。数十年来,科学家们对这个 D" 层感到困惑。现在,苏黎世联邦理工学院的突破性实验终于揭示了固体岩石在极端深度下的流动,表现得如同流动的液体。这种水平的地幔流动使名为后钙钛矿(post-perovskite)的矿物晶体沿同一方向排列,从而解释了地震行为。这是对地球深层内部机制理解的惊人飞跃,将一个长期困扰科学家的谜团转化为一幅生动的地下水流图,有助于推动火山、地震,甚至是地磁场的形成。…
技术揭开人工智能的面纱:人工智能如何反映人类偏见

揭开人工智能的面纱:人工智能如何反映人类偏见

最近在UCL进行的一项研究表明,人工智能(AI)系统倾向于继承并增强人类偏见,从而使这些AI的用户也发展出自己的偏见。

根据发表在《自然人类行为》上的研究,人类和AI偏见可以形成一个反馈循环,即使是轻微的初始偏见也会增加人类犯错误的可能性。

研究人员强调,AI偏见可能会产生重大现实影响,指出与有偏见的AI系统互动的个人更倾向于低估女性的表现,并高估白人男性获得高地位工作的可能性。

UCL心理学与语言科学系、马克斯·普朗克UCL计算精神病学和老龄化研究中心及MIT的共同首席作者Tali Sharot教授表示,“人类天生就有偏见,因此当我们用人类创造的数据训练AI时,AI算法会捕捉到这些数据中存在的人类偏见。因此,AI倾向于利用并放大这些偏见,从而提高其预测准确性。”

“我们发现,与有偏见的AI系统互动的个体甚至可能变得更加偏见,触发潜在的滚雪球效应。原始数据集中的小偏见可以通过AI被放大,进一步加剧用户的偏见。”

研究人员进行了系列实验,涉及1200多名参与者,他们在与AI系统互动时执行各种任务。

为了设置其中一个实验的背景,研究人员使用参与者的回应数据集训练了一个AI算法。他们让个人评估照片中的一组面孔是快乐还是悲伤。结果显示存在轻微偏见,参与者更倾向于将面孔分类为悲伤。AI吸收了这种偏见并加以夸大,导致更强烈的倾向于将面孔判定为悲伤。

在随后的任务中,另一组参与者被告知AI对每张照片的判断。在与该AI系统互动一段时间后,这组参与者内化了AI的偏见,并比他们在互动前更有可能描述面孔为悲伤。这表明AI从人类生成的数据集中采纳了偏见,并进一步放大了另一组的现有偏见。

在利用不同任务的实验中也出现了类似的模式,例如评估屏幕上点的运动或判断另一个人在任务中的表现。研究结果特别揭示,人们在与有偏见的AI系统互动后,更倾向于高估男性的表现,该AI系统是故意设计的性别偏见,以反映许多现有AI的典型偏见。值得注意的是,参与者在很大程度上并未意识到AI对他们判断的影响程度。

当个体被误导以为他们在与另一个人互动,但实际上是在与AI交流时,他们内化的偏见程度较低。研究人员建议,这可能是因为人们期望AI在某些任务中比人类更准确。

此外,研究人员实验了一个流行的生成AI系统Stable Diffusion。在一项试验中,他们促使AI生成金融经理的图像,结果显示有偏见的结果,白人男性的比例过高。随后,他们让参与者查看一系列头像,并识别最有可能成为金融经理的个体,时间是查看AI生成的图像之前和之后。研究结果表明,在看到Stable Diffusion生成的图像后,参与者更有可能选择白人男性作为最有可能的金融经理。

UCL心理学与语言科学系及马克斯·普朗克UCL中心的另一位共同首席作者Moshe Glickman博士表示,”有偏见的个体不仅促成了有偏见AI的产生,而且,有偏见的AI系统可以塑造人们的信念,使这些AI工具的用户在社会判断到基本认知等领域变得越来越偏见。”

“重要的是,我们还发现,与准确的AI互动可以增强人们的判断,因此,精炼AI系统以尽可能无偏见和准确是至关重要的。”

Sharot教授补充道,“算法开发者在设计AI系统方面肩负巨大责任,因为AI偏见的影响可能对我们日益AI驱动的世界产生深远的影响。”