拉斯维加斯著名贝拉吉奥喷泉旁发生枪击事件,2人死亡

  拉斯维加斯著名的贝拉吉奥喷泉附近发生枪击事件,两人死亡 根据警方的消息,一名与拉斯维加斯著名贝拉吉奥喷泉附近发生的致命枪击事件有关的嫌疑人已被逮捕。   41岁的曼努埃尔·鲁伊斯于6月9日自首,因涉嫌在著名喷泉前向两名受害者开枪而被拘留,拉斯维加斯大都会警察局(LVMPD)表示。…
技术对真实性的争夺:应对人工智能生成文本的兴起

对真实性的争夺:应对人工智能生成文本的兴起

今天,各种商业工具在识别机器生成文本方面拥有令人印象深刻的能力,声称准确率高达99%。但这些说法是否过于乐观?RAID(强健人工智能检测基准)表明,许多现有的检测器容易被误导,从而设定了AI检测的一个新的挑战性标准。

在过去的四年里,机器生成的文本巧妙地欺骗了人类。自2019年GPT-2问世以来,大型语言模型(LLM)在创作各类书面内容方面显著提升,包括故事、新闻文章和学生论文。因此,人们越来越难以认出他们所接触的文本是由机器生成的。虽然这些LLM可以帮助节省写作过程中的时间并增强创造力,但它们的能力也可能导致滥用和不良影响,这些影响已经在各种信息空间中显现出来。检测机器生成文本的挑战进一步加剧了相关风险。

研究人员和企业为了增强检测能力,采用的一种方法是利用机器学习模型。这些模型能够识别细微的语言模式和语法结构,以区分LLM生成的内容,从而超越人类的判断。

尽管许多商业检测器声称在识别机器生成文本方面拥有卓越的成功率,并声称准确率为99%,但这些说法可能并不如看起来那样可靠。计算机与信息科学系的教授Chris Callison-Burch和他的小组的博士生Liam Dugan试图通过他们最近在第62届计算语言学协会年会上发表的论文来调查这些说法。

Liam Dugan在曼谷的会议上介绍了RAID。

“随着检测机器生成文本的技术发展,绕过这些检测器的方法也在发展,” Callison-Burch指出。“这类似于一场军备竞赛,努力实现强健的检测器是至关重要的,但现有选项有许多缺点和漏洞。”

为了理解这些局限性并为创建有效的检测器制定前进的道路,研究团队开发了强健人工智能检测器(RAID),该数据集包含超过1000万条文本,包括食谱、新闻文章、博客帖子,以及混合的AI生成和人类生成的内容。RAID建立了第一个标准化基准,以评估当前和未来检测器的检测能力。他们还推出了一个排行榜,提供对所有使用RAID评估的检测器的公正评估。

“排行榜在计算机视觉等多个机器学习领域的成功中已被证明是至关重要的,” Dugan解释道。“RAID基准作为准确检测AI生成文本的首要排行榜。我们希望这个排行榜能促进这一快速发展的领域的透明性和高质量研究。”

Dugan已经观察到他们的研究对开发检测工具的公司的影响。

“在我们论文和RAID数据集发布后不久,我们注意到下载量显著增长,而AI文本检测领域知名公司Originality.ai与我们联系。他们在一篇博客中采纳了我们的研究成果,在我们的排行榜上对他们的检测器进行排名,并开始使用RAID来发现之前被忽视的检测工具的弱点。看到社区对我们工作的认可,以及大家共同努力提高AI检测技术,令人振奋,”他表示。

但现今的检测器是否符合其责任?根据RAID的发现,不是很多检测器的有效性如其所称。

“接受ChatGPT训练的检测器通常无法识别来自其他LLM(如Llama)的输出,反之亦然,” Callison-Burch解释道。“那些专门训练于新闻内容的检测器在应用于机器生成的食谱或创意作品时往往失败。我们发现许多检测器在非常特定类型的内容上表现良好,这些内容类似于其训练材料。”

检测工具仅能在AI生成文本未经更改或伪装的情况下识别出该文本;如果文本被修改,当前的检测器很难一致地将其识别为AI生成。

这些检测器的缺陷带来的风险不仅仅是简单的无效——它们可能与创造文本的AI技术一样危险。

“如果学术机构依赖于狭窄聚焦的检测器来抓住使用ChatGPT完成作业的学生,他们可能错误地控告无辜的学生作弊。同时,他们可能忽视那些使用不同LLM作弊的人,” Callison-Burch警告道。

此外,阻碍检测器能力的不仅仅是训练水平的高低。研究团队探讨了对抗性策略如何通过用视觉相似的符号替代字母来轻易地误导检测器,使机器生成的文本能够躲避审查。

“我们的发现揭示了用户可能采取的多种修改,以逃避所评估检测器的检测,” Dugan表示。“一些简单的策略,如添加额外的空格、用符号替换字母,或对几个术语使用替代拼写或同义词,能够使检测器失效。”

将特定字母替换为形似的符号只是削弱当前检测器的对抗性方法的一个例子。

该研究得出的结论是,虽然现有检测器不足够强健以用于可靠的社会使用,但通过广泛、多样和共享资源对检测器进行开放评估,对推动检测工作取得进展和信心至关重要。最终,提高透明度将导致开发出更具韧性的检测器,适用于各种场景。

“在公共部署扩展时,检测的鲁棒性测试至关重要,” Dugan强调。“同时还要认识到,检测是更广泛、更重要目标的一部分:防止通过广泛传播AI生成文本造成的伤害。”

“我的关注点在于减少大型语言模型带来的无意伤害,至少提高对这些风险的认识,以便人们能够更明智地处理信息,”他进一步阐述。“在信息共享和消费领域,理解文本是如何以及在何处生成的将变得越来越重要,而这篇论文仅仅是弥补科学界和公众理解之间差距的一种方法。”