人工智能技术越来越多地被用于在线和现实生活中监控和跟踪个人,但这些工具伴随着重大风险。牛津互联网研究所、帝国理工学院和鲁汶大学的研究人员创建了一种新的数学模型,可以增强我们对与人工智能相关风险的理解,并支持监管机构保护个人隐私。这项研究已在《自然通讯》中公布。
人工智能技术越来越多地被用于在线和现实生活中监控和跟踪个人,但这些工具的有效性伴随着重大风险。来自牛津互联网研究所、帝国理工学院和鲁汶大学的研究人员推出了一种新的数学模型,旨在提高对与人工智能相关风险的理解,同时帮助监管机构确保个人隐私得到保护。这项研究的结果在《自然通讯》中发布。
该方法提供了一个坚实的科学框架,以评估身份识别技术,特别是在处理大量数据时。例如,它可以用于评估广告代码和微妙跟踪器如何使用最少的信息(如时区或浏览器设置)准确识别在线用户,这种技术被称为“浏览器指纹识别”。
牛津大学牛津互联网研究所的主要作者、资深研究员Luc Rocher博士表示:“我们的方法提供了一种新颖的视角来评估与数据传播相关的再识别风险,同时还允许在关键的高风险情况下评估现代身份识别方法。在医院、人道救助行动或边境控制等环境下,这些影响是巨大的,准确可靠的识别至关重要。”
该方法利用贝叶斯统计来理解个体在小规模下的可识别性,并可以预测较大人群的识别准确性,比之前的策略有效性提高多达十倍。这允许在不同的上下文和行为中对各种数据识别技术如何在规模上运作进行增强评估。因此,这可以阐明为什么某些人工智能识别方法在小规模研究中表现出高准确性,但在现实场景中却未能正确识别个人。
这些发现的时机至关重要,因为基于人工智能的识别技术的崛起对匿名性和隐私提出了重大挑战。人工智能工具例如正在被测试用于通过声音在在线银行中自动识别个人,通过眼睛在人道救助工作中识别个人,或者通过面部在执法活动中识别个人。
研究人员认为,这种新模型可以帮助组织在充分利用人工智能技术的优势与保护个人信息的必要性之间保持平衡,从而使与技术的互动更加安全和可靠。他们的方法在大规模部署前识别潜在漏洞和改进领域,这对于确保安全性和准确性至关重要。
共同作者、帝国理工学院数据科学研究所副教授Yves-Alexandre de Montjoye表示:“我们新开发的扩展法则首次提供了一个有根有据的数学框架,以评估身份识别技术在规模下的表现。理解身份识别的可扩展性对于评估与这些再识别技术相关的风险至关重要,包括遵守当代全球数据保护法规。”
Luc Rocher博士总结道:“我们认为我们的研究是朝着建立原则性方法,评估越来越先进的人工智能技术所带来的风险以及在线识别个人痕迹本质的重要进展。我们期待这项工作能大大帮助研究人员、数据保护官员、伦理委员会和其他从业人员,旨在在为研究目的分享数据与保护患者、参与者和公民隐私的必要性之间保持平衡。”