一个研究团队开发了一种自驾车间间接分享路况知识的方法,使得每辆车即使在路上很少相遇也能从其他车辆的经验中学习。
由纽约大学坦登工程学院领导的研究团队开发了一种自驾车间间接分享路况知识的方法,使得每辆车即使在路上很少相遇也能从其他车辆的经验中学习。
这项研究于2025年2月27日在人工智能促进协会大会上发表,解决了人工智能中的一个持续问题:如何帮助车辆相互学习,同时保护它们的数据隐私。通常,车辆只在短暂的直接接触中分享它们所学到的,限制了它们适应新情况的速度。
“可以把它想象成为自驾车创建一个共享经历的网络,”监督该研究的刘勇说,他是其博士生王小宇的导师。刘是纽约大学坦登工程学院电气与计算机工程系的教授,同时也是其电信与分布式信息系统先进技术中心和纽约大学无线研究中心的成员。
“一辆只在曼哈顿驾驶的汽车现在可以从其他车辆处了解布鲁克林的路况,即使它自己从未去过那里。这会让每辆车变得更加智能,更好地准备应对它们没有亲身经历的情况,”刘说道。
研究人员称他们的新方法为缓存式分散联邦学习(Cached-DFL)。与传统的联邦学习依赖中央服务器协调更新不同,Cached-DFL使得车辆能够在本地训练自己的人工智能模型,并直接与其他车辆分享这些模型。
当车辆彼此距离在100米以内时,它们使用高速设备对设备通信交换训练好的模型,而不是原始数据。至关重要的是,它们也可以传递之前接收到的模型,从而使信息的传播远远超出直接的互动。每辆车维持高达10个外部模型的缓存,并每120秒更新其人工智能。
为了防止过时信息影响性能,系统会根据时效阈值自动删除旧模型,确保车辆优先考虑最新和相关的知识。
研究人员通过使用曼哈顿的街道布局作为模板进行计算机模拟测试了他们的系统。在实验中,虚拟车辆以每秒大约14米的速度沿着城市的网格移动,根据概率在交叉口转弯,有50%的几率继续直行,均等的机会转向其他可用道路。
与常规的分散学习方法不同,当车辆不频繁相遇时其表现不佳,Cached-DFL允许模型通过网络间接传播,类似于在延迟容忍网络中信息的传播,这些网络旨在通过存储和转发数据,直到可用连接为止,以处理间歇性连接。通过充当中继,车辆可以传递知识,即使它们从未亲自经历某些情况。
“这有点像信息在社交网络中的传播,”刘解释道。“现在设备可以传递它们见到的其他设备的知识,即使那些设备从未直接相遇。”
这种多跳转移机制减少了传统模型共享方法的局限性,这些方法依赖于即时的一对一交换。通过允许车辆充当中继,Cached-DFL使得知识在整个车队中更有效地传播,而不是仅限于每辆车的直接互动。
该技术让联网的车辆能够在保护数据隐私的同时了解路况、信号和障碍物。这在城市中尤其有用,因为汽车面临的条件多样,但很少有足够长的时间进行传统学习方法。
研究表明,车辆速度、缓存大小和模型过期影响学习效率。更快的速度和频繁的通信提高了结果,而过时的模型降低了准确性。基于群组的缓存策略通过优先考虑来自不同领域的多样化模型而不仅仅是最新模型,进一步增强了学习。
随着人工智能从集中服务器转向边缘设备,Cached-DFL为自驾车提供了一种安全高效的集体学习方式,使得它们更加智能和自适应。Cached-DFL还可以应用于其他联网的智能移动代理系统,如无人机、机器人和卫星,以实现鲁棒高效的分散学习,迈向群体智慧。
研究人员已公开了他们的代码。更多细节可以在他们的技术报告中找到。除了刘和王外,研究团队还包括斯托尼布鲁克大学的熊国军和李健,以及纽约技术学院的曹侯伟。
该研究得到了多个国家科学基金会资助,韧性与智能下一代系统(RINGS)计划的支持——其中包括来自国防部和国家标准与技术研究所的资金,以及纽约大学的计算资源。