研究人员开发了一种原型耳机,让用户能够在一个可定制的声场里听到3到6英尺范围内的声音。外部声场的声音减少约49分贝,即使它们比内部声音更大。
设想一下这个场景:你在工作中佩戴降噪耳机以减少背景噪声。当同事走到你桌前问问题时,你可以清楚地听到他们,而无需摘下耳机。同时,办公室另一头的谈话声几乎可以忽略不计。又或者想象你在一个繁忙的餐厅里,你可以听到和你一起用餐的每一个字,而周围的喧嚣则被压低。
华盛顿大学的一个研究团队成功创造了一个耳机原型,可以建立这种“声场”。通过将人工智能算法与耳机设计相结合,用户可以在可定制的3到6英尺半径内听到声音,而外部声音的平均分贝降低为49分贝(这大约是吸尘器和树叶沙沙声之间的音量差距)。这项技术确保即使更大的远处声音与声场内的声音相比也会变得安静。
研究人员于11月14日在自然电子学上分享了他们的结果。他们已将这款概念设备的代码提供给其他人进一步开发。此外,研究人员正在着手成立一家初创公司,以商业化这项创新技术。
“人类在评估声音距离时面临挑战,尤其是当面临多个噪声源时,”华盛顿大学保罗·艾伦计算机科学与工程学院的高级作者和教授Shyam Gollakota解释道。“在像餐厅这样的嘈杂场所,我们专注于周围人的能力会受到影响,这使得直到现在在耳机中创造声场变得困难。我们的人工智能可以学习区分房间中每个声音源的距离,并在设备本身上实时处理这些数据,仅需8毫秒。”
研究团队在标准降噪耳机的基础上组装了原型,将耳带配备了六个小麦克风。一个在耳机上附带的紧凑型计算机运行着神经网络,监测每个麦克风接收到的声音。如果检测到声场外的声音,系统会抑制这些声音,同时增强并略微放大声场内的声音(鉴于降噪耳机自然会让一些声音过滤通过)。
“之前,我们开发了一种智能音响系统,利用分布在桌子上的麦克风,假设距离越远就越能够收集声音距离信息,”Gollakota分享道。“然而,我们开始质疑这一假设。我们发现可以仅通过耳机上的麦克风实现预期的‘声场’,并且能够实时做到这一点,令我们非常意外。”
为了在不同环境中训练其系统以创建声场,研究人员意识到需要一个基于现实世界声音距离的数据集,但这一数据集并不存在。为了获取这些数据,他们将耳机放在一个人形模型头上,使用一个机器人平台旋转头部,同时一个移动的扬声器播放来自不同距离的声音。团队通过这个人形模型系统和在办公室和家中22个不同的室内环境中进行的人类用户实验收集信息。
研究人员确定了系统有效性的两个关键原因。首先,佩戴者的头部充当声音的反射器,帮助神经网络辨别来自不同距离的声音。其次,声音——例如人声——包含多种频率,而这些频率从其源头传播时经历不同的相位。研究人员相信,他们的人工智能算法比较这些频率的相位,以评估任何声音源(例如有人在说话)的距离。
虽然像苹果的AirPods Pro 2这样的耳机可以放大用户面前的人的声音,同时减少一些背景噪声,但它们是通过追踪头部位置并增强来自特定方向的声音来实现的。这种方法并不调整距离,因此无法有效增强多个发言者的声音,并减少来自目标方向的更大声音,当用户转向其他方向时,效果会减弱。
目前,该系统仅设计用于室内使用,因为在户外捕获干净音频以进行训练颇具挑战性。接下来,研究人员旨在将这项技术适应于助听器和降噪耳塞,这需要对麦克风的放置进行新的调整。
参与这项研究的其他人员包括华盛顿大学艾伦学院的博士生Malek Itani和Tuochao Chen;微软的高级研究员Sefik Emre Eskimez;以及AssemblyAI的研究主任Takuya Yoshioka。这项研究得到了Moore Inventor Fellow奖、华盛顿大学CoMotion创新基金的资金支持,以及国家科学基金会的资助。