一组研究人员通过增加更多数据,提高了人工智能在单词级别识别手语的准确性。这些数据包括有关手势者手部和面部表情的信息,以及显示手部相对身体位置的骨骼细节。
在全球范围内,不同国家基于其特定的交流方式建立了独特的手语,导致每种语言都有数千个独特的手势。因此,学习和理解这些语言可能相当困难。然而,来自大阪市立大学的研究团队在提高基于人工智能的手势翻译成单词的准确性方面取得了显著进展,这被称为单词级手语识别。
之前的方法重点关注抓住手势者的整体动作。然而,这些方法主要由于手型微妙差异及其相对于身体的不同位置而存在准确性问题,这可能导致不同的含义。
来自信息学研究生院的副教授井上胜文和岩村正和与印度理工学院鲁尔基的研究人员联合,推动了人工智能的识别能力。他们通过包括手部和面部表情的信息以及手部定位的骨骼数据,丰富了关于手势者上半身运动的现有数据。
井上教授表示:“与以往的方法相比,我们提高了单词级手语识别的准确性10-15%。另外,我们相信我们的方法可以应用于各种手语,这将增强与许多国家的聋人或听力障碍人士的沟通。”