康奈尔大学未来交互智能计算机接口 (SciFi) 实验室的研究人员开发了声纳眼镜,可以读取用户的无声语音。
这是一种看似普通的现成眼镜,称为 EchoSpeech——一种无声语音识别界面,它使用声学感应和人工智能,根据嘴唇和嘴巴的运动连续识别多达 31 条未发声的命令。
研究人员说,这种低功耗、可穿戴的界面只需要几分钟的用户训练数据,就可以识别命令并可以在智能手机上运行。
“对于无法发声的人来说,这种无声语音技术可能是语音合成器的绝佳输入。它可以让患者重新发声,”首席研究员张瑞东谈到该技术的进一步发展的潜在用途时说。
EchoSpeech 眼镜配备了一对麦克风和比橡皮擦还小的扬声器。这有助于可穿戴式AI驱动的声纳系统在面部发送和接收声波并感知嘴部运动。然后,深度学习算法实时分析这些回波剖面,准确率约为 95%。
这种声学传感技术消除了对可穿戴摄像机的需求。由于音频数据比图像或视频数据小得多,因此需要较少的带宽来处理,并且可以通过蓝牙实时传输到智能手机。
“而且由于数据是在你的智能手机上本地处理的,而不是上传到云端,”康奈尔鲍尔斯 CIS 信息科学教授兼合著者 François Guimbretière 说,“隐私敏感信息永远不会离开你的控制。”
在目前的形式下,EchoSpeech 可用于在语音不方便或不合适的地方通过智能手机与他人交流,例如嘈杂的餐厅或安静的图书馆。当前版本的眼镜可提供 10 小时的声学感应电池续航时间,而摄像头则为 30 分钟。
今年以来,人工智能再次引发极大关注。几年前,专家们还在探讨如何让人工智能更加准确地理解人的意图,并与人进行多轮对话。曾经,让人工智能读懂唇语,还只是科幻电影中的桥段。如今,这些都在快速变为现实。
上一篇:
两天时间又通了一遍仙剑四 (╥﹏╥)下一篇:
HR大群光明正大讨论裁员不给补偿方法,被人截图后集体声讨曝光者