“嘿,Siri”,语音助理背后隐藏的努力与心思

作者 | 发布日期 2017 年 10 月 19 日 14:52 | 分类 Apple , 人工智能
dwayne-johnson-and-apple-made-a-siri-movie-624x369

苹果今天在公司机器学习博客发布一篇新文章,详细介绍了硬件、软件和网络服务如何结合,在最新 iPhone 和 iPad Pro 达到“嘿,Siri”功能。



苹果在运动辅助处理器整合了非常小的语音辨识设备,这个设备一直保持执行,并等待用户说出“嘿,Siri”。当辨识出这两个单词后,Siri 会将后面的语音处理为指令或查询。语音辨识侦测设备采用深度神经网络将用户语音指令转换为概略分散,并使用时间整合计算“嘿,Siri”的信度分数。

如果分数够高,Siri 就会被触发,并开始处理用户的指令或查询。如果分数超过最低阀值,但没有达到触发阀值,设备会在几秒钟进入“敏感型态”,这样当用户再次重复“嘿,Siri”时更可触发。敏感型态的加入大大改善了系统的可用性,同时还能避免陌生人误开“嘿,Siri”。

为了减少预设是意外触发“嘿,Siri”,苹果邀请用户起始化“嘿,Siri”时,需要用户连续说 5 次这两个单词。在使用过程中,苹果会记录不同环境远近触发“嘿,Siri”的情况,比如在厨房、车上、卧室及参观时等。想了解更详细的“嘿,Siri”,可参考苹果原文

(本文由 MacX 授权转载;首图来源:影片截图)

如需获取更多资讯,请关注微信公众账号:Technews科技新报

MacX

苹果网 www.MacX.cn 创建于 2005 年 2 月16 日。在这里您会看到最专业最及时的业内新闻播报和点评,有购买意向的您会在这里得到最适合您的推荐。
未经许可,任何媒体、网站或个人不得复制、转载、或以其他方式使用本网站的内容,违者必究。
关键字: , , ,

直接使用新浪微博发表评论

 

发表评论