苹果解释 HomePod 如何精确识别用户指令

浏览 144 次 / 0条评论 / 软件分类 [ 业界头条 ]
在苹果机器学习博客的最新一篇文章中,苹果音频软件工程团队解释了智能扬声器语音检测遇到的挑战。
" N: T: |: G4 I在苹果机器学习博客的最新一篇文章中,苹果音频软件工程团队解释了智能扬声器语音检测遇到的挑战,以及如何使用在 HomePod A8 芯片上运行的机器学习模型来帮助提高远场精度。/ l4 f5 M4 z9 c9 `( o

4 n* T. P! ^0 \6 K- O1 X: v/ ^# B( r9 ?; Y0 [# l
HomePod 必须能够在播放嘈杂的音乐时保持识别精度,即使在说话的人离它很远时,也能够精确识别命令,将用户的指令和房间内的其他声音隔离开来,比如电视或者嘈杂的设备等等。3 q1 k! b+ E( Z. d: u
和以往一样,这篇博文的目标读者是其他工程师和科学家,其中使用了非常专业的语言。文中的要点是 HomePod 使用自定义多通道过滤来消除回声和背景噪音,而非监督学习模型则只关注当房间里有多人说话时说“嘿,Siri”的人。
9 Z8 w2 l0 R- O) K  y0 k* w这篇博文有很多数学公式来解释这个系统的机制,以及他们成功的测试结果。苹果公司说,多通道声音处理器只使用了 HomePod 内部的 A8 芯片不到 15% 的单核性能,这一点很重要,因为该团队一直在优化能源效率。
. S" l5 @/ l5 a4 g: a! z9 ?  欢迎关注苹果园网官方微信:苹果园网(zixunyun) 汇聚最新Apple动态,精选最热科技资讯。
菁菁苹果园提供技术支持,有任何问题可随时联系微信coolgps 或者 QQ41360481.

已有 0 个人发表评论

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册  

本版积分规则

加入VIP会员
快速回复 返回列表 客服中心





快速回复 返回顶部 返回列表