相信很多消息灵通的果粉们,在这次百度输入法7.3新版本上线更新后,得到了一个大大的惊喜——iPhone终于可以使用语音输入,并且可以直接使用无需复制粘贴。
(iOS智能语音输入 - 演示视频)
iOS系统的不开放性与不兼容性众所周知,这让技术们愁白了头,如何让iPhone用户有更好的体验成为一大课题。果粉们也表示理解,毕竟技术这种东西不是拍脑门出来的,而是血汗一点点磨出来的。
这次,百度手机输入法7.3的发布让果粉们狠狠的感动了一把,足以可见百度手机输入法从未因为iOS系统这个难以跨越的鸿沟而放弃版本的技术升级。
百度手机输入法7.3版本一上线,微博很快就被 “iOS终于可以用语音输入”给刷爆了
今天,百度手机输入法突破了iOS系统技术壁垒,iPhone手机也可以顺畅、方便的使用语音输入功能,这对果粉来说是切实的一大福音。
但是,百度手机输入法并未止步于此,我们在最新百度输入法7.3版本上还发现了很多亮点功能:
输入人名是最累人的活儿,这也是为什么大家在聊天时喜欢叫昵称,因为方便简单,但是总会有很多需要输入全名的时候,这就会出现输错字的尴尬场景。
基于这样的情况,百度手机输入法上线人名识别功能。人名识别功能会在你允许通讯录识别之后,在语音输入人名时可以通过通讯录的识别显示对的字,这样就解决了人名错字的尴尬状况。
iOS自带的语音识别功能识别中文的能力较弱,经常会出错,且没有断句、标点,语义不清晰。
百度输入法欧采用智能断句模型以及自动标点预测,这是基于海量语料训练的神经网络语言模型,实现的标点符号自动预测。
为了iOS用语语音输入更加顺畅便利,也为了提升用户的体验感,百度手机输入法在使用场景上极为关注用户的诉求点。
比如,用户在最初使用语音输入时,会有几大担忧。
一,在外界嘈杂的时候是否能够准确识别,毕竟人们总是要出去吃饭、逛街、聚会,这样的场景下语音识别的准确性若是降低,会大大减少可用性。
二,什么样的口音都能识别吗?普通话不是人人都精通,总不能为了使用语音输入,就特意去练习普通话。
用户更多关注语音输入准确率的问题,针对这个,百度手机输入法使用的是基于DeepSpeech2平台的优化声学模型训练,融合Sortagrad预训练和Fixlabel预训练的语音识别声学模型。声学模型可以确保语音输入的准确性,也就解决了嘈杂环境下的语音识别的准确度问题,为了识别方言和口音,百度手机输入法采用的是分地域声学模型,为每个省部署单独的声学模型,基于全局声学模型采用自适应模型训练方式训练声学模型。
由始至终,百度手机输入法都秉承着升级用户体验感的核心,从细节出发,落脚于场景体验。所以才在今天,突破了iOS技术壁垒,让iOS也可以顺畅、方便的使用语音输入功能。日后,为了安卓用户与iOS更好的体验,必将以完全同步iOS与安卓版的功能为目标,不让系统差别阻碍良好的输入法体验。