车载语音概念(车载语音的下半场)

加入高工智能汽车行业群(自动驾驶行业4群,车联网智能座舱2群,智能商用车行业群),加15818636852,并出示名片,仅限智能网联软硬件企业、汽车零部件及OEM厂商。

车载语音概念(车载语音的下半场)(1)

现在在汽车行驶过程中,通过唤醒车载语音助手实现导航、播放音乐、开关车窗等这些的简单操作对用户已经没有多少吸引力了。

或许是受到智能音箱、手机、机器人的语音交互功能带来的人性化、趣味性体验的影响,又或是在自动驾驶、智能汽车风潮的大力推动下,用户从最初对车载语音只要求能听到听懂就好变成希望它能够像真正的人工智能助手一样,不只是一问一答的简单人机对话,而是真正倾听他们的需求,给与情感上的反馈。

这样的要求好像对于现在发展还不够健全的车载语音交互来说,有点困难。当我们暂且抛开车载语音交互,单纯谈论语音交互的应用,会发现它其实已经在其他的场景中得到了较为成熟的应用。

比如智能家居就是一个很明显的例子,诸如国外的谷歌、亚马逊、苹果,国内的百度、小米等公司他们都可以使用旗下的智能音箱或是在手机端下载APP来实现对家居、电器下达语音指令实现语音控制。

一般讨论的语音交互包括三个模块,语音识别ASR(将声音转化为文字)、自然语言处理NLP(机器理解人类表达的意思,并给与反馈)和语音合成TTS(将文字转化为声音)。

语音识别对于国内外具有一定技术研发实力和积累的公司已经不是一个紧迫的问题,真正现在困扰供应商和用户的是自然语言处理部分,即语义理解,不仅是识别到用户的语音指令,更重要的是理解用户指令的含义。

比如对Siri说,今天下午五点帮我预约XX餐厅,这句话识别起来比较容易,但Siri却无法理解该句话表达的意思,因为它含有语义上的歧义。语音交互其实最终也是消解歧义和模糊的表达,来达到理解对话目的和用途。

智能化和情感化的车载语音

车载语音也遵循同样的原理,只是发展困境显然比其他类型终端的语音交互艰难得多。汽车无人驾驶级别的不断递推,也是车载语音交互持续进化的一个过程,它们是一个相辅相成的关系。

2000年宝马推出了第一款具有语音识别的汽车,当时这款汽车语音识别能力非常有限,根本无法满足用户车内的交互需求,之后随着人工智能、AI、大数据、深度神经网络的发展,车载语音也实现了一次华丽的蜕变。

今年9月份,外媒报道,新梅赛德斯-奔驰A级车的车载语音角将很快可以实现驾驶员与汽车的深度融合,利用本地数据和云端数据解锁更多丰富的场景和功能。例如,当用户饿了,可以向语音助手寻求有关餐厅的建议,包括食物种类、餐厅风格等个性化需求。

这其实才是用户对车载语音真正的期待——向智能和情感方向的演进。在这方面科幻电影倒是发挥的淋漓尽致,在电影《Her》中,主人公西奥多爱上了人工智能系统OS1的化身萨曼莎,萨曼莎是基于深度学习算法而形成的,虽然是个虚拟的女友,但她对人类情感的洞察却丝毫不亚于真实的人类,不仅可以精确地捕捉到主人公语言表达的意图,还能分析出当时的情绪状态和变化。

对车载语音来说这种智能和情感是如何体现的呢?

试想一个场景:在下班开车过程中,对车载语音助手说一句,“XX,下班了来首音乐”,基于对下班这个词的语义理解,它推测出用户现在需要的是舒缓、安神类的歌曲,而不用再次询问用户,播放什么歌曲。减少了无意义的对话,增加了交互和沟通的效率。

语音交互是车载人机交互的主入口

人机交互的本质是人与机器的交流,而交流必定是双方之间有互动有反馈,人对机器发出指令,机器也要能在极快的时间内做出回应,这才称得上是优质的人机交互体验。从物理按键、触控、语音交互、手势控制,车内交互方式的更迭与共存是一个体验升级的过程。

车载语音能够不断的进化变得越来越懂用户,这与它自身具有优势条件密不可分。车内的交互大部分时间都处于汽车行驶状态下,安全驾驶成为交互的首要考虑选项,这也是为什么在中控屏幕上采用触控而被大家吐槽。

因为触控意味着用户需要频繁低头看屏幕来确认自己的操作是否正确,毕竟在中控屏上实现盲操作还是一件挺困难的事情。虽然对于部分经验丰富的老司机来说,使用物理按键能够实现部分功能的盲操作,但绝大多数的普通司机并没有掌握这一项技能。

与之相对比,语音控制就成为了车内交互的首选方案。它只需要用户发出语音指令就可以完成相关操作,不用低头、不用动手,全程确保驾驶员的注意力集中在驾驶上。

此外,语音交互增加了用户与汽车之间的互动,并且这一互动是具有趣味性和新鲜感的,它能够用更加人性化的方式给予用户反馈,而不是冰冷的机械触感。这也契合了近年来智能座舱的内涵,让汽车从出行工具转变为智能的生活平台。

现阶段已经有很多科技公司在语音交互上取得了新的突破,在2018年Google I/O 大会上,展示了谷歌的语音助手Google Assistant是如何模仿人类与电话另一端的人工客服人员进行问答交流。

有意思的是,语音助手在流畅的表达了自己的意图后,还模仿人类的口语,发出了enmm这种表示停顿的语气,当人工客服在回答“稍等,我查询一下”之后,谷歌语音助手试图去理解这句话的含义,发出了表示疑问的嗯哼。

尽管这种“高仿人类”的人机对话还无法进行商业落地,但它清晰地向外界传输了一个信号——未来的语音交互应该具备什么样的能力。

另一大语音科技巨头亚马逊旗下在今年9月发布了车载语音产品Echo Auto,将旗下的语音助手Alexa整合到汽车中,拓展出行使用场景,为驾驶员提供更加自然、流畅的语音交互体验。

Echo Auto不仅可以播放音乐、查看新闻、打电话、设提醒、管理日历等常规操作,还能够与智能家居相连接,行驶过程中可以命令Alexa关闭家中的电器或是关闭车库大门等。

不管是技术发展的趋势,还是用户的需求导向,可以肯定的是,未来的车载语音交互必定是在人工智能浪潮的推动下朝向更智能、更人性的方向迈进。


# 活动推荐 #

车载语音概念(车载语音的下半场)(2)

【活动报名链接:pki8t5f69o5ngrvt.mikecrm/lO1HrWd 】

(微信搜索“高工智能汽车”公众号,关注更多智能汽车相关原创文章)

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页