WIV 大咖分享 | 科大讯飞副总裁刘俊峰:AI助力数字出行,打造智能移动空间

发表时间:2022-06-27 发布者:世界智能汽车大会

《AI助力数字出行,打造智能移动空间》

 从未来的智能汽车上一定有三个重点升级的支柱点:

从交互的体验上,从单一的语音交互到更自然的、多模态的交互:

     第一,智能交互。从语音交互、命令词到随意说到可以免唤醒到可以分座、四音区。科大讯飞从多模态、情感化和个性化这些地方有一些非常明确的方向和有标志力的突破。比如说,可以不用唤醒,用户只要跟机车系统说话,它就能分清楚命令、还是打电话。

     第二,车上一个人性化的形象,我更愿意称它就是代表这个车。我把它称作是用户的大黄蜂,除了不能变形,其他都能做,可以更懂用户,这样一个人设是可以真正让用户与车有情感化连接在一起。

     第三,车上的麦克风、Camera,在这个感知的过程里,智能车机可以知道用户的一举一动、一言一语,从交互、表达,甚至可以提前跟用户说用户想要什么。这个过程其实就是多模态。基于对于人的感知全面性能够形成主动交互的多模态。

2

     汽车联网后,作为一个服务连接的通道,能够将很好的服务推荐车主和乘客。终身保证生命周期之内所有与车、车厂相关的方方面面都得到全链条地保证:

     第一,从整个购车的过程到使用车的过程再到车辆进入到下一个环节,在这一个链条里,主机厂有着非常丰富的内部生态,科大讯飞将与车厂一起把这些内部生态的价值挖掘出来。

     第二,比如,在车辆出现了一些故障灯信号时,用户能否知道这样一个信号到底代表什么、到底由什么原因引起的、用户应该怎么解决它,怎么让地面上最近的一个服务机构第一时间联系到这个用户,同时帮他定位好了维修位置和定好相关的配件。

     第三,再比如,在购车服务环节,消费者到了4S店,往往销售顾问跟消费者讲得最多的就是价格,而主机厂做了那么长时间的汽车,在一辆汽车上花了那么多研发费用,更希望介绍更多的是这个车有什么特点、哪块比其他对手优秀。

3

     车上的声音做成完整闭环的一套智能化体系。这个领域是汽车的智能生产,一个车的声音非常多,包括车内、车外、与人相关的、与车无关的,这些地方也到了智能化要真正做跨越的时候了:

     第一,2021年,科大讯飞在广州开了一个智能音频系统的发布会,这套系统要解决三大问题:一是能否用一个比较低廉的成本让整个车上听的感觉达到最好。


     因为原来很多做功放、做音响的就是用品牌来盈利的,这些企业有一些核心基础,但是,希望能够在一个合适的载体上用充分灵动的算法、长期可升级的技术,让车上的听感变得越来越好。比如说可以在放古典的时候用古典的音频调节算法,放摇滚的时候可以用摇滚的音频调节算法。

     其次,要解决车内多座位、多音区交互的问题。


     比如,在导航时,如果后面有人说话,驾驶员可能会听不清;如果后面的人电话响了,这时候导航会出现明显的冲突;在车内有4个位置、6个位置,多人在车内时,科大讯飞希望整个声音可以被分区。A座专注听导航,B座可以打电话,后排座给孩子看动画片,这样的车内的听感享受也是以人为核心的交互的突破。


     车的各个发声的单元现在都是分散的,包括屏幕、仪表、蜂鸣器、安全带、多媒体、车外的模拟声浪,这些都是由不同的控制单元去做配置的。


     从车的声音管理的闭环上,希望能够随着智能化的场景,随着地点、位置、场景、时间轴、驾驶人的不一样,真正能够表现出丰富多彩、因人而异的声学空间。


4

     科大讯飞的视觉服务能给自动驾驶带来更安全的体验,车上既然戴了那么多传感器,首先解决让车比人看得更多、反应更多。在自动驾驶还没有到达真正全链化配置时,其实每台车都需要这样一个功能


     车内的交互,要基于人的感知来进行更多的提醒和交互。基于多模态的交互是一个摄像头再加上多个麦克风要合理结合才能够真正实现的。


     还有一些车内交互的主动意图的判断。比如,车内A、B座分别有两个人,两个人同时发出声音的时候,车内放背景音乐的声音怎样可以做到自动变小一点?类似这样一些交互场景都是基于传感器、算法、以用户为核心的产品理念逐步形成的,希望这样的产品和体验能带给更多的车企和用户。


     感谢大家!



>BACK<