无障碍说明

腾讯叮当陈谦:3米距离唤醒率达到95%

腾讯科技讯(卜祥)11月8日下午,在腾讯全球合作伙伴大会期间,腾讯智能平台中心总经理陈谦带着一款智能助手产品腾讯叮当亮相。“腾讯叮当提供高质、完整、开放的人工智能服务,帮助硬件设备快速获得听觉和视觉的交互能力”,陈谦介绍。

一个语音助手首先要听得清。在唤醒和语音识别上,陈谦称腾讯叮当的3米唤醒率达到95%以上,语音识别正确率达到96%以上。对于一些生活中的常见场景,例如GPS导航和音乐,在数据和算法上做了大量针对性的优化,力求在特定场景下做到最好体验。

举一个例子可以清晰明白腾讯叮当的运用场合。陈谦演示了一段视频:要求机器人帮忙拍照,只需一个语音口令,机器人就能根据你们的声源方向来转头,根据它摄像头里的图像识别来调整镜头焦距,甚至还能根据预存的头像来识别出都是谁,全程自动帮你们完成拍照。我们一起看下演示视频。在机器人方向上,腾讯叮当正在与优必选公司合作,一起打造机器人。

在听得清之后是听得懂。腾讯叮当的语义理解拥有千万级的语料标注、海量的知识图谱,深度融合了语音识别来提升了语义理解的纠错能力,在完善的用户画像基础上能够建立起个性化语义。

听得懂之后,是要答得上。腾讯叮当建设了过百个领域服务,覆盖各类场景,在广度和深度上满足用户需求。例如在内容消费场景,配以最新、最全的音乐、自制的高品质音频新闻。

上面机器人帮助拍照只是腾讯叮当应用的一个例子。人工智能产品如何与人尽快融洽地交流,关系到未来行业发展的深度和广度。因此,AI产品场景化就显得非常重要。陈谦总结出AI产品化四条原则:第一条是真正自然而优美的语音交互。“真正的自然”、“真正的优美”,只有做到这样,语音交互才开始具有实际的竞争力。第二条是视觉与听觉信息的高效配合。第三条是单场景单设备的极致闭环。第四条是跨场景多设备的无缝衔接。

朝着满足这四个原则的要求,腾讯叮当综合处理人类具备的触觉、视觉、听觉、嗅觉、味觉五大感官能力。帮助用户形成了对这个世界的认知能力,去观察、去记忆、去判断、去想象。

再比如,腾讯叮当运用到智能电视的案例。陈谦介绍,“当你看球赛或电视剧时,如果对屏幕中的人感兴趣,以前只能拿出手机搜索。现在变得很简单,你只需要对电视说这个球员是谁,就能在屏幕上看到他的名字等信息。还不止于此,基于我们完善的知识图谱,你还可以进一步问电视他本赛季的每场平均得分。我们看到,单设备完成了以前多设备的任务。在智能电视方向上,我们正在与长虹合作一起打造产品。”

陈谦最后介绍,所有的技术能力,通过Tencent Voice Services,简称TVS,提供给到终端硬件厂商使用。TVS是市面上最灵活的终端接入方案,无论是从技术方案、产品方案、还是商务方案的角度,腾讯智能平台都提供了灵活、开放、和定制化的接入方式,帮助终端硬件厂商满足各自需求,能够非常快速、容易地接入腾讯叮当,获得智能能力。

正文已结束,您可以按alt+4进行评论
责任编辑:yungzhu
收藏本文

相关搜索

为你推荐