让AI更懂你,智能机器人读懂你的情绪

发布时间: 2019-05-31 12:00:56

    第一次使用手机语音助手的时候,这个令我新奇不已的玩意儿,总是会在我兴冲冲地问一个问题之后,令人失望地回答一句:“我好想听不懂你在说什么……”

 

后来技术演进,它终于能够通过我的一些关键词,听懂我说什么了。但一板一眼,一字一句,程式化十足。

 

慢慢地,简单的对话已经难不倒它。智能机器人语音助手开始不局限于仅仅是对“文本”的理解,而是加入视觉、听觉等分析技术,通过“察言观色”来捕捉人的“话语”背后蕴藏的情感。它们开始试图获取人类的情绪。

 

就像创科艺梵果机器人,基于语音识别情绪的技术能力,通过捕捉用户的情绪,而去提供更多的服务。

 

万事不离“视听”:AI探知情绪的主要途径。对人类的情绪进行研究和总结,是一个已经开展了将近一个半世纪的课题。最初研究者们往返于不同的种族人群,进行比对、分析,得出了人类的几大基本情绪类别,然后可以应用在人际交往、医疗护理等行业。

微信图片_20190417180312.jpg

而在人机交互越来越深入的今天,智能机器人能否对人的情绪进行充分的理解,将会直接影响到交互体验。由此而来,诸多人工智能公司开始对机器识别情绪展开了攻关。得益于图像识别和语音识别技术的不断取得突破,目前AI识别情绪主要有两种途径。

 

第一种是视觉情绪识别。这是一种最基本的情绪识别方式,因为人的情绪往往会以面部肌肉运动的形式来直接呈现,这也是美国心理学家保罗·艾克曼和福里森证明人类有六大基本情绪的直接原因。

 

而面部识别如今已经是一项非常成熟的技术,通过“喂给”AI大量的面部表情数据,然后进行学习,从而智能机器人可以对现实中人脸所呈现的情绪进行判断。国内就有专门做面部情绪识别的人工智能公司,比如旷视、太古等。

 

第二种是语音情绪识别。人的情绪出了能“看”出来,也能“听”出来。与之直接相关的就是不同情绪下人说话的语调:深沉之于悲伤、高昂之于愉悦等。

 

相较于视觉识别,语音识别的难度要高了不少。因为情绪与表情的对应度要远高于语调与情绪,比如你很难将哭丧脸与开心联系到一起,但一个人如果说话声音低沉的话可以表示他心情沉重,也可能是因为他的音色本就如此。正因如此,智能机器人对声音信号的分析才会要求更加精细。

 

在这个时代,最不可小看也最无法预测的,就是技术的走势。如果它真的走入了现实,或许还真有一些东西需要认真对待并妥善解决。

 

HI,互相了解一下

让我们共同创造美好而有价值的体验
取得联系
Copyright@2007-2018
秒速赛车官网 秒速赛车官网 秒速赛车官网 秒速赛车官网 秒速赛车官网 秒速赛车官网 秒速赛车官网 秒速赛车官网 秒速赛车官网 秒速赛车官网