侵权投诉
订阅
纠错
加入自媒体

人机交互的未来——与虚拟角色进行情感交流

2012-12-03 11:55
铁马老言
关注

  在丰富了我们的手指文化后,人机交互又被微软推向了另个一高潮。2010 年 6 月 14 日一个让我们激动万分的深刻,微软正式发布针对 Xbox 360 的体感外设 Kinect ,这个小东西使我们的人机交互体验从手指上升到整个肢体,使用肢体语言来与计算设备交流。他不仅包括了日常普遍使用的 RGB 彩色摄像头,还包括了由红外线发射器与红外线 CMOS 摄像头构成的 3D 结构光深度感应器,同时也有追焦技术与阵列式麦克风。

  这些复杂的软硬件结合系统构成了这个聪明的小家伙。在对用户面部识别与肢体判断中所使用到的技术涵盖了机器学习、图像处理与计算机视觉的相关领域。可见其背后的强大算法支撑起这个革命性的全新人际交互方式,这是那么自然、友好甚至更有趣。

  而这篇《心理学家为虚拟角色发布情感需求的插件》的报道,让我们对未来的人机交互变革又充满了很多期待。文中谈到,Paul Ekman 是美国的一位心理学家,在上世纪 70 年代,他和同事开发了一种方法来分类和评估人的面部表情。那时许多心里学家认为人们的面部表情是从一种文化向另一种文化传递人们的具体情感变化。

  通过 Ekman 的方法所获得的针对全世界所有文化间人们面部表情的开创性数据库,但是他们发现在所有文化间,人们针对六种基本的情感——生气、恐惧、高兴、惊喜、厌恶与悲伤都具有一样的面部表情,也就是说面部表情的产生不存在不同文化间的传递。他们因此开发了名为面部行为编码系统 (Facial Action Coding System or FACS)的面部表情分类法,根据这个分类法能够识别出每一种表情所对应的面部肌肉的移动。

  这套系统不仅对心理学家研究情感在日常生活中的作用非常有用,而且完全可以挪用到虚拟世界中。FACS 可以用相对容易的方法直接为由计算机生成的虚拟人物提供真实的面部表情。这样虚拟人物自然而然就具有了与真实人类相似的情感因素。但这需要建立一个标准的面部表情数据库,如今 Delft 大学的人机交互系学者 Joost Broekens 及其同事就做了这样的事情。他们实际上基于 FACS 创建了一个包含六种虚拟表情的数据库,每一种表情就是一个向量集合,其中包含的这些向量用来表示一张活泼的脸庞上不同部分是如何移动以模拟一个基本的情感。

  当然通过计算机创建的虚拟表情仍需要我们人类自己先行评估,具体来说是找了一些志愿者询问他们当一个虚拟角色 (Avatar)靠近或走远或从一侧观看时,其面部表情表达了什么样的情绪及其强烈程度。实验结果显示这些由计算机产生的虚拟表情或多或少传达了同真实人脸所传递的一样的情感。为什么是或多或少,因为这确实有一些主观色彩的问题不那么好解决,比如一张恐惧的面部表情也可能看起来是一张吃惊的面部表情,一张厌恶的面部表情也可能与生气时的表情相混淆。

<上一页  1  2  3  4  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号