我们的情感影响着我们生活的方方面面, 它影响我们的健康,影响我们如何学习、做生意以及做决定, 影响着大大小小各各方面。 我们的情感还影响着我们与他人的联系的方式。 我们进化成可以生活在现在这样的世界, 然而我们却越来越生活成这样子—— 这是我女儿昨晚给我发的短信—— 这是个缺乏情感的世界。 所以我现在正致力于改变那种情况。 我想把情感带回到我们的数字体验中来。 15年前我就开始走上了这条道路。 那时我是一个生活在埃及的计算机科学家, 并且刚刚接受了剑桥大学的博士学位项目。 我做了一件对于一个年轻的 埃及穆斯林新婚妻子来说非常不寻常的事情: 我的丈夫不能离开埃及,但在他的支持下, 我独自收拾行李搬到英国去了。 在离家数千里之外的剑桥, 我意识到我花在笔记本电脑上的时间 要多于我与其他人相处的时间。 然而尽管我和电脑如此亲密,电脑却对我的感受毫无所知。 它根本不知道我是快乐, 还是经历着糟糕的一天,或者是感到有压力、困惑, 这就很让人不爽。 而且更糟的是,当我回家后在线跟家人聊天时, 我觉得我所有的情感都在网络空间中消失了。 我想家,我感到孤独,而且有些日子我真的哭了, 而我也仅仅只能用这个表情来表达我的情感。 (笑声) 现今有很多技术具有智商,但是还没有具有情商的, 很多技术具有认知性智能,但还没有具有情绪性智能的。 这让我想到, 如果我们的技术可以识别我们的情绪将会怎样? 如果我们的设备能识别我们的感受并做出相应的反应, 就像情商高的朋友所做的那样将会怎样? 这些问题引导着我和我的团队 去创造可以阅读我们的情绪并做出反应的技术, 我们的起点是人脸。 人脸是交流的最强大的渠道之一, 我们所有人都用它来表达社会和情绪状态, 从喜悦、惊讶 到同情、好奇等等。 在情感科学中,我们将每一个面肌运动称为一个动作单元。 例如,动作单元12, 这不是好莱坞大片, 这就是简单的嘴角上扬,它是微笑的主要构成。 大家都试一下。让我们都微笑起来。 另一个例子是动作单元4。它是眉间纹。 当你将眉毛拧到一起的时候 你就创造出了这些纹理和皱纹。 我们不喜欢它,但它是一个非常强的负面情绪指示器。 我们大概有45个这样的单元, 它们的组合可以表达上百种情绪。 教会电脑去读取这些面部情绪很难, 因为这些动作单元行动很微妙,而且稍纵即逝, 而且它们有很多的组合方式。 例如,微笑和假笑。 它们看起来有几分相似,但意味却是天差地别。 (笑声) 微笑是正面的, 假笑常常是负面的。 有时一个假笑可以让你出名。 但是严肃地讲,让电脑能够 描述这两种表情的区别是很重要的。 那我们是如何做的呢? 我们给我们的算法 成千上万的不同种族、年龄和性别的人们 正在微笑的例子, 然后我们也用同样的方法研究假笑。 然后使用深度学习, 算法可以观察我们脸上的所有这些纹理和皱纹 以及形状变化, 并且基本上得知所有的微笑都有共同特性, 而所有的假笑都有些微的不同特性。 然后下一次当它看到一个新面孔时, 它就基本上能知道 这张面孔上有和微笑相同的特性, 然后它就会说:“啊哈,我知道了,这是一个微笑的表情。” 所以展示这种技术如何工作的最好方式 是来一个现场演示, 所以我需要一位志愿者,最好是个“有脸”的人。 (笑声) 克洛将成为我们今天的志愿者。 在过去的5年间,我们从只是麻省理工学院的一个研究项目 到成立一个公司, 在公司里我的团队非常非常努力地工作以使这项技术成功, 就像我们说的那样,我们在荒野里生存。 我们还将它缩小了,这样的话这个核心情绪引擎 就能在一个带摄像头的移动设备上运行,比如这个iPad。 让我们来试一试。 正如你们看到的,此算法基本上找到了克洛的脸, 就是这个白色的边界框, 它在跟踪她脸上的主要特征点, 她的眉毛、眼睛、嘴巴和鼻子。 问题是,它能识别她的表情吗? 那么我们测试一下这台机器。 首先,做一个面无表情的样子。嗯,好极了。(笑声) 然后当她微笑时,这是一个真诚的微笑,很好。 大家可以看到当她微笑时这些绿条增长了。 这是一个大大的微笑。 你能试着轻轻微笑一下,看看电脑能否识别出来吗? 它确实也能识别轻轻的微笑。 我们付出了很多的努力才使它能够做到这些。 眉毛上扬,是惊喜的标志。 眉间的皱纹,是困惑的标志。 皱眉。嗯,很完美。 这些都是不同的行动单元。还有很多这样的行动单元。 这只是一个小型的演示。 我们称每一次读取为一个情感数据点, 然后它们可以组合在一起来描绘不同的情绪。 因此在演示的右边,你看起来很开心。 那表示快乐,快乐就被启动了。 再做一个厌恶的表情。 试着回想一下当泽恩离开单向乐队时的情景。 (笑声) 是的,皱一下鼻。很好。 而“抗体效价”一项也呈现负值,因此你一定是他们的铁杆粉丝。 抗体效价是用来描述一种体验的积极或消极程度的, 而“参与度”是用来描述她的表现力的。 所以大家可以想象一下如果克洛能够使用这种实时的情感流, 并且能分享给任何她想分享的人的情景。 谢谢。 (掌声) 迄今为止,我们已经积累了120亿这种情感数据点。 这是世界上最大的情感数据库。 我们是从两百九十万个面部视频中去收集的, 这些视频来自那些同意将他们的情感与我们一起分享的人们, 并且这些人们来自全世界75个国家。 它每天都在发展。 它发散了我的思维: 原来我们可以将情绪这么个性化的东西进行量化, 并且是在这样的规模下去做这件事。 到现在我们从这些数据中学到了什么呢? 性别差异。 我们的数据证实了某些你可能正在猜测的事情。 女性比男性更具表现力。 不仅是她们笑得更多,更因为她们笑得更久, 并且我们现在可以真实地量化男性和女性 在反应方面的差异性。 让我们从文化方面来看:在美国, 女性的表现力要比男性高40%, 但奇怪的是,在英国我们看不到男女在这方面的任何差异。 (笑声) 在年龄方面:50岁及以上的人 情绪化比小于50岁的人高25%。 女性在20来岁的时候要比同龄的男性笑得更多, 也许这是约会的必需品。 但也许这些数据带给我们最大的惊喜是 我们每时每刻都在表达, 即使当我们独自坐在电子设备前, 而且不仅是我们在脸书上看猫的视频时。 不管我们在发邮件、发短信、网购,甚至报税的时候 我们无时无刻不在表达自己。 那么如今这些数据用在何处呢? 用在弄明白我们如何和传媒结合, 从而搞明白网络扩散和投票行为, 以及情绪授权技术。 我想分享一些触动我心的例子。 情绪授权可佩戴眼镜 可以帮助那些视力受损的人读懂他人的脸部表情, 也可帮助患有自闭症的人们解读情绪, 因为解读情绪对他们来说是很困难的。 在教育方面,想象如果你的学习类应用程序 察觉出你有困惑,应用程序会放慢速度, 或者你无聊了,它则会加快进程, 就像教室里经验丰富的老师一样。 再想象一下你的手表可以感知你的情绪, 或你的车可以觉察出你疲惫了, 或者说你的冰箱知道你有压力, 所以它会自动上锁防止你暴饮暴食。(笑声) 我会喜欢这个的,没错。 设想当我在剑桥时, 我可以连接到实时情绪流, 我可以和我家里的亲人 用很自然的方式分享一些东西, 就像我和家人在同一间房里所做的事一样将会怎样? 我猜想也就在五年后, 所有的电子设备都会有一个情绪芯片, 我们将会体验到我们皱眉后电子设备回应 “嗯,你不喜欢这个,对吧?” 这一举动实现时的感受。 我们最大的挑战就是 现在关于这方面的科技有许多用途, 我和我的团队意识到我们无法 靠我们自己就把所有事情都完成, 所以我们把这项科技开放, 这样其他开发者就能创造创新。 我们知道这有潜在的风险, 还有可能被滥用, 但就我个人来说,花了这么多年做这件事, 我相信情绪智能技术 给人类带来的好处 远超过被滥用的可能性。 所以我邀请大家一起加入。 越多的人知道这项技术, 我们就越能说出如何使用的想法。 所以随着我们的生活越来越数字化, 我们其实在打一场处于劣势的战争,试图去控制我们的电子设备的用途 从而开拓我们的情绪。 所以相反地,我所做的就是把情绪带到我们的科技中 让我们的科技更加有响应性。 我想要那些把我们分离开来的电子设备 重新把我们聚在一起。 现在是黄金时机,我们可以通过人性化科技 重新想象我们该如何和这些机器交流结合, 从而重新想象,作为人类的我们 如何与彼此交流结合。 谢谢。 (掌声)