Return to Video

这个应用程序知道你的感受 — 从你脸上的表情

  • 0:01 - 0:05
    我们的情感影响着我们生活的方方面面,
  • 0:05 - 0:08
    它影响我们的健康,影响我们如何学习、做生意以及做决定,
  • 0:08 - 0:10
    影响着大大小小各各方面。
  • 0:11 - 0:14
    我们的情感还影响着我们与他人的联系的方式。
  • 0:15 - 0:19
    我们进化成可以生活在现在这样的世界,
  • 0:19 - 0:23
    然而我们却越来越生活成这样子——
  • 0:23 - 0:27
    这是我女儿昨晚给我发的短信——
  • 0:27 - 0:29
    这是个缺乏情感的世界。
  • 0:29 - 0:31
    所以我现在正致力于改变那种情况。
  • 0:31 - 0:35
    我想把情感带回到我们的数字体验中来。
  • 0:36 - 0:39
    15年前我就开始走上了这条道路。
  • 0:39 - 0:41
    那时我是一个生活在埃及的计算机科学家,
  • 0:41 - 0:46
    并且刚刚接受了剑桥大学的博士学位项目。
  • 0:46 - 0:48
    我做了一件对于一个年轻的
  • 0:48 - 0:52
    埃及穆斯林新婚妻子来说非常不寻常的事情:
  • 0:54 - 0:57
    我的丈夫不能离开埃及,但在他的支持下,
  • 0:57 - 1:00
    我独自收拾行李搬到英国去了。
  • 1:00 - 1:03
    在离家数千里之外的剑桥,
  • 1:03 - 1:06
    我意识到我花在笔记本电脑上的时间
  • 1:06 - 1:08
    要多于我与其他人相处的时间。
  • 1:08 - 1:13
    然而尽管我和电脑如此亲密,电脑却对我的感受毫无所知。
  • 1:13 - 1:17
    它根本不知道我是快乐,
  • 1:17 - 1:20
    还是经历着糟糕的一天,或者是感到有压力、困惑,
  • 1:20 - 1:22
    这就很让人不爽。
  • 1:24 - 1:29
    而且更糟的是,当我回家后在线跟家人聊天时,
  • 1:29 - 1:33
    我觉得我所有的情感都在网络空间中消失了。
  • 1:33 - 1:38
    我想家,我感到孤独,而且有些日子我真的哭了,
  • 1:38 - 1:43
    而我也仅仅只能用这个表情来表达我的情感。
  • 1:43 - 1:45
    (笑声)
  • 1:45 - 1:50
    现今有很多技术具有智商,但是还没有具有情商的,
  • 1:50 - 1:53
    很多技术具有认知性智能,但还没有具有情绪性智能的。
  • 1:53 - 1:55
    这让我想到,
  • 1:55 - 1:59
    如果我们的技术可以识别我们的情绪将会怎样?
  • 1:59 - 2:03
    如果我们的设备能识别我们的感受并做出相应的反应,
  • 2:03 - 2:06
    就像情商高的朋友所做的那样将会怎样?
  • 2:07 - 2:10
    这些问题引导着我和我的团队
  • 2:10 - 2:15
    去创造可以阅读我们的情绪并做出反应的技术,
  • 2:15 - 2:18
    我们的起点是人脸。
  • 2:19 - 2:22
    人脸是交流的最强大的渠道之一,
  • 2:22 - 2:26
    我们所有人都用它来表达社会和情绪状态,
  • 2:26 - 2:29
    从喜悦、惊讶
  • 2:29 - 2:33
    到同情、好奇等等。
  • 2:33 - 2:38
    在情感科学中,我们将每一个面肌运动称为一个动作单元。
  • 2:38 - 2:41
    例如,动作单元12,
  • 2:41 - 2:43
    这不是好莱坞大片,
  • 2:43 - 2:46
    这就是简单的嘴角上扬,它是微笑的主要构成。
  • 2:46 - 2:49
    大家都试一下。让我们都微笑起来。
  • 2:49 - 2:52
    另一个例子是动作单元4。它是眉间纹。
  • 2:52 - 2:54
    当你将眉毛拧到一起的时候
  • 2:54 - 2:56
    你就创造出了这些纹理和皱纹。
  • 2:56 - 3:01
    我们不喜欢它,但它是一个非常强的负面情绪指示器。
  • 3:01 - 3:03
    我们大概有45个这样的单元,
  • 3:03 - 3:06
    它们的组合可以表达上百种情绪。
  • 3:06 - 3:10
    教会电脑去读取这些面部情绪很难,
  • 3:10 - 3:13
    因为这些动作单元行动很微妙,而且稍纵即逝,
  • 3:13 - 3:16
    而且它们有很多的组合方式。
  • 3:16 - 3:20
    例如,微笑和假笑。
  • 3:20 - 3:23
    它们看起来有几分相似,但意味却是天差地别。
  • 3:23 - 3:25
    (笑声)
  • 3:25 - 3:28
    微笑是正面的,
  • 3:28 - 3:29
    假笑常常是负面的。
  • 3:29 - 3:33
    有时一个假笑可以让你出名。
  • 3:33 - 3:36
    但是严肃地讲,让电脑能够
  • 3:36 - 3:39
    描述这两种表情的区别是很重要的。
  • 3:39 - 3:41
    那我们是如何做的呢?
  • 3:41 - 3:42
    我们给我们的算法
  • 3:42 - 3:47
    成千上万的不同种族、年龄和性别的人们
  • 3:47 - 3:50
    正在微笑的例子,
  • 3:50 - 3:52
    然后我们也用同样的方法研究假笑。
  • 3:52 - 3:54
    然后使用深度学习,
  • 3:54 - 3:57
    算法可以观察我们脸上的所有这些纹理和皱纹
  • 3:57 - 3:59
    以及形状变化,
  • 3:59 - 4:03
    并且基本上得知所有的微笑都有共同特性,
  • 4:03 - 4:06
    而所有的假笑都有些微的不同特性。
  • 4:06 - 4:08
    然后下一次当它看到一个新面孔时,
  • 4:08 - 4:10
    它就基本上能知道
  • 4:10 - 4:13
    这张面孔上有和微笑相同的特性,
  • 4:13 - 4:18
    然后它就会说:“啊哈,我知道了,这是一个微笑的表情。”
  • 4:18 - 4:21
    所以展示这种技术如何工作的最好方式
  • 4:21 - 4:23
    是来一个现场演示,
  • 4:23 - 4:27
    所以我需要一位志愿者,最好是个“有脸”的人。
  • 4:27 - 4:30
    (笑声)
  • 4:30 - 4:32
    克洛将成为我们今天的志愿者。
  • 4:33 - 4:38
    在过去的5年间,我们从只是麻省理工学院的一个研究项目
  • 4:38 - 4:39
    到成立一个公司,
  • 4:39 - 4:42
    在公司里我的团队非常非常努力地工作以使这项技术成功,
  • 4:42 - 4:45
    就像我们说的那样,我们在荒野里生存。
  • 4:45 - 4:47
    我们还将它缩小了,这样的话这个核心情绪引擎
  • 4:47 - 4:51
    就能在一个带摄像头的移动设备上运行,比如这个iPad。
  • 4:51 - 4:53
    让我们来试一试。
  • 4:55 - 4:59
    正如你们看到的,此算法基本上找到了克洛的脸,
  • 4:59 - 5:00
    就是这个白色的边界框,
  • 5:00 - 5:03
    它在跟踪她脸上的主要特征点,
  • 5:03 - 5:06
    她的眉毛、眼睛、嘴巴和鼻子。
  • 5:06 - 5:09
    问题是,它能识别她的表情吗?
  • 5:09 - 5:10
    那么我们测试一下这台机器。
  • 5:10 - 5:15
    首先,做一个面无表情的样子。嗯,好极了。(笑声)
  • 5:15 - 5:17
    然后当她微笑时,这是一个真诚的微笑,很好。
  • 5:17 - 5:20
    大家可以看到当她微笑时这些绿条增长了。
  • 5:20 - 5:21
    这是一个大大的微笑。
  • 5:21 - 5:24
    你能试着轻轻微笑一下,看看电脑能否识别出来吗?
  • 5:24 - 5:26
    它确实也能识别轻轻的微笑。
  • 5:26 - 5:28
    我们付出了很多的努力才使它能够做到这些。
  • 5:28 - 5:31
    眉毛上扬,是惊喜的标志。
  • 5:31 - 5:36
    眉间的皱纹,是困惑的标志。
  • 5:36 - 5:40
    皱眉。嗯,很完美。
  • 5:40 - 5:43
    这些都是不同的行动单元。还有很多这样的行动单元。
  • 5:43 - 5:45
    这只是一个小型的演示。
  • 5:45 - 5:48
    我们称每一次读取为一个情感数据点,
  • 5:48 - 5:51
    然后它们可以组合在一起来描绘不同的情绪。
  • 5:51 - 5:56
    因此在演示的右边,你看起来很开心。
  • 5:56 - 5:57
    那表示快乐,快乐就被启动了。
  • 5:57 - 5:59
    再做一个厌恶的表情。
  • 5:59 - 6:04
    试着回想一下当泽恩离开单向乐队时的情景。
  • 6:04 - 6:05
    (笑声)
  • 6:05 - 6:09
    是的,皱一下鼻。很好。
  • 6:09 - 6:13
    而“抗体效价”一项也呈现负值,因此你一定是他们的铁杆粉丝。
  • 6:13 - 6:16
    抗体效价是用来描述一种体验的积极或消极程度的,
  • 6:16 - 6:19
    而“参与度”是用来描述她的表现力的。
  • 6:19 - 6:22
    所以大家可以想象一下如果克洛能够使用这种实时的情感流,
  • 6:22 - 6:25
    并且能分享给任何她想分享的人的情景。
  • 6:25 - 6:28
    谢谢。
  • 6:28 - 6:32
    (掌声)
  • 6:34 - 6:39
    迄今为止,我们已经积累了120亿这种情感数据点。
  • 6:39 - 6:42
    这是世界上最大的情感数据库。
  • 6:42 - 6:45
    我们是从两百九十万个面部视频中去收集的,
  • 6:45 - 6:47
    这些视频来自那些同意将他们的情感与我们一起分享的人们,
  • 6:47 - 6:50
    并且这些人们来自全世界75个国家。
  • 6:50 - 6:52
    它每天都在发展。
  • 6:53 - 6:55
    它发散了我的思维:
  • 6:55 - 6:58
    原来我们可以将情绪这么个性化的东西进行量化,
  • 6:58 - 7:00
    并且是在这样的规模下去做这件事。
  • 7:00 - 7:02
    到现在我们从这些数据中学到了什么呢?
  • 7:03 - 7:05
    性别差异。
  • 7:05 - 7:09
    我们的数据证实了某些你可能正在猜测的事情。
  • 7:09 - 7:11
    女性比男性更具表现力。
  • 7:11 - 7:14
    不仅是她们笑得更多,更因为她们笑得更久,
  • 7:14 - 7:16
    并且我们现在可以真实地量化男性和女性
  • 7:16 - 7:19
    在反应方面的差异性。
  • 7:19 - 7:21
    让我们从文化方面来看:在美国,
  • 7:21 - 7:24
    女性的表现力要比男性高40%,
  • 7:24 - 7:28
    但奇怪的是,在英国我们看不到男女在这方面的任何差异。
  • 7:28 - 7:30
    (笑声)
  • 7:31 - 7:35
    在年龄方面:50岁及以上的人
  • 7:35 - 7:39
    情绪化比小于50岁的人高25%。
  • 7:40 - 7:44
    女性在20来岁的时候要比同龄的男性笑得更多,
  • 7:44 - 7:48
    也许这是约会的必需品。
  • 7:48 - 7:50
    但也许这些数据带给我们最大的惊喜是
  • 7:50 - 7:53
    我们每时每刻都在表达,
  • 7:53 - 7:56
    即使当我们独自坐在电子设备前,
  • 7:56 - 8:00
    而且不仅是我们在脸书上看猫的视频时。
  • 8:00 - 8:03
    不管我们在发邮件、发短信、网购,甚至报税的时候
  • 8:03 - 8:06
    我们无时无刻不在表达自己。
  • 8:06 - 8:08
    那么如今这些数据用在何处呢?
  • 8:08 - 8:11
    用在弄明白我们如何和传媒结合,
  • 8:11 - 8:13
    从而搞明白网络扩散和投票行为,
  • 8:13 - 8:16
    以及情绪授权技术。
  • 8:16 - 8:21
    我想分享一些触动我心的例子。
  • 8:21 - 8:24
    情绪授权可佩戴眼镜
  • 8:24 - 8:27
    可以帮助那些视力受损的人读懂他人的脸部表情,
  • 8:27 - 8:32
    也可帮助患有自闭症的人们解读情绪,
  • 8:32 - 8:34
    因为解读情绪对他们来说是很困难的。
  • 8:36 - 8:39
    在教育方面,想象如果你的学习类应用程序
  • 8:39 - 8:42
    察觉出你有困惑,应用程序会放慢速度,
  • 8:42 - 8:43
    或者你无聊了,它则会加快进程,
  • 8:43 - 8:46
    就像教室里经验丰富的老师一样。
  • 8:47 - 8:50
    再想象一下你的手表可以感知你的情绪,
  • 8:50 - 8:52
    或你的车可以觉察出你疲惫了,
  • 8:52 - 8:55
    或者说你的冰箱知道你有压力,
  • 8:55 - 9:01
    所以它会自动上锁防止你暴饮暴食。(笑声)
  • 9:01 - 9:04
    我会喜欢这个的,没错。
  • 9:04 - 9:06
    设想当我在剑桥时,
  • 9:06 - 9:08
    我可以连接到实时情绪流,
  • 9:08 - 9:11
    我可以和我家里的亲人
    用很自然的方式分享一些东西,
  • 9:11 - 9:15
    就像我和家人在同一间房里所做的事一样将会怎样?
  • 9:15 - 9:19
    我猜想也就在五年后,
  • 9:19 - 9:21
    所有的电子设备都会有一个情绪芯片,
  • 9:21 - 9:25
    我们将会体验到我们皱眉后电子设备回应
    “嗯,你不喜欢这个,对吧?”
  • 9:25 - 9:29
    这一举动实现时的感受。
  • 9:29 - 9:33
    我们最大的挑战就是
    现在关于这方面的科技有许多用途,
  • 9:33 - 9:36
    我和我的团队意识到我们无法
    靠我们自己就把所有事情都完成,
  • 9:36 - 9:39
    所以我们把这项科技开放,
  • 9:39 - 9:41
    这样其他开发者就能创造创新。
  • 9:41 - 9:46
    我们知道这有潜在的风险,
  • 9:46 - 9:48
    还有可能被滥用,
  • 9:48 - 9:51
    但就我个人来说,花了这么多年做这件事,
  • 9:51 - 9:54
    我相信情绪智能技术
  • 9:54 - 9:56
    给人类带来的好处
  • 9:56 - 9:59
    远超过被滥用的可能性。
  • 9:59 - 10:02
    所以我邀请大家一起加入。
  • 10:02 - 10:04
    越多的人知道这项技术,
  • 10:04 - 10:08
    我们就越能说出如何使用的想法。
  • 10:09 - 10:14
    所以随着我们的生活越来越数字化,
  • 10:14 - 10:17
    我们其实在打一场处于劣势的战争,试图去控制我们的电子设备的用途
  • 10:17 - 10:19
    从而开拓我们的情绪。
  • 10:21 - 10:25
    所以相反地,我所做的就是把情绪带到我们的科技中
  • 10:25 - 10:27
    让我们的科技更加有响应性。
  • 10:27 - 10:29
    我想要那些把我们分离开来的电子设备
  • 10:29 - 10:32
    重新把我们聚在一起。
  • 10:32 - 10:36
    现在是黄金时机,我们可以通过人性化科技
  • 10:36 - 10:40
    重新想象我们该如何和这些机器交流结合,
  • 10:40 - 10:44
    从而重新想象,作为人类的我们
  • 10:44 - 10:46
    如何与彼此交流结合。
  • 10:46 - 10:48
    谢谢。
  • 10:48 - 10:52
    (掌声)
Title:
这个应用程序知道你的感受 — 从你脸上的表情
Speaker:
拉娜·艾尔·卡里奥碧
Description:

我们的情绪影响着我们生活的方方面面——如何学习,如何交流,如何做决定。但是情绪从未出现在我们的电子生活中;我们与之互动的电子设备和应用程序毫无办法了解我们的感受。科学家拉娜·艾尔·卡里奥碧一心想改变这个现象。她展示了一项强大的技术,可以读懂你的面部表情,并且和相应情绪挂钩。这一“情绪引擎”有着重大意义,她说,它不单可以改变我们和机器的互动——还可以改变人与人之间的互动。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Chinese, Simplified subtitles

Revisions