这个应用程序知道你的感受 — 从你脸上的表情
-
0:01 - 0:05我们的情感影响着我们生活的方方面面,
-
0:05 - 0:08它影响我们的健康,影响我们如何学习、做生意以及做决定,
-
0:08 - 0:10影响着大大小小各各方面。
-
0:11 - 0:14我们的情感还影响着我们与他人的联系的方式。
-
0:15 - 0:19我们进化成可以生活在现在这样的世界,
-
0:19 - 0:23然而我们却越来越生活成这样子——
-
0:23 - 0:27这是我女儿昨晚给我发的短信——
-
0:27 - 0:29这是个缺乏情感的世界。
-
0:29 - 0:31所以我现在正致力于改变那种情况。
-
0:31 - 0:35我想把情感带回到我们的数字体验中来。
-
0:36 - 0:3915年前我就开始走上了这条道路。
-
0:39 - 0:41那时我是一个生活在埃及的计算机科学家,
-
0:41 - 0:46并且刚刚接受了剑桥大学的博士学位项目。
-
0:46 - 0:48我做了一件对于一个年轻的
-
0:48 - 0:52埃及穆斯林新婚妻子来说非常不寻常的事情:
-
0:54 - 0:57我的丈夫不能离开埃及,但在他的支持下,
-
0:57 - 1:00我独自收拾行李搬到英国去了。
-
1:00 - 1:03在离家数千里之外的剑桥,
-
1:03 - 1:06我意识到我花在笔记本电脑上的时间
-
1:06 - 1:08要多于我与其他人相处的时间。
-
1:08 - 1:13然而尽管我和电脑如此亲密,电脑却对我的感受毫无所知。
-
1:13 - 1:17它根本不知道我是快乐,
-
1:17 - 1:20还是经历着糟糕的一天,或者是感到有压力、困惑,
-
1:20 - 1:22这就很让人不爽。
-
1:24 - 1:29而且更糟的是,当我回家后在线跟家人聊天时,
-
1:29 - 1:33我觉得我所有的情感都在网络空间中消失了。
-
1:33 - 1:38我想家,我感到孤独,而且有些日子我真的哭了,
-
1:38 - 1:43而我也仅仅只能用这个表情来表达我的情感。
-
1:43 - 1:45(笑声)
-
1:45 - 1:50现今有很多技术具有智商,但是还没有具有情商的,
-
1:50 - 1:53很多技术具有认知性智能,但还没有具有情绪性智能的。
-
1:53 - 1:55这让我想到,
-
1:55 - 1:59如果我们的技术可以识别我们的情绪将会怎样?
-
1:59 - 2:03如果我们的设备能识别我们的感受并做出相应的反应,
-
2:03 - 2:06就像情商高的朋友所做的那样将会怎样?
-
2:07 - 2:10这些问题引导着我和我的团队
-
2:10 - 2:15去创造可以阅读我们的情绪并做出反应的技术,
-
2:15 - 2:18我们的起点是人脸。
-
2:19 - 2:22人脸是交流的最强大的渠道之一,
-
2:22 - 2:26我们所有人都用它来表达社会和情绪状态,
-
2:26 - 2:29从喜悦、惊讶
-
2:29 - 2:33到同情、好奇等等。
-
2:33 - 2:38在情感科学中,我们将每一个面肌运动称为一个动作单元。
-
2:38 - 2:41例如,动作单元12,
-
2:41 - 2:43这不是好莱坞大片,
-
2:43 - 2:46这就是简单的嘴角上扬,它是微笑的主要构成。
-
2:46 - 2:49大家都试一下。让我们都微笑起来。
-
2:49 - 2:52另一个例子是动作单元4。它是眉间纹。
-
2:52 - 2:54当你将眉毛拧到一起的时候
-
2:54 - 2:56你就创造出了这些纹理和皱纹。
-
2:56 - 3:01我们不喜欢它,但它是一个非常强的负面情绪指示器。
-
3:01 - 3:03我们大概有45个这样的单元,
-
3:03 - 3:06它们的组合可以表达上百种情绪。
-
3:06 - 3:10教会电脑去读取这些面部情绪很难,
-
3:10 - 3:13因为这些动作单元行动很微妙,而且稍纵即逝,
-
3:13 - 3:16而且它们有很多的组合方式。
-
3:16 - 3:20例如,微笑和假笑。
-
3:20 - 3:23它们看起来有几分相似,但意味却是天差地别。
-
3:23 - 3:25(笑声)
-
3:25 - 3:28微笑是正面的,
-
3:28 - 3:29假笑常常是负面的。
-
3:29 - 3:33有时一个假笑可以让你出名。
-
3:33 - 3:36但是严肃地讲,让电脑能够
-
3:36 - 3:39描述这两种表情的区别是很重要的。
-
3:39 - 3:41那我们是如何做的呢?
-
3:41 - 3:42我们给我们的算法
-
3:42 - 3:47成千上万的不同种族、年龄和性别的人们
-
3:47 - 3:50正在微笑的例子,
-
3:50 - 3:52然后我们也用同样的方法研究假笑。
-
3:52 - 3:54然后使用深度学习,
-
3:54 - 3:57算法可以观察我们脸上的所有这些纹理和皱纹
-
3:57 - 3:59以及形状变化,
-
3:59 - 4:03并且基本上得知所有的微笑都有共同特性,
-
4:03 - 4:06而所有的假笑都有些微的不同特性。
-
4:06 - 4:08然后下一次当它看到一个新面孔时,
-
4:08 - 4:10它就基本上能知道
-
4:10 - 4:13这张面孔上有和微笑相同的特性,
-
4:13 - 4:18然后它就会说:“啊哈,我知道了,这是一个微笑的表情。”
-
4:18 - 4:21所以展示这种技术如何工作的最好方式
-
4:21 - 4:23是来一个现场演示,
-
4:23 - 4:27所以我需要一位志愿者,最好是个“有脸”的人。
-
4:27 - 4:30(笑声)
-
4:30 - 4:32克洛将成为我们今天的志愿者。
-
4:33 - 4:38在过去的5年间,我们从只是麻省理工学院的一个研究项目
-
4:38 - 4:39到成立一个公司,
-
4:39 - 4:42在公司里我的团队非常非常努力地工作以使这项技术成功,
-
4:42 - 4:45就像我们说的那样,我们在荒野里生存。
-
4:45 - 4:47我们还将它缩小了,这样的话这个核心情绪引擎
-
4:47 - 4:51就能在一个带摄像头的移动设备上运行,比如这个iPad。
-
4:51 - 4:53让我们来试一试。
-
4:55 - 4:59正如你们看到的,此算法基本上找到了克洛的脸,
-
4:59 - 5:00就是这个白色的边界框,
-
5:00 - 5:03它在跟踪她脸上的主要特征点,
-
5:03 - 5:06她的眉毛、眼睛、嘴巴和鼻子。
-
5:06 - 5:09问题是,它能识别她的表情吗?
-
5:09 - 5:10那么我们测试一下这台机器。
-
5:10 - 5:15首先,做一个面无表情的样子。嗯,好极了。(笑声)
-
5:15 - 5:17然后当她微笑时,这是一个真诚的微笑,很好。
-
5:17 - 5:20大家可以看到当她微笑时这些绿条增长了。
-
5:20 - 5:21这是一个大大的微笑。
-
5:21 - 5:24你能试着轻轻微笑一下,看看电脑能否识别出来吗?
-
5:24 - 5:26它确实也能识别轻轻的微笑。
-
5:26 - 5:28我们付出了很多的努力才使它能够做到这些。
-
5:28 - 5:31眉毛上扬,是惊喜的标志。
-
5:31 - 5:36眉间的皱纹,是困惑的标志。
-
5:36 - 5:40皱眉。嗯,很完美。
-
5:40 - 5:43这些都是不同的行动单元。还有很多这样的行动单元。
-
5:43 - 5:45这只是一个小型的演示。
-
5:45 - 5:48我们称每一次读取为一个情感数据点,
-
5:48 - 5:51然后它们可以组合在一起来描绘不同的情绪。
-
5:51 - 5:56因此在演示的右边,你看起来很开心。
-
5:56 - 5:57那表示快乐,快乐就被启动了。
-
5:57 - 5:59再做一个厌恶的表情。
-
5:59 - 6:04试着回想一下当泽恩离开单向乐队时的情景。
-
6:04 - 6:05(笑声)
-
6:05 - 6:09是的,皱一下鼻。很好。
-
6:09 - 6:13而“抗体效价”一项也呈现负值,因此你一定是他们的铁杆粉丝。
-
6:13 - 6:16抗体效价是用来描述一种体验的积极或消极程度的,
-
6:16 - 6:19而“参与度”是用来描述她的表现力的。
-
6:19 - 6:22所以大家可以想象一下如果克洛能够使用这种实时的情感流,
-
6:22 - 6:25并且能分享给任何她想分享的人的情景。
-
6:25 - 6:28谢谢。
-
6:28 - 6:32(掌声)
-
6:34 - 6:39迄今为止,我们已经积累了120亿这种情感数据点。
-
6:39 - 6:42这是世界上最大的情感数据库。
-
6:42 - 6:45我们是从两百九十万个面部视频中去收集的,
-
6:45 - 6:47这些视频来自那些同意将他们的情感与我们一起分享的人们,
-
6:47 - 6:50并且这些人们来自全世界75个国家。
-
6:50 - 6:52它每天都在发展。
-
6:53 - 6:55它发散了我的思维:
-
6:55 - 6:58原来我们可以将情绪这么个性化的东西进行量化,
-
6:58 - 7:00并且是在这样的规模下去做这件事。
-
7:00 - 7:02到现在我们从这些数据中学到了什么呢?
-
7:03 - 7:05性别差异。
-
7:05 - 7:09我们的数据证实了某些你可能正在猜测的事情。
-
7:09 - 7:11女性比男性更具表现力。
-
7:11 - 7:14不仅是她们笑得更多,更因为她们笑得更久,
-
7:14 - 7:16并且我们现在可以真实地量化男性和女性
-
7:16 - 7:19在反应方面的差异性。
-
7:19 - 7:21让我们从文化方面来看:在美国,
-
7:21 - 7:24女性的表现力要比男性高40%,
-
7:24 - 7:28但奇怪的是,在英国我们看不到男女在这方面的任何差异。
-
7:28 - 7:30(笑声)
-
7:31 - 7:35在年龄方面:50岁及以上的人
-
7:35 - 7:39情绪化比小于50岁的人高25%。
-
7:40 - 7:44女性在20来岁的时候要比同龄的男性笑得更多,
-
7:44 - 7:48也许这是约会的必需品。
-
7:48 - 7:50但也许这些数据带给我们最大的惊喜是
-
7:50 - 7:53我们每时每刻都在表达,
-
7:53 - 7:56即使当我们独自坐在电子设备前,
-
7:56 - 8:00而且不仅是我们在脸书上看猫的视频时。
-
8:00 - 8:03不管我们在发邮件、发短信、网购,甚至报税的时候
-
8:03 - 8:06我们无时无刻不在表达自己。
-
8:06 - 8:08那么如今这些数据用在何处呢?
-
8:08 - 8:11用在弄明白我们如何和传媒结合,
-
8:11 - 8:13从而搞明白网络扩散和投票行为,
-
8:13 - 8:16以及情绪授权技术。
-
8:16 - 8:21我想分享一些触动我心的例子。
-
8:21 - 8:24情绪授权可佩戴眼镜
-
8:24 - 8:27可以帮助那些视力受损的人读懂他人的脸部表情,
-
8:27 - 8:32也可帮助患有自闭症的人们解读情绪,
-
8:32 - 8:34因为解读情绪对他们来说是很困难的。
-
8:36 - 8:39在教育方面,想象如果你的学习类应用程序
-
8:39 - 8:42察觉出你有困惑,应用程序会放慢速度,
-
8:42 - 8:43或者你无聊了,它则会加快进程,
-
8:43 - 8:46就像教室里经验丰富的老师一样。
-
8:47 - 8:50再想象一下你的手表可以感知你的情绪,
-
8:50 - 8:52或你的车可以觉察出你疲惫了,
-
8:52 - 8:55或者说你的冰箱知道你有压力,
-
8:55 - 9:01所以它会自动上锁防止你暴饮暴食。(笑声)
-
9:01 - 9:04我会喜欢这个的,没错。
-
9:04 - 9:06设想当我在剑桥时,
-
9:06 - 9:08我可以连接到实时情绪流,
-
9:08 - 9:11我可以和我家里的亲人
用很自然的方式分享一些东西, -
9:11 - 9:15就像我和家人在同一间房里所做的事一样将会怎样?
-
9:15 - 9:19我猜想也就在五年后,
-
9:19 - 9:21所有的电子设备都会有一个情绪芯片,
-
9:21 - 9:25我们将会体验到我们皱眉后电子设备回应
“嗯,你不喜欢这个,对吧?” -
9:25 - 9:29这一举动实现时的感受。
-
9:29 - 9:33我们最大的挑战就是
现在关于这方面的科技有许多用途, -
9:33 - 9:36我和我的团队意识到我们无法
靠我们自己就把所有事情都完成, -
9:36 - 9:39所以我们把这项科技开放,
-
9:39 - 9:41这样其他开发者就能创造创新。
-
9:41 - 9:46我们知道这有潜在的风险,
-
9:46 - 9:48还有可能被滥用,
-
9:48 - 9:51但就我个人来说,花了这么多年做这件事,
-
9:51 - 9:54我相信情绪智能技术
-
9:54 - 9:56给人类带来的好处
-
9:56 - 9:59远超过被滥用的可能性。
-
9:59 - 10:02所以我邀请大家一起加入。
-
10:02 - 10:04越多的人知道这项技术,
-
10:04 - 10:08我们就越能说出如何使用的想法。
-
10:09 - 10:14所以随着我们的生活越来越数字化,
-
10:14 - 10:17我们其实在打一场处于劣势的战争,试图去控制我们的电子设备的用途
-
10:17 - 10:19从而开拓我们的情绪。
-
10:21 - 10:25所以相反地,我所做的就是把情绪带到我们的科技中
-
10:25 - 10:27让我们的科技更加有响应性。
-
10:27 - 10:29我想要那些把我们分离开来的电子设备
-
10:29 - 10:32重新把我们聚在一起。
-
10:32 - 10:36现在是黄金时机,我们可以通过人性化科技
-
10:36 - 10:40重新想象我们该如何和这些机器交流结合,
-
10:40 - 10:44从而重新想象,作为人类的我们
-
10:44 - 10:46如何与彼此交流结合。
-
10:46 - 10:48谢谢。
-
10:48 - 10:52(掌声)
- Title:
- 这个应用程序知道你的感受 — 从你脸上的表情
- Speaker:
- 拉娜·艾尔·卡里奥碧
- Description:
-
我们的情绪影响着我们生活的方方面面——如何学习,如何交流,如何做决定。但是情绪从未出现在我们的电子生活中;我们与之互动的电子设备和应用程序毫无办法了解我们的感受。科学家拉娜·艾尔·卡里奥碧一心想改变这个现象。她展示了一项强大的技术,可以读懂你的面部表情,并且和相应情绪挂钩。这一“情绪引擎”有着重大意义,她说,它不单可以改变我们和机器的互动——还可以改变人与人之间的互动。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:04
Dimitra Papageorgiou approved Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face | ||
Huazhe Xie edited Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face | ||
Huazhe Xie accepted Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face | ||
Huazhe Xie edited Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face | ||
Huazhe Xie edited Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face | ||
Huazhe Xie edited Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face | ||
Huazhe Xie edited Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face | ||
Huazhe Xie edited Chinese, Simplified subtitles for This app knows how you feel -- from the look on your face |