WEBVTT 00:00:00.556 --> 00:00:04.573 我們的情緒會影響 日常生活的各個層面, 00:00:04.573 --> 00:00:08.149 從我們的健康到如何學習、 如何做事、做決定, 00:00:08.149 --> 00:00:09.922 無論事情大小都受此影響。 00:00:10.672 --> 00:00:14.162 我們的情緒也會影響 我們如何與他人交流。 00:00:15.132 --> 00:00:19.108 我們已經進化到生活在 一個像這樣的世界, 00:00:19.108 --> 00:00:23.427 然而我們的生活卻愈來愈像這樣── 00:00:23.427 --> 00:00:26.561 這是我女兒昨晚傳來的簡訊── 00:00:26.561 --> 00:00:29.301 一個缺乏情感的世界。 00:00:29.301 --> 00:00:31.252 所以我帶著使命要改變這種狀況。 00:00:31.252 --> 00:00:35.343 我想將情感重新注入數位體驗中。 NOTE Paragraph 00:00:36.223 --> 00:00:39.300 我在 15 年前走上這條路。 00:00:39.300 --> 00:00:41.366 當時我在埃及是電腦科學家, 00:00:41.366 --> 00:00:45.871 而且我才拿到劍橋大學 博士班的入學許可。 00:00:45.871 --> 00:00:50.284 所以我做了一件 對身為年輕新婚的埃及回教婦女來說 00:00:50.284 --> 00:00:52.209 相當不尋常的事: 00:00:53.599 --> 00:00:56.598 在我先生的支持下, 他留在埃及, 00:00:56.598 --> 00:00:59.616 我整理行囊搬到英格蘭。 00:00:59.616 --> 00:01:02.844 在劍橋,離家千里遠的地方, 00:01:02.844 --> 00:01:06.257 我發現我與筆電相處的時間, 00:01:06.257 --> 00:01:08.486 遠超過與人交流的時間。 00:01:08.486 --> 00:01:13.339 儘管與筆電相處如此親密, 它卻完全不了解我的感受, 00:01:13.339 --> 00:01:16.550 它不知道我是否開心, 00:01:16.550 --> 00:01:19.538 今天順不順,是否緊張或困惑, 00:01:19.538 --> 00:01:22.460 所以那令我沮喪。 00:01:23.600 --> 00:01:28.831 更糟的是,在我上線 與遠方的家人聯絡時, 00:01:29.421 --> 00:01:32.703 我覺得我的情感 在這虛擬空間裡消失無蹤。 00:01:32.703 --> 00:01:37.858 我好想家,我好孤單, 有些日子我真的哭了, 00:01:37.858 --> 00:01:42.786 但我所能傳達的只有這個。 00:01:42.786 --> 00:01:44.806 (笑聲) 00:01:44.806 --> 00:01:49.780 今天的科技有很多智商, 卻沒有情緒智商; 00:01:49.780 --> 00:01:52.956 有很多認知智商, 卻沒有情緒智商。 00:01:52.956 --> 00:01:55.153 所以這讓我思考, 00:01:55.153 --> 00:01:58.777 如果我們的科技可以 感受我們的情緒會怎樣? 00:01:58.777 --> 00:02:02.853 如果我們的電子裝置可以 感受我們的感覺並做出相對回應, 00:02:02.853 --> 00:02:05.866 就像一位高情商的朋友一樣, 會是怎樣? 00:02:06.666 --> 00:02:10.230 這些問題讓我及我的團隊 00:02:10.230 --> 00:02:14.607 創造出可以讀懂情緒 並做出回應的科技, 00:02:14.607 --> 00:02:17.697 我們的起始點是人的臉。 NOTE Paragraph 00:02:18.577 --> 00:02:21.750 人類的臉恰好就是有力的管道, 00:02:21.750 --> 00:02:25.766 能用來傳遞社交及情緒狀態, 00:02:25.766 --> 00:02:28.776 從愉快、驚訝, 00:02:28.776 --> 00:02:32.979 到同情、好奇都可以。 00:02:32.979 --> 00:02:37.907 情緒科學中,我們稱每一種 顏面肌肉運動為一個動作單位。 00:02:37.907 --> 00:02:40.832 舉例來說,動作單位 12, 00:02:40.832 --> 00:02:42.870 這可不是好萊塢的動作巨片, 00:02:42.870 --> 00:02:46.312 這其實是拉嘴角, 這是微笑的主要部分。 00:02:46.312 --> 00:02:49.300 大家都試一下吧! 讓會場有點笑容。 00:02:49.300 --> 00:02:51.954 另一個例子是動作單位 4。 這是蹙額。 00:02:51.954 --> 00:02:54.192 就是你把眉頭皺在一起 00:02:54.192 --> 00:02:56.459 所產生的紋理和皺紋。 00:02:56.459 --> 00:03:00.754 我們都不喜歡皺紋, 但那是負面情緒的重要指標。 00:03:00.754 --> 00:03:02.960 我們有約 45 種動作單位, 00:03:02.960 --> 00:03:06.350 排列組合後可以表現出數百種情緒。 NOTE Paragraph 00:03:06.350 --> 00:03:10.251 要教電腦讀懂這些顏面表情很難, 00:03:10.251 --> 00:03:13.223 因為這些動作單位很快、很細微, 00:03:13.223 --> 00:03:15.777 而且還有各種不同的組合法。 00:03:15.777 --> 00:03:19.515 所以再舉個例子,微笑和假笑。 00:03:19.515 --> 00:03:23.268 兩者看起來有點像, 但是意義大不相同。 00:03:23.268 --> 00:03:24.986 (笑聲) 00:03:24.986 --> 00:03:27.990 微笑是正面的, 00:03:27.990 --> 00:03:29.260 假笑往往是負面的。 00:03:29.260 --> 00:03:33.136 有時候一個假笑可以讓你成名。 00:03:33.136 --> 00:03:35.960 但是說真的,要讓電腦能夠 00:03:35.960 --> 00:03:38.815 辨認出這兩種表情的不同很重要。 NOTE Paragraph 00:03:38.815 --> 00:03:40.627 所以我們怎麼做呢? 00:03:40.627 --> 00:03:42.414 我們給我們的演算法 00:03:42.414 --> 00:03:46.524 成千上萬筆我們知道在微笑的例子, 00:03:46.524 --> 00:03:49.589 各式人種、年齡、性別都有, 00:03:49.589 --> 00:03:52.400 假笑也如法泡製。 00:03:52.400 --> 00:03:53.954 然後,機器用深度學習法, 00:03:53.954 --> 00:03:56.810 讓演算法找出臉上 所有的紋理、皺紋, 00:03:56.810 --> 00:03:59.390 及臉型的改變, 00:03:59.390 --> 00:04:02.592 基本上學得所有的微笑 都有共同的特點, 00:04:02.592 --> 00:04:05.773 所有的假笑也有 稍稍不同的特點, 00:04:05.773 --> 00:04:08.141 所以下一次電腦看到新的面孔, 00:04:08.141 --> 00:04:10.440 它基本上會得知 00:04:10.440 --> 00:04:13.473 這張臉與微笑有相同的特點, 00:04:13.473 --> 00:04:17.751 然後它會說,「啊哈! 我認得這個,這是微笑的表情。」 NOTE Paragraph 00:04:18.381 --> 00:04:21.181 要展示怎麼用 這項科技的最佳方法, 00:04:21.181 --> 00:04:23.317 就是來一個現場示範, 00:04:23.317 --> 00:04:27.230 所以我需要一名志願者, 最好是有臉的。 00:04:27.230 --> 00:04:29.564 (笑聲) 00:04:29.564 --> 00:04:32.335 我們今天的志願者是克蘿伊。 NOTE Paragraph 00:04:33.325 --> 00:04:37.783 過去五年,我們從 麻省理工的一項研究計畫 00:04:37.783 --> 00:04:38.939 發展成一家公司, 00:04:38.939 --> 00:04:42.131 我的團隊很努力 讓這項科技能快速傳播, 00:04:42.131 --> 00:04:44.540 好像我們常說的,(病毒)擴散中。 00:04:44.540 --> 00:04:47.210 我們也把它縮小, 讓核心情緒引擎能用在 00:04:47.210 --> 00:04:50.530 任何有照相機的行動裝置上, 像是這台 iPad。 00:04:50.530 --> 00:04:53.316 現在來試一下。 NOTE Paragraph 00:04:54.756 --> 00:04:58.680 正如你們所見,基本上 演算法已經找到了克蘿伊的臉, 00:04:58.680 --> 00:05:00.372 就是這個白色的框框, 00:05:00.372 --> 00:05:02.943 它正在找她臉上的 幾個主要特徵點, 00:05:02.943 --> 00:05:05.799 像是她的眉毛、 眼睛、嘴巴和鼻子。 00:05:05.799 --> 00:05:08.786 問題是,它能辨識她的表情嗎? 00:05:08.786 --> 00:05:10.457 我們來考一下機器。 00:05:10.457 --> 00:05:14.643 首先,來一張撲克臉。 對,好極了!(笑聲) 00:05:14.643 --> 00:05:17.456 然後她微笑的時後, 這是真誠的微笑,很棒, 00:05:17.456 --> 00:05:19.756 你們可以看到她微笑的時候, 綠色的信號格增加。 00:05:19.756 --> 00:05:20.978 那可是個好大的微笑。 00:05:20.978 --> 00:05:24.021 你可以試一下淺淺的微笑嗎? 看看電腦能不能辨識? 00:05:24.021 --> 00:05:26.352 它的確也能辨識淺淺的微笑。 00:05:26.352 --> 00:05:28.477 我們真的很努力要做到這一點。 00:05:28.477 --> 00:05:31.439 然後抬眉毛,表示驚訝。 00:05:31.439 --> 00:05:35.688 蹙額,表示困惑。 00:05:35.688 --> 00:05:39.695 皺眉,很好,很完美。 00:05:39.695 --> 00:05:43.188 這些就是不同的動作單位。 還有更多。 00:05:43.188 --> 00:05:45.220 這只是瘦身版示範。 00:05:45.220 --> 00:05:48.368 我們稱每一個讀取 為一個情緒資料點, 00:05:48.368 --> 00:05:51.337 然後它們一起發動 就能描繪出不同的情緒。 00:05:51.337 --> 00:05:55.990 右邊的這張示範── 表現你很開心。 00:05:55.990 --> 00:05:57.444 所以那是高興。高興出現了。 00:05:57.444 --> 00:05:59.371 然後給我一張噁心的臉。 00:05:59.371 --> 00:06:03.643 試著回想贊恩退出 男團一世代的那種感覺。 00:06:03.643 --> 00:06:05.153 (笑聲) 00:06:05.153 --> 00:06:09.495 沒錯,皺鼻子。太棒了! 00:06:09.495 --> 00:06:13.226 效價呈現高負值, 所以你一定是大粉絲。 00:06:13.226 --> 00:06:15.926 效價指的是感受的好壞程度, 00:06:15.926 --> 00:06:18.712 而投入程度指的是 她的表情有多大。 00:06:18.712 --> 00:06:22.126 想像一下如果克羅伊 能使用這套即時情緒串流, 00:06:22.126 --> 00:06:24.935 而且她還可以跟任何人分享。 00:06:24.935 --> 00:06:27.858 謝謝妳! 00:06:27.858 --> 00:06:32.479 (掌聲) NOTE Paragraph 00:06:33.749 --> 00:06:39.019 到目前為止我們已經 累積了 120 億筆情緒數據點。 00:06:39.019 --> 00:06:41.630 這是世界上最大的情緒資料庫。 00:06:41.630 --> 00:06:44.593 我們從 290 萬筆臉孔短片 收集資料, 00:06:44.593 --> 00:06:47.533 由同意與我們分享他們情緒的人提供, 00:06:47.533 --> 00:06:50.398 來源遍及全球 75 個國家。 00:06:50.398 --> 00:06:52.113 資料每天都在增加。 NOTE Paragraph 00:06:52.603 --> 00:06:54.670 這真令我驚異萬分, 00:06:54.670 --> 00:06:57.865 我們能量化像情緒 這麼個人的東西, 00:06:57.865 --> 00:07:00.100 還能做到這個地步。 NOTE Paragraph 00:07:00.100 --> 00:07:02.277 所以至今我們學到什麼? 00:07:03.057 --> 00:07:05.388 性別。 00:07:05.388 --> 00:07:09.034 我們的數據證實了一些 你們大概已經料到的事。 00:07:09.034 --> 00:07:10.891 女人的表情比男人的更豐富。 00:07:10.891 --> 00:07:13.574 她們不但更常微笑, 微笑的時間還更久, 00:07:13.574 --> 00:07:15.668 而且我們現在真的能量化 00:07:15.668 --> 00:07:18.614 造成男女不同反應的東西。 00:07:18.614 --> 00:07:20.904 來看文化:在美國, 00:07:20.904 --> 00:07:24.108 女性比男性多 40% 更願意表達情感, 00:07:24.108 --> 00:07:27.753 但奇怪的是, 在英國看不到這樣的差距。 00:07:27.753 --> 00:07:30.259 (笑聲) 00:07:31.296 --> 00:07:35.323 再看年齡:50 歲以上的人 00:07:35.323 --> 00:07:38.759 比年輕人多 25% 更願意表現情感。 00:07:39.899 --> 00:07:43.751 20 多歲的女性 比同年齡的男性更常微笑, 00:07:43.751 --> 00:07:47.590 大概是因為這是約會必殺技。 00:07:47.590 --> 00:07:50.207 但是這筆數據最讓我們訝異的, 00:07:50.207 --> 00:07:53.410 大概是我們隨時都有表情, 00:07:53.410 --> 00:07:56.243 即使我們獨自坐在裝置前也是如此, 00:07:56.243 --> 00:07:59.797 而且不只是在我們看 臉書上貓短片的的時候。 00:08:00.217 --> 00:08:03.227 我們在寫信、傳簡訊、網購, 00:08:03.227 --> 00:08:05.527 甚至在報稅時都表情豐富。 NOTE Paragraph 00:08:05.527 --> 00:08:07.919 今天這筆數據用在哪裡呢? 00:08:07.919 --> 00:08:10.682 用在瞭解我們如何與媒體互動, 00:08:10.682 --> 00:08:13.166 所以能瞭解影片爆紅及投票行為, 00:08:13.166 --> 00:08:15.906 也用在情緒辨識科技, 00:08:15.906 --> 00:08:20.527 我想分享幾個 讓我特別感動的例子。 00:08:21.197 --> 00:08:24.265 情緒辨識眼鏡能幫助 00:08:24.265 --> 00:08:27.493 視障者讀取別人臉上的表情, 00:08:27.493 --> 00:08:31.680 也能幫助各種程度的 自閉症患者解讀情緒, 00:08:31.680 --> 00:08:34.458 這是他們的最大難題。 00:08:35.918 --> 00:08:38.777 在教育上,想像一下 如果你的學習應用程式 00:08:38.777 --> 00:08:41.587 感受到你的困惑並放慢速度, 00:08:41.587 --> 00:08:43.444 或是知道你覺得無聊了 所以加快速度, 00:08:43.444 --> 00:08:46.413 就像一位好老師 在課堂上做的一樣。 00:08:47.043 --> 00:08:49.644 如果你的手錶能追蹤你的心情, 00:08:49.644 --> 00:08:52.337 或是你的車能感受到 你現在很疲倦, 00:08:52.337 --> 00:08:54.885 或是你的冰箱能知道 你現在壓力很大, 00:08:54.885 --> 00:08:59.451 所以它會自動鎖住, 你就不能拿東西來吃。(笑聲) 00:08:59.451 --> 00:09:02.488 我會喜歡那個,真的。 00:09:03.668 --> 00:09:05.595 當我在劍橋的時候, 00:09:05.595 --> 00:09:07.908 如果我能用這套 即時情緒串流工具, 00:09:07.908 --> 00:09:11.437 我就能用非常自然的方法 與遠在家鄉的家人分享, 00:09:11.437 --> 00:09:15.408 就好像我們都在 同一間房間一樣,那有多好? NOTE Paragraph 00:09:15.408 --> 00:09:18.550 我想五年後, 00:09:18.550 --> 00:09:20.887 我們所有的裝置 都會有一個情緒晶片, 00:09:20.887 --> 00:09:26.191 我們就會忘記當年 裝置還不會回應我們皺眉的時候說出: 00:09:26.191 --> 00:09:29.200 「嗯,你不喜歡這個,是吧?」 是什麼樣子。 00:09:29.200 --> 00:09:32.961 我們最大的挑戰是 這種科技有許多應用程式, 00:09:32.961 --> 00:09:35.864 我和我的團隊瞭解 我們不可能只靠自己發展全部, 00:09:35.864 --> 00:09:39.360 所以我們開放這項科技 讓其他開發者 00:09:39.360 --> 00:09:41.474 能繼續開發並激發創意。 00:09:41.474 --> 00:09:45.560 我們知道會有潛在風險, 00:09:45.560 --> 00:09:47.627 也可能遭到濫用, 00:09:47.627 --> 00:09:50.576 但是個人認為, 在花了這麼多年做這個之後, 00:09:50.576 --> 00:09:53.548 我相信這對人類的益處, 00:09:53.548 --> 00:09:55.823 就是開發情緒智能科技的益處, 00:09:55.823 --> 00:09:59.399 遠超過誤用的潛在危險。 00:09:59.399 --> 00:10:01.930 我請大家口耳相傳。 00:10:01.930 --> 00:10:04.484 愈多人知道這項科技, 00:10:04.484 --> 00:10:07.661 我們就愈能發聲說明 這該如何使用。 00:10:09.081 --> 00:10:13.655 隨著我們的生活愈來愈數位化, 00:10:13.655 --> 00:10:17.153 試圖以遏止使用裝置來重拾情緒 00:10:17.153 --> 00:10:19.382 是一場必敗的仗。 00:10:20.622 --> 00:10:24.536 與其如此, 我寧可把情感帶進科技, 00:10:24.536 --> 00:10:26.765 讓我們的科技更有回應。 00:10:26.765 --> 00:10:29.435 所以我想用這些 原本使我們疏遠的裝置, 00:10:29.435 --> 00:10:31.897 讓我們重新結合在一起。 00:10:31.897 --> 00:10:36.485 藉著把科技人性化, 我們擁有這個黃金時機 00:10:36.485 --> 00:10:39.782 來重新想像我們如何 與機器連結, 00:10:39.782 --> 00:10:44.263 進而想像我們身為人類 00:10:44.263 --> 00:10:46.167 如何能重新連結彼此。 NOTE Paragraph 00:10:46.167 --> 00:10:48.327 謝謝。 NOTE Paragraph 00:10:48.327 --> 00:10:51.640 (掌聲)