1 00:00:00,556 --> 00:00:04,573 我們的情緒會影響 日常生活的各個層面, 2 00:00:04,573 --> 00:00:08,149 從我們的健康到如何學習、 如何做事、做決定, 3 00:00:08,149 --> 00:00:09,922 無論事情大小都受此影響。 4 00:00:10,672 --> 00:00:14,162 我們的情緒也會影響 我們如何與他人交流。 5 00:00:15,132 --> 00:00:19,108 我們已經進化到生活在 一個像這樣的世界, 6 00:00:19,108 --> 00:00:23,427 然而我們的生活卻愈來愈像這樣── 7 00:00:23,427 --> 00:00:26,561 這是我女兒昨晚傳來的簡訊── 8 00:00:26,561 --> 00:00:29,301 一個缺乏情感的世界。 9 00:00:29,301 --> 00:00:31,252 所以我帶著使命要改變這種狀況。 10 00:00:31,252 --> 00:00:35,343 我想將情感重新注入數位體驗中。 11 00:00:36,223 --> 00:00:39,300 我在 15 年前走上這條路。 12 00:00:39,300 --> 00:00:41,366 當時我在埃及是電腦科學家, 13 00:00:41,366 --> 00:00:45,871 而且我才拿到劍橋大學 博士班的入學許可。 14 00:00:45,871 --> 00:00:50,284 所以我做了一件 對身為年輕新婚的埃及回教婦女來說 15 00:00:50,284 --> 00:00:52,209 相當不尋常的事: 16 00:00:53,599 --> 00:00:56,598 在我先生的支持下, 他留在埃及, 17 00:00:56,598 --> 00:00:59,616 我整理行囊搬到英格蘭。 18 00:00:59,616 --> 00:01:02,844 在劍橋,離家千里遠的地方, 19 00:01:02,844 --> 00:01:06,257 我發現我與筆電相處的時間, 20 00:01:06,257 --> 00:01:08,486 遠超過與人交流的時間。 21 00:01:08,486 --> 00:01:13,339 儘管與筆電相處如此親密, 它卻完全不了解我的感受, 22 00:01:13,339 --> 00:01:16,550 它不知道我是否開心, 23 00:01:16,550 --> 00:01:19,538 今天順不順,是否緊張或困惑, 24 00:01:19,538 --> 00:01:22,460 所以那令我沮喪。 25 00:01:23,600 --> 00:01:28,831 更糟的是,在我上線 與遠方的家人聯絡時, 26 00:01:29,421 --> 00:01:32,703 我覺得我的情感 在這虛擬空間裡消失無蹤。 27 00:01:32,703 --> 00:01:37,858 我好想家,我好孤單, 有些日子我真的哭了, 28 00:01:37,858 --> 00:01:42,786 但我所能傳達的只有這個。 29 00:01:42,786 --> 00:01:44,806 (笑聲) 30 00:01:44,806 --> 00:01:49,780 今天的科技有很多智商, 卻沒有情緒智商; 31 00:01:49,780 --> 00:01:52,956 有很多認知智商, 卻沒有情緒智商。 32 00:01:52,956 --> 00:01:55,153 所以這讓我思考, 33 00:01:55,153 --> 00:01:58,777 如果我們的科技可以 感受我們的情緒會怎樣? 34 00:01:58,777 --> 00:02:02,853 如果我們的電子裝置可以 感受我們的感覺並做出相對回應, 35 00:02:02,853 --> 00:02:05,866 就像一位高情商的朋友一樣, 會是怎樣? 36 00:02:06,666 --> 00:02:10,230 這些問題讓我及我的團隊 37 00:02:10,230 --> 00:02:14,607 創造出可以讀懂情緒 並做出回應的科技, 38 00:02:14,607 --> 00:02:17,697 我們的起始點是人的臉。 39 00:02:18,577 --> 00:02:21,750 人類的臉恰好就是有力的管道, 40 00:02:21,750 --> 00:02:25,766 能用來傳遞社交及情緒狀態, 41 00:02:25,766 --> 00:02:28,776 從愉快、驚訝, 42 00:02:28,776 --> 00:02:32,979 到同情、好奇都可以。 43 00:02:32,979 --> 00:02:37,907 情緒科學中,我們稱每一種 顏面肌肉運動為一個動作單位。 44 00:02:37,907 --> 00:02:40,832 舉例來說,動作單位 12, 45 00:02:40,832 --> 00:02:42,870 這可不是好萊塢的動作巨片, 46 00:02:42,870 --> 00:02:46,312 這其實是拉嘴角, 這是微笑的主要部分。 47 00:02:46,312 --> 00:02:49,300 大家都試一下吧! 讓會場有點笑容。 48 00:02:49,300 --> 00:02:51,954 另一個例子是動作單位 4。 這是蹙額。 49 00:02:51,954 --> 00:02:54,192 就是你把眉頭皺在一起 50 00:02:54,192 --> 00:02:56,459 所產生的紋理和皺紋。 51 00:02:56,459 --> 00:03:00,754 我們都不喜歡皺紋, 但那是負面情緒的重要指標。 52 00:03:00,754 --> 00:03:02,960 我們有約 45 種動作單位, 53 00:03:02,960 --> 00:03:06,350 排列組合後可以表現出數百種情緒。 54 00:03:06,350 --> 00:03:10,251 要教電腦讀懂這些顏面表情很難, 55 00:03:10,251 --> 00:03:13,223 因為這些動作單位很快、很細微, 56 00:03:13,223 --> 00:03:15,777 而且還有各種不同的組合法。 57 00:03:15,777 --> 00:03:19,515 所以再舉個例子,微笑和假笑。 58 00:03:19,515 --> 00:03:23,268 兩者看起來有點像, 但是意義大不相同。 59 00:03:23,268 --> 00:03:24,986 (笑聲) 60 00:03:24,986 --> 00:03:27,990 微笑是正面的, 61 00:03:27,990 --> 00:03:29,260 假笑往往是負面的。 62 00:03:29,260 --> 00:03:33,136 有時候一個假笑可以讓你成名。 63 00:03:33,136 --> 00:03:35,960 但是說真的,要讓電腦能夠 64 00:03:35,960 --> 00:03:38,815 辨認出這兩種表情的不同很重要。 65 00:03:38,815 --> 00:03:40,627 所以我們怎麼做呢? 66 00:03:40,627 --> 00:03:42,414 我們給我們的演算法 67 00:03:42,414 --> 00:03:46,524 成千上萬筆我們知道在微笑的例子, 68 00:03:46,524 --> 00:03:49,589 各式人種、年齡、性別都有, 69 00:03:49,589 --> 00:03:52,400 假笑也如法泡製。 70 00:03:52,400 --> 00:03:53,954 然後,機器用深度學習法, 71 00:03:53,954 --> 00:03:56,810 讓演算法找出臉上 所有的紋理、皺紋, 72 00:03:56,810 --> 00:03:59,390 及臉型的改變, 73 00:03:59,390 --> 00:04:02,592 基本上學得所有的微笑 都有共同的特點, 74 00:04:02,592 --> 00:04:05,773 所有的假笑也有 稍稍不同的特點, 75 00:04:05,773 --> 00:04:08,141 所以下一次電腦看到新的面孔, 76 00:04:08,141 --> 00:04:10,440 它基本上會得知 77 00:04:10,440 --> 00:04:13,473 這張臉與微笑有相同的特點, 78 00:04:13,473 --> 00:04:17,751 然後它會說,「啊哈! 我認得這個,這是微笑的表情。」 79 00:04:18,381 --> 00:04:21,181 要展示怎麼用 這項科技的最佳方法, 80 00:04:21,181 --> 00:04:23,317 就是來一個現場示範, 81 00:04:23,317 --> 00:04:27,230 所以我需要一名志願者, 最好是有臉的。 82 00:04:27,230 --> 00:04:29,564 (笑聲) 83 00:04:29,564 --> 00:04:32,335 我們今天的志願者是克蘿伊。 84 00:04:33,325 --> 00:04:37,783 過去五年,我們從 麻省理工的一項研究計畫 85 00:04:37,783 --> 00:04:38,939 發展成一家公司, 86 00:04:38,939 --> 00:04:42,131 我的團隊很努力 讓這項科技能快速傳播, 87 00:04:42,131 --> 00:04:44,540 好像我們常說的,(病毒)擴散中。 88 00:04:44,540 --> 00:04:47,210 我們也把它縮小, 讓核心情緒引擎能用在 89 00:04:47,210 --> 00:04:50,530 任何有照相機的行動裝置上, 像是這台 iPad。 90 00:04:50,530 --> 00:04:53,316 現在來試一下。 91 00:04:54,756 --> 00:04:58,680 正如你們所見,基本上 演算法已經找到了克蘿伊的臉, 92 00:04:58,680 --> 00:05:00,372 就是這個白色的框框, 93 00:05:00,372 --> 00:05:02,943 它正在找她臉上的 幾個主要特徵點, 94 00:05:02,943 --> 00:05:05,799 像是她的眉毛、 眼睛、嘴巴和鼻子。 95 00:05:05,799 --> 00:05:08,786 問題是,它能辨識她的表情嗎? 96 00:05:08,786 --> 00:05:10,457 我們來考一下機器。 97 00:05:10,457 --> 00:05:14,643 首先,來一張撲克臉。 對,好極了!(笑聲) 98 00:05:14,643 --> 00:05:17,456 然後她微笑的時後, 這是真誠的微笑,很棒, 99 00:05:17,456 --> 00:05:19,756 你們可以看到她微笑的時候, 綠色的信號格增加。 100 00:05:19,756 --> 00:05:20,978 那可是個好大的微笑。 101 00:05:20,978 --> 00:05:24,021 你可以試一下淺淺的微笑嗎? 看看電腦能不能辨識? 102 00:05:24,021 --> 00:05:26,352 它的確也能辨識淺淺的微笑。 103 00:05:26,352 --> 00:05:28,477 我們真的很努力要做到這一點。 104 00:05:28,477 --> 00:05:31,439 然後抬眉毛,表示驚訝。 105 00:05:31,439 --> 00:05:35,688 蹙額,表示困惑。 106 00:05:35,688 --> 00:05:39,695 皺眉,很好,很完美。 107 00:05:39,695 --> 00:05:43,188 這些就是不同的動作單位。 還有更多。 108 00:05:43,188 --> 00:05:45,220 這只是瘦身版示範。 109 00:05:45,220 --> 00:05:48,368 我們稱每一個讀取 為一個情緒資料點, 110 00:05:48,368 --> 00:05:51,337 然後它們一起發動 就能描繪出不同的情緒。 111 00:05:51,337 --> 00:05:55,990 右邊的這張示範── 表現你很開心。 112 00:05:55,990 --> 00:05:57,444 所以那是高興。高興出現了。 113 00:05:57,444 --> 00:05:59,371 然後給我一張噁心的臉。 114 00:05:59,371 --> 00:06:03,643 試著回想贊恩退出 男團一世代的那種感覺。 115 00:06:03,643 --> 00:06:05,153 (笑聲) 116 00:06:05,153 --> 00:06:09,495 沒錯,皺鼻子。太棒了! 117 00:06:09,495 --> 00:06:13,226 效價呈現高負值, 所以你一定是大粉絲。 118 00:06:13,226 --> 00:06:15,926 效價指的是感受的好壞程度, 119 00:06:15,926 --> 00:06:18,712 而投入程度指的是 她的表情有多大。 120 00:06:18,712 --> 00:06:22,126 想像一下如果克羅伊 能使用這套即時情緒串流, 121 00:06:22,126 --> 00:06:24,935 而且她還可以跟任何人分享。 122 00:06:24,935 --> 00:06:27,858 謝謝妳! 123 00:06:27,858 --> 00:06:32,479 (掌聲) 124 00:06:33,749 --> 00:06:39,019 到目前為止我們已經 累積了 120 億筆情緒數據點。 125 00:06:39,019 --> 00:06:41,630 這是世界上最大的情緒資料庫。 126 00:06:41,630 --> 00:06:44,593 我們從 290 萬筆臉孔短片 收集資料, 127 00:06:44,593 --> 00:06:47,533 由同意與我們分享他們情緒的人提供, 128 00:06:47,533 --> 00:06:50,398 來源遍及全球 75 個國家。 129 00:06:50,398 --> 00:06:52,113 資料每天都在增加。 130 00:06:52,603 --> 00:06:54,670 這真令我驚異萬分, 131 00:06:54,670 --> 00:06:57,865 我們能量化像情緒 這麼個人的東西, 132 00:06:57,865 --> 00:07:00,100 還能做到這個地步。 133 00:07:00,100 --> 00:07:02,277 所以至今我們學到什麼? 134 00:07:03,057 --> 00:07:05,388 性別。 135 00:07:05,388 --> 00:07:09,034 我們的數據證實了一些 你們大概已經料到的事。 136 00:07:09,034 --> 00:07:10,891 女人的表情比男人的更豐富。 137 00:07:10,891 --> 00:07:13,574 她們不但更常微笑, 微笑的時間還更久, 138 00:07:13,574 --> 00:07:15,668 而且我們現在真的能量化 139 00:07:15,668 --> 00:07:18,614 造成男女不同反應的東西。 140 00:07:18,614 --> 00:07:20,904 來看文化:在美國, 141 00:07:20,904 --> 00:07:24,108 女性比男性多 40% 更願意表達情感, 142 00:07:24,108 --> 00:07:27,753 但奇怪的是, 在英國看不到這樣的差距。 143 00:07:27,753 --> 00:07:30,259 (笑聲) 144 00:07:31,296 --> 00:07:35,323 再看年齡:50 歲以上的人 145 00:07:35,323 --> 00:07:38,759 比年輕人多 25% 更願意表現情感。 146 00:07:39,899 --> 00:07:43,751 20 多歲的女性 比同年齡的男性更常微笑, 147 00:07:43,751 --> 00:07:47,590 大概是因為這是約會必殺技。 148 00:07:47,590 --> 00:07:50,207 但是這筆數據最讓我們訝異的, 149 00:07:50,207 --> 00:07:53,410 大概是我們隨時都有表情, 150 00:07:53,410 --> 00:07:56,243 即使我們獨自坐在裝置前也是如此, 151 00:07:56,243 --> 00:07:59,797 而且不只是在我們看 臉書上貓短片的的時候。 152 00:08:00,217 --> 00:08:03,227 我們在寫信、傳簡訊、網購, 153 00:08:03,227 --> 00:08:05,527 甚至在報稅時都表情豐富。 154 00:08:05,527 --> 00:08:07,919 今天這筆數據用在哪裡呢? 155 00:08:07,919 --> 00:08:10,682 用在瞭解我們如何與媒體互動, 156 00:08:10,682 --> 00:08:13,166 所以能瞭解影片爆紅及投票行為, 157 00:08:13,166 --> 00:08:15,906 也用在情緒辨識科技, 158 00:08:15,906 --> 00:08:20,527 我想分享幾個 讓我特別感動的例子。 159 00:08:21,197 --> 00:08:24,265 情緒辨識眼鏡能幫助 160 00:08:24,265 --> 00:08:27,493 視障者讀取別人臉上的表情, 161 00:08:27,493 --> 00:08:31,680 也能幫助各種程度的 自閉症患者解讀情緒, 162 00:08:31,680 --> 00:08:34,458 這是他們的最大難題。 163 00:08:35,918 --> 00:08:38,777 在教育上,想像一下 如果你的學習應用程式 164 00:08:38,777 --> 00:08:41,587 感受到你的困惑並放慢速度, 165 00:08:41,587 --> 00:08:43,444 或是知道你覺得無聊了 所以加快速度, 166 00:08:43,444 --> 00:08:46,413 就像一位好老師 在課堂上做的一樣。 167 00:08:47,043 --> 00:08:49,644 如果你的手錶能追蹤你的心情, 168 00:08:49,644 --> 00:08:52,337 或是你的車能感受到 你現在很疲倦, 169 00:08:52,337 --> 00:08:54,885 或是你的冰箱能知道 你現在壓力很大, 170 00:08:54,885 --> 00:08:59,451 所以它會自動鎖住, 你就不能拿東西來吃。(笑聲) 171 00:08:59,451 --> 00:09:02,488 我會喜歡那個,真的。 172 00:09:03,668 --> 00:09:05,595 當我在劍橋的時候, 173 00:09:05,595 --> 00:09:07,908 如果我能用這套 即時情緒串流工具, 174 00:09:07,908 --> 00:09:11,437 我就能用非常自然的方法 與遠在家鄉的家人分享, 175 00:09:11,437 --> 00:09:15,408 就好像我們都在 同一間房間一樣,那有多好? 176 00:09:15,408 --> 00:09:18,550 我想五年後, 177 00:09:18,550 --> 00:09:20,887 我們所有的裝置 都會有一個情緒晶片, 178 00:09:20,887 --> 00:09:26,191 我們就會忘記當年 裝置還不會回應我們皺眉的時候說出: 179 00:09:26,191 --> 00:09:29,200 「嗯,你不喜歡這個,是吧?」 是什麼樣子。 180 00:09:29,200 --> 00:09:32,961 我們最大的挑戰是 這種科技有許多應用程式, 181 00:09:32,961 --> 00:09:35,864 我和我的團隊瞭解 我們不可能只靠自己發展全部, 182 00:09:35,864 --> 00:09:39,360 所以我們開放這項科技 讓其他開發者 183 00:09:39,360 --> 00:09:41,474 能繼續開發並激發創意。 184 00:09:41,474 --> 00:09:45,560 我們知道會有潛在風險, 185 00:09:45,560 --> 00:09:47,627 也可能遭到濫用, 186 00:09:47,627 --> 00:09:50,576 但是個人認為, 在花了這麼多年做這個之後, 187 00:09:50,576 --> 00:09:53,548 我相信這對人類的益處, 188 00:09:53,548 --> 00:09:55,823 就是開發情緒智能科技的益處, 189 00:09:55,823 --> 00:09:59,399 遠超過誤用的潛在危險。 190 00:09:59,399 --> 00:10:01,930 我請大家口耳相傳。 191 00:10:01,930 --> 00:10:04,484 愈多人知道這項科技, 192 00:10:04,484 --> 00:10:07,661 我們就愈能發聲說明 這該如何使用。 193 00:10:09,081 --> 00:10:13,655 隨著我們的生活愈來愈數位化, 194 00:10:13,655 --> 00:10:17,153 試圖以遏止使用裝置來重拾情緒 195 00:10:17,153 --> 00:10:19,382 是一場必敗的仗。 196 00:10:20,622 --> 00:10:24,536 與其如此, 我寧可把情感帶進科技, 197 00:10:24,536 --> 00:10:26,765 讓我們的科技更有回應。 198 00:10:26,765 --> 00:10:29,435 所以我想用這些 原本使我們疏遠的裝置, 199 00:10:29,435 --> 00:10:31,897 讓我們重新結合在一起。 200 00:10:31,897 --> 00:10:36,485 藉著把科技人性化, 我們擁有這個黃金時機 201 00:10:36,485 --> 00:10:39,782 來重新想像我們如何 與機器連結, 202 00:10:39,782 --> 00:10:44,263 進而想像我們身為人類 203 00:10:44,263 --> 00:10:46,167 如何能重新連結彼此。 204 00:10:46,167 --> 00:10:48,327 謝謝。 205 00:10:48,327 --> 00:10:51,640 (掌聲)