1 00:00:00,556 --> 00:00:04,573 私たちの感情は 生活のあらゆる面に影響します 2 00:00:04,573 --> 00:00:08,148 健康や学び方 ビジネスのやり方や決定の仕方まで 3 00:00:08,148 --> 00:00:09,922 大小様々です 4 00:00:10,672 --> 00:00:14,162 感情は私たちがお互いと 結びつく方法にも影響します 5 00:00:15,132 --> 00:00:19,108 今まで私たちは このような世界に順応してきましたが 6 00:00:19,108 --> 00:00:23,427 現在の世界は どんどん このようになってきています 7 00:00:23,427 --> 00:00:26,561 これは昨晩 娘から届いた 携帯メールです 8 00:00:26,561 --> 00:00:29,301 感情のない世界ですね 9 00:00:29,301 --> 00:00:31,252 私はそれを変えるべく活動しています 10 00:00:31,252 --> 00:00:35,343 デジタルでの体験に 感情を取り戻したいのです 11 00:00:36,223 --> 00:00:39,300 この道を歩み始めたのは15年前― 12 00:00:39,300 --> 00:00:41,366 エジプトでコンピューターサイエンスを 学んでいたときのことです 13 00:00:41,366 --> 00:00:45,871 ケンブリッジ大学の博士課程に 合格したところでした 14 00:00:45,871 --> 00:00:47,984 私が取った行動は 15 00:00:47,984 --> 00:00:52,209 結婚したての若いイスラム教徒の エジプト人妻としてはかなり珍しいものでした 16 00:00:53,599 --> 00:00:56,598 エジプトに残らねばならない 夫のサポートを得て 17 00:00:56,598 --> 00:00:59,616 私は荷物をまとめて イングランドにやってきたのです 18 00:00:59,616 --> 00:01:02,844 故郷から何千キロも離れた ケンブリッジで 19 00:01:02,844 --> 00:01:06,257 私は自分が他の人と過ごすよりも 長い時間を 20 00:01:06,257 --> 00:01:08,486 ノートパソコンと過ごしていることに 気づきました 21 00:01:08,486 --> 00:01:13,339 とても近しいものでありながら ノートパソコンに私の感情は分かりません 22 00:01:13,339 --> 00:01:16,550 私が嬉しかろうと 23 00:01:16,550 --> 00:01:19,538 ストレスを抱えて混乱し 嫌な1日を過ごそうと伝わらないので 24 00:01:19,538 --> 00:01:22,460 歯がゆい気持ちになりました 25 00:01:23,600 --> 00:01:28,831 さらに悪いことに オンラインで 家族と会話をしていても 26 00:01:29,421 --> 00:01:32,703 感情がすべてサイバー空間に 消えてしまうような気がしました 27 00:01:32,703 --> 00:01:37,858 ホームシックで寂しい思いをし 泣いたときもありましたが 28 00:01:37,858 --> 00:01:42,786 感情を表す手段はこれだけでした 29 00:01:42,786 --> 00:01:44,806 (笑) 30 00:01:44,806 --> 00:01:49,780 現在のテクノロジーには IQはあってもEQはありません 31 00:01:49,780 --> 00:01:52,956 知能指数は高くても 心の知能指数はないのです 32 00:01:52,956 --> 00:01:55,153 そこで私は考えました 33 00:01:55,153 --> 00:01:58,777 テクノロジーが感情を 感じ取れるとしたらどうだろう? 34 00:01:58,777 --> 00:02:02,853 心の知能指数を持った友人のように 電子機器が感情を読み取って 35 00:02:02,853 --> 00:02:05,866 それに応じて反応したらどうだろう? 36 00:02:06,666 --> 00:02:10,229 これらの問いによって 私とチームは 37 00:02:10,229 --> 00:02:14,607 感情を読み取り 対応できる テクノロジーを開発するに至り 38 00:02:14,607 --> 00:02:17,697 私たちの出発点は人間の顔でした 39 00:02:18,577 --> 00:02:21,750 人間の顔は 社会的・感情的状態を伝えるのに 40 00:02:21,750 --> 00:02:25,766 誰もが用いている 非常に強力な手段のひとつです 41 00:02:25,766 --> 00:02:28,776 喜びや驚き― 42 00:02:28,776 --> 00:02:32,979 共感や好奇心まで様々あります 43 00:02:32,979 --> 00:02:37,907 感情科学では顔面筋肉の動き それぞれをアクション・ユニットと言います 44 00:02:37,907 --> 00:02:40,832 例えば アクション・ユニット12は 45 00:02:40,832 --> 00:02:42,870 ハリウッド映画のタイトルではありませんよ 46 00:02:42,870 --> 00:02:46,312 これは口の端を引く動きで 笑顔の主な要素です 47 00:02:46,312 --> 00:02:49,300 試してみて下さい 笑顔になりますね 48 00:02:49,300 --> 00:02:51,954 もうひとつの例はアクション・ユニット4で これは眉をひそめる動きです 49 00:02:51,954 --> 00:02:54,192 両眉をひそめると 50 00:02:54,192 --> 00:02:56,459 凹凸やしわができますね 51 00:02:56,459 --> 00:03:00,754 好まれるものではありませんが 否定的な感情を強く示すサインです 52 00:03:00,754 --> 00:03:02,960 こうしたアクション・ユニットが45個あり 53 00:03:02,960 --> 00:03:06,350 これらが組み合わさって 何百もの感情を表します 54 00:03:06,350 --> 00:03:10,251 こうした顔の表情をコンピューターに 読み取らせるのは困難です 55 00:03:10,251 --> 00:03:13,223 アクション・ユニットは動きが素早く 加減が微妙ですし 56 00:03:13,223 --> 00:03:15,777 様々に組み合わせられるためです 57 00:03:15,777 --> 00:03:19,515 例えば 笑顔と ぎこちない作り笑いです 58 00:03:19,515 --> 00:03:23,268 どこかしら似てはいますが 意味合いは随分違います 59 00:03:23,268 --> 00:03:24,986 (笑) 60 00:03:24,986 --> 00:03:27,990 笑顔はポジティブで 61 00:03:27,990 --> 00:03:29,260 わざと作った笑顔は ネガティブなことが多いです 62 00:03:29,260 --> 00:03:33,136 作り笑いで有名になることもあります 63 00:03:33,136 --> 00:03:35,960 ですが真面目な話 コンピューターが 64 00:03:35,960 --> 00:03:38,815 2つの表情の違いを 読み取れることが重要です 65 00:03:38,815 --> 00:03:40,627 では どうすればいいでしょう? 66 00:03:40,627 --> 00:03:42,414 私達の開発したアルゴリズムに 67 00:03:42,414 --> 00:03:46,524 純粋な笑顔を見せている人々の例を 何万例も与えます 68 00:03:46,524 --> 00:03:49,589 人種 年齢 性別も様々です 69 00:03:49,589 --> 00:03:52,400 そして作り笑いにも 同様のことを行います 70 00:03:52,400 --> 00:03:53,954 するとディープラーニング(深層学習)で 71 00:03:53,954 --> 00:03:56,810 アルゴリズムが 顔面に起こる凹凸やしわや 72 00:03:56,810 --> 00:03:59,390 形状の変化を探し 73 00:03:59,390 --> 00:04:02,592 笑顔には共通の特徴があり 74 00:04:02,592 --> 00:04:05,773 作り笑いには微妙に異なる 特徴があることを学習します 75 00:04:05,773 --> 00:04:08,141 以降は 未知の顔に遭遇しても 76 00:04:08,141 --> 00:04:10,440 基本的に この顔が 77 00:04:10,440 --> 00:04:13,473 笑顔の特徴を 備えていることを認識し 78 00:04:13,473 --> 00:04:17,750 「あぁわかった これは笑顔ですね」 と言うのです 79 00:04:18,380 --> 00:04:21,180 このテクノロジーの働きを お見せする一番の方法は 80 00:04:21,180 --> 00:04:23,317 ここで実演することです 81 00:04:23,317 --> 00:04:27,230 誰か手伝ってもらえませんか 顔がある人がいいのですが 82 00:04:27,230 --> 00:04:29,564 (笑) 83 00:04:29,564 --> 00:04:32,335 クロイに手伝ってもらいましょう 84 00:04:33,325 --> 00:04:37,783 ここ5年間で私たちはMITでの 研究プロジェクトから 85 00:04:37,783 --> 00:04:38,939 企業へと変化しました 86 00:04:38,939 --> 00:04:42,131 私のチームはこのテクノロジーが いわば「外の世界で」 87 00:04:42,131 --> 00:04:44,540 機能するよう努力してきました 88 00:04:44,540 --> 00:04:47,210 またコンパクトにすることで 感情エンジンの核となる部分が 89 00:04:47,210 --> 00:04:50,530 iPadのようなカメラ付き携帯機器で 使えるようにしました 90 00:04:50,530 --> 00:04:53,316 では やってみましょう 91 00:04:54,756 --> 00:04:58,680 ご覧のように アルゴリズムが クロイの顔を認識しました 92 00:04:58,680 --> 00:05:00,372 白い四角で示されており 93 00:05:00,372 --> 00:05:02,943 顔の主な部分を追跡しています 94 00:05:02,943 --> 00:05:05,799 眉、目、口や鼻などです 95 00:05:05,799 --> 00:05:08,786 さあ 表情を読み取れるでしょうか? 96 00:05:08,786 --> 00:05:10,457 機械を試してみましょう 97 00:05:10,457 --> 00:05:14,643 まず ポーカーフェイスを見せて下さい いいですね (笑) 98 00:05:14,643 --> 00:05:17,456 それから笑顔です これは心からの笑顔ですね 99 00:05:17,456 --> 00:05:19,756 彼女が笑うと 緑色のバーが上がるのが分かります 100 00:05:19,756 --> 00:05:20,978 満面の笑みでしたね 101 00:05:20,978 --> 00:05:24,021 コンピューターが認識できるか 微笑みを作ってみましょう 102 00:05:24,021 --> 00:05:26,352 微笑みでも認識できますね 103 00:05:26,352 --> 00:05:28,477 これには大変苦労しました 104 00:05:28,477 --> 00:05:31,439 眉が上がると 驚きの表情のサインです 105 00:05:31,439 --> 00:05:35,688 眉をひそめると 困惑を示すサインです 106 00:05:35,688 --> 00:05:39,695 眉をひそめて 完璧です 107 00:05:39,695 --> 00:05:43,188 これらは全て異なるアクション・ユニットで まだ他にも多くありますが 108 00:05:43,188 --> 00:05:45,220 ほんの一部だけお見せしました 109 00:05:45,220 --> 00:05:48,368 それぞれの感情のデータポイントを 読み取らせることができ 110 00:05:48,368 --> 00:05:51,337 それらが合わさって 様々な感情を表現することができます 111 00:05:51,337 --> 00:05:55,990 デモの右側には― 喜びの表情を見せて 112 00:05:55,990 --> 00:05:57,444 これが喜びですね 「喜び」の項目が上がりました 113 00:05:57,444 --> 00:05:59,371 それから 嫌悪の表情を見せて下さい 114 00:05:59,371 --> 00:06:03,643 ゼインがワン・ダイレクションを 脱退したのを思い出して 115 00:06:03,643 --> 00:06:05,153 (笑) 116 00:06:05,153 --> 00:06:09,495 鼻にもしわが寄ります いいですね 117 00:06:09,495 --> 00:06:13,226 感情価がかなりネガティブでしたから 熱心なファンだったのでしょう 118 00:06:13,226 --> 00:06:15,926 「感情価」は経験がいかにポジティブ またはネガティブであったか 119 00:06:15,926 --> 00:06:18,712 そして「関与度」は いかに強く表現したかです 120 00:06:18,712 --> 00:06:22,126 クロイがこのリアルタイムでの 感情ストリームを利用でき 121 00:06:22,126 --> 00:06:24,935 それを他の人と共有できると 想像してみて下さい 122 00:06:24,935 --> 00:06:27,858 どうもありがとう 123 00:06:27,858 --> 00:06:32,479 (拍手) 124 00:06:33,749 --> 00:06:39,019 これまでに120億の 感情データポイントを収集しました 125 00:06:39,019 --> 00:06:41,630 世界最大の感情データベースです 126 00:06:41,630 --> 00:06:44,593 290万の顔の写ったビデオから 集めましたが 127 00:06:44,593 --> 00:06:47,193 感情を共有することに 同意した人たち― 128 00:06:47,193 --> 00:06:50,398 世界75か国から集まりました 129 00:06:50,398 --> 00:06:52,113 これは日々 増えています 130 00:06:52,603 --> 00:06:54,670 感情というごく個人的なものを 131 00:06:54,670 --> 00:06:57,865 今やこれほどの規模で 数量化できるなんて 132 00:06:57,865 --> 00:07:00,100 私の想像を超えています 133 00:07:00,100 --> 00:07:02,277 では 今日までにわかったことは 何でしょうか? 134 00:07:03,057 --> 00:07:05,388 ジェンダーです 135 00:07:05,388 --> 00:07:09,034 皆さんが薄々気づいていることを データが立証しました 136 00:07:09,034 --> 00:07:10,891 女性の方が男性より表情豊かです 137 00:07:10,891 --> 00:07:13,574 より頻繁に笑顔になるだけでなく 笑顔が持続します 138 00:07:13,574 --> 00:07:16,478 今や男性と女性が 異なる反応を見せるものについて 139 00:07:16,478 --> 00:07:18,614 数量化することができます 140 00:07:18,614 --> 00:07:20,904 文化の違いではどうでしょう アメリカでは― 141 00:07:20,904 --> 00:07:24,108 女性は男性より40%表情豊かですが 142 00:07:24,108 --> 00:07:27,753 面白いことにイギリスでは 男女の差異はありません 143 00:07:27,753 --> 00:07:30,259 (笑) 144 00:07:31,296 --> 00:07:35,323 年齢です 50歳以上の人々は 145 00:07:35,323 --> 00:07:38,759 若者よりも25%さらに感情的です 146 00:07:39,899 --> 00:07:43,751 20代の女性は同じ年代の男性よりも ずっと頻繁に笑顔になり 147 00:07:43,751 --> 00:07:47,590 これはデートで 必要となるのかもしれません 148 00:07:47,590 --> 00:07:50,207 このデータで最も驚かされるのは 149 00:07:50,207 --> 00:07:53,410 いかに私たちが常に 表情豊かであるかと言うことです 150 00:07:53,410 --> 00:07:56,243 電子機器の前に 独りで座っているときでもです 151 00:07:56,243 --> 00:07:59,517 Facebookで猫のビデオを 見ているときだけではありません 152 00:08:00,217 --> 00:08:03,227 メールや携帯メールを書くときや オンラインショッピング― 153 00:08:03,227 --> 00:08:05,527 確定申告の準備中でも 表情豊かなのです 154 00:08:05,527 --> 00:08:07,919 このデータは今 どこで使われているのでしょう? 155 00:08:07,919 --> 00:08:10,682 メディアとの関わり方の研究― 156 00:08:10,682 --> 00:08:13,166 つまりバイラリティーや 投票行動などの理解や 157 00:08:13,166 --> 00:08:15,906 また 能力を高めたり 感情を利用するテクノロジーにも使えます 158 00:08:15,906 --> 00:08:20,527 私が特に大切に思う例を お話ししたいと思います 159 00:08:21,197 --> 00:08:24,265 感情を理解する 眼鏡型端末があれば 160 00:08:24,265 --> 00:08:27,493 視覚障害者が 他者の表情を読むのに役立ちます 161 00:08:27,493 --> 00:08:31,680 自閉症スペクトラムの人が 非常に苦労している― 162 00:08:31,680 --> 00:08:34,457 感情の理解にも役立ちます 163 00:08:35,918 --> 00:08:38,777 教育においては学習アプリが 164 00:08:38,777 --> 00:08:41,587 生徒の困惑や退屈の表情に気付き 165 00:08:41,587 --> 00:08:43,443 教室で熟練の教師がするように 166 00:08:43,443 --> 00:08:46,413 学習のペースを 調整することができるでしょう 167 00:08:47,043 --> 00:08:49,644 腕時計があなたの気分をモニターしたり 168 00:08:49,644 --> 00:08:52,337 車があなたの疲労度合いを 感知できたら― 169 00:08:52,337 --> 00:08:54,885 あるいは冷蔵庫が ストレスを感知して 170 00:08:54,885 --> 00:09:00,951 ばか食いを防ぐために 自動ロックしたらどうでしょうか (笑) 171 00:09:00,951 --> 00:09:03,668 私は良いと思いますね 172 00:09:03,668 --> 00:09:05,595 私がケンブリッジにいた頃 173 00:09:05,595 --> 00:09:07,908 リアルタイムの 感情ストリームを利用して 174 00:09:07,908 --> 00:09:11,437 故郷にいる家族と感情を ごく自然に― 175 00:09:11,437 --> 00:09:15,408 まるで同じ部屋にいるように 共有できたらどうだったでしょう? 176 00:09:15,408 --> 00:09:18,550 今から5年もすれば 177 00:09:18,550 --> 00:09:20,887 電子機器はすべて 感情チップを搭載し 178 00:09:20,887 --> 00:09:24,951 電子機器に向かって 眉をひそめれば 「気に入らなかったんだね」と 179 00:09:24,951 --> 00:09:29,200 言ってくれなかった昔のことなど 忘れてしまうでしょう 180 00:09:29,200 --> 00:09:32,961 最大の難関はこのテクノロジーには 非常に多くの使い道があり 181 00:09:32,961 --> 00:09:35,864 私たちのチームだけでは 全てを開発できないと気づいたことです 182 00:09:35,864 --> 00:09:39,360 そこで このテクノロジーを利用可能にして 他の開発者たちが 183 00:09:39,360 --> 00:09:41,474 独自に開発を進められるようにしました 184 00:09:41,474 --> 00:09:45,560 私たちはリスクの可能性も 認識しています 185 00:09:45,560 --> 00:09:47,627 濫用されるリスクです 186 00:09:47,627 --> 00:09:50,576 でも個人的には 何年も携わってきて 187 00:09:50,576 --> 00:09:53,548 心の知能指数の高い テクノロジーによって 188 00:09:53,548 --> 00:09:55,823 人類にもたらされる利益の方が 189 00:09:55,823 --> 00:09:59,399 濫用のリスクよりも ずっと多いと考えています 190 00:09:59,399 --> 00:10:01,930 皆さんにも対話に参加をお願いします 191 00:10:01,930 --> 00:10:04,484 このテクノロジーを 知っている人が多ければ多いほど 192 00:10:04,484 --> 00:10:07,661 使用法に関する意見を 多く得ることができます 193 00:10:09,081 --> 00:10:13,655 私たちの生活が さらにデジタルなものになるにつれ 194 00:10:13,655 --> 00:10:17,153 私たちは感情を再び手にするために 電子機器の使用を控えようという 195 00:10:17,153 --> 00:10:19,382 負けが明らかな闘いに挑んでいます 196 00:10:20,622 --> 00:10:24,536 その代わりに 私が試みているのは テクノロジーに感情を導入すること 197 00:10:24,536 --> 00:10:26,765 そしてテクノロジーが 反応するものにすることです 198 00:10:26,765 --> 00:10:29,435 私たちを引き離した電子機器によって 199 00:10:29,435 --> 00:10:31,897 再び人々を 結びつけようとしているのです 200 00:10:31,897 --> 00:10:36,485 テクノロジーに人間性を付与することで 私たちには 201 00:10:36,485 --> 00:10:39,782 機械との関わりを見つめ直す 絶好の機会が与えられています 202 00:10:39,782 --> 00:10:44,263 つまり人間として 私たちが 203 00:10:44,263 --> 00:10:46,167 いかにお互いとつながり合うかを 見つめ直す機会なのです 204 00:10:46,167 --> 00:10:48,327 ありがとうございました 205 00:10:48,327 --> 00:10:51,640 (拍手)