WEBVTT 00:00:00.556 --> 00:00:04.573 私たちの感情は 生活のあらゆる面に影響します 00:00:04.573 --> 00:00:08.148 健康や学び方 ビジネスのやり方や決定の仕方まで 00:00:08.148 --> 00:00:09.922 大小様々です 00:00:10.672 --> 00:00:14.162 感情は私たちがお互いと 結びつく方法にも影響します 00:00:15.132 --> 00:00:19.108 今まで私たちは このような世界に順応してきましたが 00:00:19.108 --> 00:00:23.427 現在の世界は どんどん このようになってきています 00:00:23.427 --> 00:00:26.561 これは昨晩 娘から届いた 携帯メールです 00:00:26.561 --> 00:00:29.301 感情のない世界ですね 00:00:29.301 --> 00:00:31.252 私はそれを変えるべく活動しています 00:00:31.252 --> 00:00:35.343 デジタルでの体験に 感情を取り戻したいのです NOTE Paragraph 00:00:36.223 --> 00:00:39.300 この道を歩み始めたのは15年前― 00:00:39.300 --> 00:00:41.366 エジプトでコンピューターサイエンスを 学んでいたときのことです 00:00:41.366 --> 00:00:45.871 ケンブリッジ大学の博士課程に 合格したところでした 00:00:45.871 --> 00:00:47.984 私が取った行動は 00:00:47.984 --> 00:00:52.209 結婚したての若いイスラム教徒の エジプト人妻としてはかなり珍しいものでした 00:00:53.599 --> 00:00:56.598 エジプトに残らねばならない 夫のサポートを得て 00:00:56.598 --> 00:00:59.616 私は荷物をまとめて イングランドにやってきたのです 00:00:59.616 --> 00:01:02.844 故郷から何千キロも離れた ケンブリッジで 00:01:02.844 --> 00:01:06.257 私は自分が他の人と過ごすよりも 長い時間を 00:01:06.257 --> 00:01:08.486 ノートパソコンと過ごしていることに 気づきました 00:01:08.486 --> 00:01:13.339 とても近しいものでありながら ノートパソコンに私の感情は分かりません 00:01:13.339 --> 00:01:16.550 私が嬉しかろうと 00:01:16.550 --> 00:01:19.538 ストレスを抱えて混乱し 嫌な1日を過ごそうと伝わらないので 00:01:19.538 --> 00:01:22.460 歯がゆい気持ちになりました 00:01:23.600 --> 00:01:28.831 さらに悪いことに オンラインで 家族と会話をしていても 00:01:29.421 --> 00:01:32.703 感情がすべてサイバー空間に 消えてしまうような気がしました 00:01:32.703 --> 00:01:37.858 ホームシックで寂しい思いをし 泣いたときもありましたが 00:01:37.858 --> 00:01:42.786 感情を表す手段はこれだけでした 00:01:42.786 --> 00:01:44.806 (笑) 00:01:44.806 --> 00:01:49.780 現在のテクノロジーには IQはあってもEQはありません 00:01:49.780 --> 00:01:52.956 知能指数は高くても 心の知能指数はないのです 00:01:52.956 --> 00:01:55.153 そこで私は考えました 00:01:55.153 --> 00:01:58.777 テクノロジーが感情を 感じ取れるとしたらどうだろう? 00:01:58.777 --> 00:02:02.853 心の知能指数を持った友人のように 電子機器が感情を読み取って 00:02:02.853 --> 00:02:05.866 それに応じて反応したらどうだろう? 00:02:06.666 --> 00:02:10.229 これらの問いによって 私とチームは 00:02:10.229 --> 00:02:14.607 感情を読み取り 対応できる テクノロジーを開発するに至り 00:02:14.607 --> 00:02:17.697 私たちの出発点は人間の顔でした NOTE Paragraph 00:02:18.577 --> 00:02:21.750 人間の顔は 社会的・感情的状態を伝えるのに 00:02:21.750 --> 00:02:25.766 誰もが用いている 非常に強力な手段のひとつです 00:02:25.766 --> 00:02:28.776 喜びや驚き― 00:02:28.776 --> 00:02:32.979 共感や好奇心まで様々あります 00:02:32.979 --> 00:02:37.907 感情科学では顔面筋肉の動き それぞれをアクション・ユニットと言います 00:02:37.907 --> 00:02:40.832 例えば アクション・ユニット12は 00:02:40.832 --> 00:02:42.870 ハリウッド映画のタイトルではありませんよ 00:02:42.870 --> 00:02:46.312 これは口の端を引く動きで 笑顔の主な要素です 00:02:46.312 --> 00:02:49.300 試してみて下さい 笑顔になりますね 00:02:49.300 --> 00:02:51.954 もうひとつの例はアクション・ユニット4で これは眉をひそめる動きです 00:02:51.954 --> 00:02:54.192 両眉をひそめると 00:02:54.192 --> 00:02:56.459 凹凸やしわができますね 00:02:56.459 --> 00:03:00.754 好まれるものではありませんが 否定的な感情を強く示すサインです 00:03:00.754 --> 00:03:02.960 こうしたアクション・ユニットが45個あり 00:03:02.960 --> 00:03:06.350 これらが組み合わさって 何百もの感情を表します NOTE Paragraph 00:03:06.350 --> 00:03:10.251 こうした顔の表情をコンピューターに 読み取らせるのは困難です 00:03:10.251 --> 00:03:13.223 アクション・ユニットは動きが素早く 加減が微妙ですし 00:03:13.223 --> 00:03:15.777 様々に組み合わせられるためです 00:03:15.777 --> 00:03:19.515 例えば 笑顔と ぎこちない作り笑いです 00:03:19.515 --> 00:03:23.268 どこかしら似てはいますが 意味合いは随分違います 00:03:23.268 --> 00:03:24.986 (笑) 00:03:24.986 --> 00:03:27.990 笑顔はポジティブで 00:03:27.990 --> 00:03:29.260 わざと作った笑顔は ネガティブなことが多いです 00:03:29.260 --> 00:03:33.136 作り笑いで有名になることもあります 00:03:33.136 --> 00:03:35.960 ですが真面目な話 コンピューターが 00:03:35.960 --> 00:03:38.815 2つの表情の違いを 読み取れることが重要です NOTE Paragraph 00:03:38.815 --> 00:03:40.627 では どうすればいいでしょう? 00:03:40.627 --> 00:03:42.414 私達の開発したアルゴリズムに 00:03:42.414 --> 00:03:46.524 純粋な笑顔を見せている人々の例を 何万例も与えます 00:03:46.524 --> 00:03:49.589 人種 年齢 性別も様々です 00:03:49.589 --> 00:03:52.400 そして作り笑いにも 同様のことを行います 00:03:52.400 --> 00:03:53.954 するとディープラーニング(深層学習)で 00:03:53.954 --> 00:03:56.810 アルゴリズムが 顔面に起こる凹凸やしわや 00:03:56.810 --> 00:03:59.390 形状の変化を探し 00:03:59.390 --> 00:04:02.592 笑顔には共通の特徴があり 00:04:02.592 --> 00:04:05.773 作り笑いには微妙に異なる 特徴があることを学習します 00:04:05.773 --> 00:04:08.141 以降は 未知の顔に遭遇しても 00:04:08.141 --> 00:04:10.440 基本的に この顔が 00:04:10.440 --> 00:04:13.473 笑顔の特徴を 備えていることを認識し 00:04:13.473 --> 00:04:17.750 「あぁわかった これは笑顔ですね」 と言うのです NOTE Paragraph 00:04:18.380 --> 00:04:21.180 このテクノロジーの働きを お見せする一番の方法は 00:04:21.180 --> 00:04:23.317 ここで実演することです 00:04:23.317 --> 00:04:27.230 誰か手伝ってもらえませんか 顔がある人がいいのですが 00:04:27.230 --> 00:04:29.564 (笑) 00:04:29.564 --> 00:04:32.335 クロイに手伝ってもらいましょう NOTE Paragraph 00:04:33.325 --> 00:04:37.783 ここ5年間で私たちはMITでの 研究プロジェクトから 00:04:37.783 --> 00:04:38.939 企業へと変化しました 00:04:38.939 --> 00:04:42.131 私のチームはこのテクノロジーが いわば「外の世界で」 00:04:42.131 --> 00:04:44.540 機能するよう努力してきました 00:04:44.540 --> 00:04:47.210 またコンパクトにすることで 感情エンジンの核となる部分が 00:04:47.210 --> 00:04:50.530 iPadのようなカメラ付き携帯機器で 使えるようにしました 00:04:50.530 --> 00:04:53.316 では やってみましょう NOTE Paragraph 00:04:54.756 --> 00:04:58.680 ご覧のように アルゴリズムが クロイの顔を認識しました 00:04:58.680 --> 00:05:00.372 白い四角で示されており 00:05:00.372 --> 00:05:02.943 顔の主な部分を追跡しています 00:05:02.943 --> 00:05:05.799 眉、目、口や鼻などです 00:05:05.799 --> 00:05:08.786 さあ 表情を読み取れるでしょうか? 00:05:08.786 --> 00:05:10.457 機械を試してみましょう 00:05:10.457 --> 00:05:14.643 まず ポーカーフェイスを見せて下さい いいですね (笑) 00:05:14.643 --> 00:05:17.456 それから笑顔です これは心からの笑顔ですね 00:05:17.456 --> 00:05:19.756 彼女が笑うと 緑色のバーが上がるのが分かります 00:05:19.756 --> 00:05:20.978 満面の笑みでしたね 00:05:20.978 --> 00:05:24.021 コンピューターが認識できるか 微笑みを作ってみましょう 00:05:24.021 --> 00:05:26.352 微笑みでも認識できますね 00:05:26.352 --> 00:05:28.477 これには大変苦労しました 00:05:28.477 --> 00:05:31.439 眉が上がると 驚きの表情のサインです 00:05:31.439 --> 00:05:35.688 眉をひそめると 困惑を示すサインです 00:05:35.688 --> 00:05:39.695 眉をひそめて 完璧です 00:05:39.695 --> 00:05:43.188 これらは全て異なるアクション・ユニットで まだ他にも多くありますが 00:05:43.188 --> 00:05:45.220 ほんの一部だけお見せしました 00:05:45.220 --> 00:05:48.368 それぞれの感情のデータポイントを 読み取らせることができ 00:05:48.368 --> 00:05:51.337 それらが合わさって 様々な感情を表現することができます 00:05:51.337 --> 00:05:55.990 デモの右側には― 喜びの表情を見せて 00:05:55.990 --> 00:05:57.444 これが喜びですね 「喜び」の項目が上がりました 00:05:57.444 --> 00:05:59.371 それから 嫌悪の表情を見せて下さい 00:05:59.371 --> 00:06:03.643 ゼインがワン・ダイレクションを 脱退したのを思い出して 00:06:03.643 --> 00:06:05.153 (笑) 00:06:05.153 --> 00:06:09.495 鼻にもしわが寄ります いいですね 00:06:09.495 --> 00:06:13.226 感情価がかなりネガティブでしたから 熱心なファンだったのでしょう 00:06:13.226 --> 00:06:15.926 「感情価」は経験がいかにポジティブ またはネガティブであったか 00:06:15.926 --> 00:06:18.712 そして「関与度」は いかに強く表現したかです 00:06:18.712 --> 00:06:22.126 クロイがこのリアルタイムでの 感情ストリームを利用でき 00:06:22.126 --> 00:06:24.935 それを他の人と共有できると 想像してみて下さい 00:06:24.935 --> 00:06:27.858 どうもありがとう 00:06:27.858 --> 00:06:32.479 (拍手) NOTE Paragraph 00:06:33.749 --> 00:06:39.019 これまでに120億の 感情データポイントを収集しました 00:06:39.019 --> 00:06:41.630 世界最大の感情データベースです 00:06:41.630 --> 00:06:44.593 290万の顔の写ったビデオから 集めましたが 00:06:44.593 --> 00:06:47.193 感情を共有することに 同意した人たち― 00:06:47.193 --> 00:06:50.398 世界75か国から集まりました 00:06:50.398 --> 00:06:52.113 これは日々 増えています 00:06:52.603 --> 00:06:54.670 感情というごく個人的なものを 00:06:54.670 --> 00:06:57.865 今やこれほどの規模で 数量化できるなんて 00:06:57.865 --> 00:07:00.100 私の想像を超えています NOTE Paragraph 00:07:00.100 --> 00:07:02.277 では 今日までにわかったことは 何でしょうか? 00:07:03.057 --> 00:07:05.388 ジェンダーです 00:07:05.388 --> 00:07:09.034 皆さんが薄々気づいていることを データが立証しました 00:07:09.034 --> 00:07:10.891 女性の方が男性より表情豊かです 00:07:10.891 --> 00:07:13.574 より頻繁に笑顔になるだけでなく 笑顔が持続します 00:07:13.574 --> 00:07:16.478 今や男性と女性が 異なる反応を見せるものについて 00:07:16.478 --> 00:07:18.614 数量化することができます 00:07:18.614 --> 00:07:20.904 文化の違いではどうでしょう アメリカでは― 00:07:20.904 --> 00:07:24.108 女性は男性より40%表情豊かですが 00:07:24.108 --> 00:07:27.753 面白いことにイギリスでは 男女の差異はありません 00:07:27.753 --> 00:07:30.259 (笑) 00:07:31.296 --> 00:07:35.323 年齢です 50歳以上の人々は 00:07:35.323 --> 00:07:38.759 若者よりも25%さらに感情的です 00:07:39.899 --> 00:07:43.751 20代の女性は同じ年代の男性よりも ずっと頻繁に笑顔になり 00:07:43.751 --> 00:07:47.590 これはデートで 必要となるのかもしれません 00:07:47.590 --> 00:07:50.207 このデータで最も驚かされるのは 00:07:50.207 --> 00:07:53.410 いかに私たちが常に 表情豊かであるかと言うことです 00:07:53.410 --> 00:07:56.243 電子機器の前に 独りで座っているときでもです 00:07:56.243 --> 00:07:59.517 Facebookで猫のビデオを 見ているときだけではありません 00:08:00.217 --> 00:08:03.227 メールや携帯メールを書くときや オンラインショッピング― 00:08:03.227 --> 00:08:05.527 確定申告の準備中でも 表情豊かなのです NOTE Paragraph 00:08:05.527 --> 00:08:07.919 このデータは今 どこで使われているのでしょう? 00:08:07.919 --> 00:08:10.682 メディアとの関わり方の研究― 00:08:10.682 --> 00:08:13.166 つまりバイラリティーや 投票行動などの理解や 00:08:13.166 --> 00:08:15.906 また 能力を高めたり 感情を利用するテクノロジーにも使えます 00:08:15.906 --> 00:08:20.527 私が特に大切に思う例を お話ししたいと思います 00:08:21.197 --> 00:08:24.265 感情を理解する 眼鏡型端末があれば 00:08:24.265 --> 00:08:27.493 視覚障害者が 他者の表情を読むのに役立ちます 00:08:27.493 --> 00:08:31.680 自閉症スペクトラムの人が 非常に苦労している― 00:08:31.680 --> 00:08:34.457 感情の理解にも役立ちます 00:08:35.918 --> 00:08:38.777 教育においては学習アプリが 00:08:38.777 --> 00:08:41.587 生徒の困惑や退屈の表情に気付き 00:08:41.587 --> 00:08:43.443 教室で熟練の教師がするように 00:08:43.443 --> 00:08:46.413 学習のペースを 調整することができるでしょう 00:08:47.043 --> 00:08:49.644 腕時計があなたの気分をモニターしたり 00:08:49.644 --> 00:08:52.337 車があなたの疲労度合いを 感知できたら― 00:08:52.337 --> 00:08:54.885 あるいは冷蔵庫が ストレスを感知して 00:08:54.885 --> 00:09:00.951 ばか食いを防ぐために 自動ロックしたらどうでしょうか (笑) 00:09:00.951 --> 00:09:03.668 私は良いと思いますね 00:09:03.668 --> 00:09:05.595 私がケンブリッジにいた頃 00:09:05.595 --> 00:09:07.908 リアルタイムの 感情ストリームを利用して 00:09:07.908 --> 00:09:11.437 故郷にいる家族と感情を ごく自然に― 00:09:11.437 --> 00:09:15.408 まるで同じ部屋にいるように 共有できたらどうだったでしょう? NOTE Paragraph 00:09:15.408 --> 00:09:18.550 今から5年もすれば 00:09:18.550 --> 00:09:20.887 電子機器はすべて 感情チップを搭載し 00:09:20.887 --> 00:09:24.951 電子機器に向かって 眉をひそめれば 「気に入らなかったんだね」と 00:09:24.951 --> 00:09:29.200 言ってくれなかった昔のことなど 忘れてしまうでしょう 00:09:29.200 --> 00:09:32.961 最大の難関はこのテクノロジーには 非常に多くの使い道があり 00:09:32.961 --> 00:09:35.864 私たちのチームだけでは 全てを開発できないと気づいたことです 00:09:35.864 --> 00:09:39.360 そこで このテクノロジーを利用可能にして 他の開発者たちが 00:09:39.360 --> 00:09:41.474 独自に開発を進められるようにしました 00:09:41.474 --> 00:09:45.560 私たちはリスクの可能性も 認識しています 00:09:45.560 --> 00:09:47.627 濫用されるリスクです 00:09:47.627 --> 00:09:50.576 でも個人的には 何年も携わってきて 00:09:50.576 --> 00:09:53.548 心の知能指数の高い テクノロジーによって 00:09:53.548 --> 00:09:55.823 人類にもたらされる利益の方が 00:09:55.823 --> 00:09:59.399 濫用のリスクよりも ずっと多いと考えています 00:09:59.399 --> 00:10:01.930 皆さんにも対話に参加をお願いします 00:10:01.930 --> 00:10:04.484 このテクノロジーを 知っている人が多ければ多いほど 00:10:04.484 --> 00:10:07.661 使用法に関する意見を 多く得ることができます 00:10:09.081 --> 00:10:13.655 私たちの生活が さらにデジタルなものになるにつれ 00:10:13.655 --> 00:10:17.153 私たちは感情を再び手にするために 電子機器の使用を控えようという 00:10:17.153 --> 00:10:19.382 負けが明らかな闘いに挑んでいます 00:10:20.622 --> 00:10:24.536 その代わりに 私が試みているのは テクノロジーに感情を導入すること 00:10:24.536 --> 00:10:26.765 そしてテクノロジーが 反応するものにすることです 00:10:26.765 --> 00:10:29.435 私たちを引き離した電子機器によって 00:10:29.435 --> 00:10:31.897 再び人々を 結びつけようとしているのです 00:10:31.897 --> 00:10:36.485 テクノロジーに人間性を付与することで 私たちには 00:10:36.485 --> 00:10:39.782 機械との関わりを見つめ直す 絶好の機会が与えられています 00:10:39.782 --> 00:10:44.263 つまり人間として 私たちが 00:10:44.263 --> 00:10:46.167 いかにお互いとつながり合うかを 見つめ直す機会なのです NOTE Paragraph 00:10:46.167 --> 00:10:48.327 ありがとうございました NOTE Paragraph 00:10:48.327 --> 00:10:51.640 (拍手)