0:00:00.556,0:00:04.573 私たちの感情は[br]生活のあらゆる面に影響します 0:00:04.573,0:00:08.148 健康や学び方[br]ビジネスのやり方や決定の仕方まで 0:00:08.148,0:00:09.922 大小様々です 0:00:10.672,0:00:14.162 感情は私たちがお互いと[br]結びつく方法にも影響します 0:00:15.132,0:00:19.108 今まで私たちは[br]このような世界に順応してきましたが 0:00:19.108,0:00:23.427 現在の世界は どんどん[br]このようになってきています 0:00:23.427,0:00:26.561 これは昨晩 娘から届いた[br]携帯メールです 0:00:26.561,0:00:29.301 感情のない世界ですね 0:00:29.301,0:00:31.252 私はそれを変えるべく活動しています 0:00:31.252,0:00:35.343 デジタルでの体験に[br]感情を取り戻したいのです 0:00:36.223,0:00:39.300 この道を歩み始めたのは15年前― 0:00:39.300,0:00:41.366 エジプトでコンピューターサイエンスを[br]学んでいたときのことです 0:00:41.366,0:00:45.871 ケンブリッジ大学の博士課程に[br]合格したところでした 0:00:45.871,0:00:47.984 私が取った行動は 0:00:47.984,0:00:52.209 結婚したての若いイスラム教徒の[br]エジプト人妻としてはかなり珍しいものでした 0:00:53.599,0:00:56.598 エジプトに残らねばならない[br]夫のサポートを得て 0:00:56.598,0:00:59.616 私は荷物をまとめて[br]イングランドにやってきたのです 0:00:59.616,0:01:02.844 故郷から何千キロも離れた[br]ケンブリッジで 0:01:02.844,0:01:06.257 私は自分が他の人と過ごすよりも[br]長い時間を 0:01:06.257,0:01:08.486 ノートパソコンと過ごしていることに[br]気づきました 0:01:08.486,0:01:13.339 とても近しいものでありながら[br]ノートパソコンに私の感情は分かりません 0:01:13.339,0:01:16.550 私が嬉しかろうと 0:01:16.550,0:01:19.538 ストレスを抱えて混乱し[br]嫌な1日を過ごそうと伝わらないので 0:01:19.538,0:01:22.460 歯がゆい気持ちになりました 0:01:23.600,0:01:28.831 さらに悪いことに オンラインで[br]家族と会話をしていても 0:01:29.421,0:01:32.703 感情がすべてサイバー空間に[br]消えてしまうような気がしました 0:01:32.703,0:01:37.858 ホームシックで寂しい思いをし[br]泣いたときもありましたが 0:01:37.858,0:01:42.786 感情を表す手段はこれだけでした 0:01:42.786,0:01:44.806 (笑) 0:01:44.806,0:01:49.780 現在のテクノロジーには[br]IQはあってもEQはありません 0:01:49.780,0:01:52.956 知能指数は高くても[br]心の知能指数はないのです 0:01:52.956,0:01:55.153 そこで私は考えました 0:01:55.153,0:01:58.777 テクノロジーが感情を[br]感じ取れるとしたらどうだろう? 0:01:58.777,0:02:02.853 心の知能指数を持った友人のように[br]電子機器が感情を読み取って 0:02:02.853,0:02:05.866 それに応じて反応したらどうだろう? 0:02:06.666,0:02:10.229 これらの問いによって[br]私とチームは 0:02:10.229,0:02:14.607 感情を読み取り 対応できる[br]テクノロジーを開発するに至り 0:02:14.607,0:02:17.697 私たちの出発点は人間の顔でした 0:02:18.577,0:02:21.750 人間の顔は[br]社会的・感情的状態を伝えるのに 0:02:21.750,0:02:25.766 誰もが用いている[br]非常に強力な手段のひとつです 0:02:25.766,0:02:28.776 喜びや驚き― 0:02:28.776,0:02:32.979 共感や好奇心まで様々あります 0:02:32.979,0:02:37.907 感情科学では顔面筋肉の動き[br]それぞれをアクション・ユニットと言います 0:02:37.907,0:02:40.832 例えば アクション・ユニット12は 0:02:40.832,0:02:42.870 ハリウッド映画のタイトルではありませんよ 0:02:42.870,0:02:46.312 これは口の端を引く動きで[br]笑顔の主な要素です 0:02:46.312,0:02:49.300 試してみて下さい[br]笑顔になりますね 0:02:49.300,0:02:51.954 もうひとつの例はアクション・ユニット4で[br]これは眉をひそめる動きです 0:02:51.954,0:02:54.192 両眉をひそめると 0:02:54.192,0:02:56.459 凹凸やしわができますね 0:02:56.459,0:03:00.754 好まれるものではありませんが[br]否定的な感情を強く示すサインです 0:03:00.754,0:03:02.960 こうしたアクション・ユニットが45個あり 0:03:02.960,0:03:06.350 これらが組み合わさって[br]何百もの感情を表します 0:03:06.350,0:03:10.251 こうした顔の表情をコンピューターに[br]読み取らせるのは困難です 0:03:10.251,0:03:13.223 アクション・ユニットは動きが素早く[br]加減が微妙ですし 0:03:13.223,0:03:15.777 様々に組み合わせられるためです 0:03:15.777,0:03:19.515 例えば 笑顔と[br]ぎこちない作り笑いです 0:03:19.515,0:03:23.268 どこかしら似てはいますが[br]意味合いは随分違います 0:03:23.268,0:03:24.986 (笑) 0:03:24.986,0:03:27.990 笑顔はポジティブで 0:03:27.990,0:03:29.260 わざと作った笑顔は[br]ネガティブなことが多いです 0:03:29.260,0:03:33.136 作り笑いで有名になることもあります 0:03:33.136,0:03:35.960 ですが真面目な話[br]コンピューターが 0:03:35.960,0:03:38.815 2つの表情の違いを[br]読み取れることが重要です 0:03:38.815,0:03:40.627 では どうすればいいでしょう? 0:03:40.627,0:03:42.414 私達の開発したアルゴリズムに 0:03:42.414,0:03:46.524 純粋な笑顔を見せている人々の例を[br]何万例も与えます 0:03:46.524,0:03:49.589 人種 年齢 性別も様々です 0:03:49.589,0:03:52.400 そして作り笑いにも[br]同様のことを行います 0:03:52.400,0:03:53.954 するとディープラーニング(深層学習)で 0:03:53.954,0:03:56.810 アルゴリズムが[br]顔面に起こる凹凸やしわや 0:03:56.810,0:03:59.390 形状の変化を探し 0:03:59.390,0:04:02.592 笑顔には共通の特徴があり 0:04:02.592,0:04:05.773 作り笑いには微妙に異なる[br]特徴があることを学習します 0:04:05.773,0:04:08.141 以降は 未知の顔に遭遇しても 0:04:08.141,0:04:10.440 基本的に この顔が 0:04:10.440,0:04:13.473 笑顔の特徴を[br]備えていることを認識し 0:04:13.473,0:04:17.750 「あぁわかった これは笑顔ですね」[br]と言うのです 0:04:18.380,0:04:21.180 このテクノロジーの働きを[br]お見せする一番の方法は 0:04:21.180,0:04:23.317 ここで実演することです 0:04:23.317,0:04:27.230 誰か手伝ってもらえませんか[br]顔がある人がいいのですが 0:04:27.230,0:04:29.564 (笑) 0:04:29.564,0:04:32.335 クロイに手伝ってもらいましょう 0:04:33.325,0:04:37.783 ここ5年間で私たちはMITでの[br]研究プロジェクトから 0:04:37.783,0:04:38.939 企業へと変化しました 0:04:38.939,0:04:42.131 私のチームはこのテクノロジーが[br]いわば「外の世界で」 0:04:42.131,0:04:44.540 機能するよう努力してきました 0:04:44.540,0:04:47.210 またコンパクトにすることで[br]感情エンジンの核となる部分が 0:04:47.210,0:04:50.530 iPadのようなカメラ付き携帯機器で[br]使えるようにしました 0:04:50.530,0:04:53.316 では やってみましょう 0:04:54.756,0:04:58.680 ご覧のように アルゴリズムが[br]クロイの顔を認識しました 0:04:58.680,0:05:00.372 白い四角で示されており 0:05:00.372,0:05:02.943 顔の主な部分を追跡しています 0:05:02.943,0:05:05.799 眉、目、口や鼻などです 0:05:05.799,0:05:08.786 さあ 表情を読み取れるでしょうか? 0:05:08.786,0:05:10.457 機械を試してみましょう 0:05:10.457,0:05:14.643 まず ポーカーフェイスを見せて下さい[br]いいですね (笑) 0:05:14.643,0:05:17.456 それから笑顔です[br]これは心からの笑顔ですね 0:05:17.456,0:05:19.756 彼女が笑うと[br]緑色のバーが上がるのが分かります 0:05:19.756,0:05:20.978 満面の笑みでしたね 0:05:20.978,0:05:24.021 コンピューターが認識できるか[br]微笑みを作ってみましょう 0:05:24.021,0:05:26.352 微笑みでも認識できますね 0:05:26.352,0:05:28.477 これには大変苦労しました 0:05:28.477,0:05:31.439 眉が上がると[br]驚きの表情のサインです 0:05:31.439,0:05:35.688 眉をひそめると[br]困惑を示すサインです 0:05:35.688,0:05:39.695 眉をひそめて[br]完璧です 0:05:39.695,0:05:43.188 これらは全て異なるアクション・ユニットで[br]まだ他にも多くありますが 0:05:43.188,0:05:45.220 ほんの一部だけお見せしました 0:05:45.220,0:05:48.368 それぞれの感情のデータポイントを[br]読み取らせることができ 0:05:48.368,0:05:51.337 それらが合わさって[br]様々な感情を表現することができます 0:05:51.337,0:05:55.990 デモの右側には―[br]喜びの表情を見せて 0:05:55.990,0:05:57.444 これが喜びですね[br]「喜び」の項目が上がりました 0:05:57.444,0:05:59.371 それから 嫌悪の表情を見せて下さい 0:05:59.371,0:06:03.643 ゼインがワン・ダイレクションを[br]脱退したのを思い出して 0:06:03.643,0:06:05.153 (笑) 0:06:05.153,0:06:09.495 鼻にもしわが寄ります[br]いいですね 0:06:09.495,0:06:13.226 感情価がかなりネガティブでしたから[br]熱心なファンだったのでしょう 0:06:13.226,0:06:15.926 「感情価」は経験がいかにポジティブ[br]またはネガティブであったか 0:06:15.926,0:06:18.712 そして「関与度」は[br]いかに強く表現したかです 0:06:18.712,0:06:22.126 クロイがこのリアルタイムでの[br]感情ストリームを利用でき 0:06:22.126,0:06:24.935 それを他の人と共有できると[br]想像してみて下さい 0:06:24.935,0:06:27.858 どうもありがとう 0:06:27.858,0:06:32.479 (拍手) 0:06:33.749,0:06:39.019 これまでに120億の[br]感情データポイントを収集しました 0:06:39.019,0:06:41.630 世界最大の感情データベースです 0:06:41.630,0:06:44.593 290万の顔の写ったビデオから[br]集めましたが 0:06:44.593,0:06:47.193 感情を共有することに[br]同意した人たち― 0:06:47.193,0:06:50.398 世界75か国から集まりました 0:06:50.398,0:06:52.113 これは日々 増えています 0:06:52.603,0:06:54.670 感情というごく個人的なものを 0:06:54.670,0:06:57.865 今やこれほどの規模で[br]数量化できるなんて 0:06:57.865,0:07:00.100 私の想像を超えています 0:07:00.100,0:07:02.277 では 今日までにわかったことは[br]何でしょうか? 0:07:03.057,0:07:05.388 ジェンダーです 0:07:05.388,0:07:09.034 皆さんが薄々気づいていることを[br]データが立証しました 0:07:09.034,0:07:10.891 女性の方が男性より表情豊かです 0:07:10.891,0:07:13.574 より頻繁に笑顔になるだけでなく[br]笑顔が持続します 0:07:13.574,0:07:16.478 今や男性と女性が[br]異なる反応を見せるものについて 0:07:16.478,0:07:18.614 数量化することができます 0:07:18.614,0:07:20.904 文化の違いではどうでしょう[br]アメリカでは― 0:07:20.904,0:07:24.108 女性は男性より40%表情豊かですが 0:07:24.108,0:07:27.753 面白いことにイギリスでは[br]男女の差異はありません 0:07:27.753,0:07:30.259 (笑) 0:07:31.296,0:07:35.323 年齢です[br]50歳以上の人々は 0:07:35.323,0:07:38.759 若者よりも25%さらに感情的です 0:07:39.899,0:07:43.751 20代の女性は同じ年代の男性よりも[br]ずっと頻繁に笑顔になり 0:07:43.751,0:07:47.590 これはデートで[br]必要となるのかもしれません 0:07:47.590,0:07:50.207 このデータで最も驚かされるのは 0:07:50.207,0:07:53.410 いかに私たちが常に[br]表情豊かであるかと言うことです 0:07:53.410,0:07:56.243 電子機器の前に[br]独りで座っているときでもです 0:07:56.243,0:07:59.517 Facebookで猫のビデオを[br]見ているときだけではありません 0:08:00.217,0:08:03.227 メールや携帯メールを書くときや[br]オンラインショッピング― 0:08:03.227,0:08:05.527 確定申告の準備中でも[br]表情豊かなのです 0:08:05.527,0:08:07.919 このデータは今[br]どこで使われているのでしょう? 0:08:07.919,0:08:10.682 メディアとの関わり方の研究― 0:08:10.682,0:08:13.166 つまりバイラリティーや[br]投票行動などの理解や 0:08:13.166,0:08:15.906 また 能力を高めたり[br]感情を利用するテクノロジーにも使えます 0:08:15.906,0:08:20.527 私が特に大切に思う例を[br]お話ししたいと思います 0:08:21.197,0:08:24.265 感情を理解する[br]眼鏡型端末があれば 0:08:24.265,0:08:27.493 視覚障害者が[br]他者の表情を読むのに役立ちます 0:08:27.493,0:08:31.680 自閉症スペクトラムの人が[br]非常に苦労している― 0:08:31.680,0:08:34.457 感情の理解にも役立ちます 0:08:35.918,0:08:38.777 教育においては学習アプリが 0:08:38.777,0:08:41.587 生徒の困惑や退屈の表情に気付き 0:08:41.587,0:08:43.443 教室で熟練の教師がするように 0:08:43.443,0:08:46.413 学習のペースを[br]調整することができるでしょう 0:08:47.043,0:08:49.644 腕時計があなたの気分をモニターしたり 0:08:49.644,0:08:52.337 車があなたの疲労度合いを[br]感知できたら― 0:08:52.337,0:08:54.885 あるいは冷蔵庫が[br]ストレスを感知して 0:08:54.885,0:09:00.951 ばか食いを防ぐために[br]自動ロックしたらどうでしょうか (笑) 0:09:00.951,0:09:03.668 私は良いと思いますね 0:09:03.668,0:09:05.595 私がケンブリッジにいた頃 0:09:05.595,0:09:07.908 リアルタイムの[br]感情ストリームを利用して 0:09:07.908,0:09:11.437 故郷にいる家族と感情を[br]ごく自然に― 0:09:11.437,0:09:15.408 まるで同じ部屋にいるように[br]共有できたらどうだったでしょう? 0:09:15.408,0:09:18.550 今から5年もすれば 0:09:18.550,0:09:20.887 電子機器はすべて[br]感情チップを搭載し 0:09:20.887,0:09:24.951 電子機器に向かって 眉をひそめれば[br]「気に入らなかったんだね」と 0:09:24.951,0:09:29.200 言ってくれなかった昔のことなど[br]忘れてしまうでしょう 0:09:29.200,0:09:32.961 最大の難関はこのテクノロジーには[br]非常に多くの使い道があり 0:09:32.961,0:09:35.864 私たちのチームだけでは[br]全てを開発できないと気づいたことです 0:09:35.864,0:09:39.360 そこで このテクノロジーを利用可能にして[br]他の開発者たちが 0:09:39.360,0:09:41.474 独自に開発を進められるようにしました 0:09:41.474,0:09:45.560 私たちはリスクの可能性も[br]認識しています 0:09:45.560,0:09:47.627 濫用されるリスクです 0:09:47.627,0:09:50.576 でも個人的には[br]何年も携わってきて 0:09:50.576,0:09:53.548 心の知能指数の高い[br]テクノロジーによって 0:09:53.548,0:09:55.823 人類にもたらされる利益の方が 0:09:55.823,0:09:59.399 濫用のリスクよりも[br]ずっと多いと考えています 0:09:59.399,0:10:01.930 皆さんにも対話に参加をお願いします 0:10:01.930,0:10:04.484 このテクノロジーを[br]知っている人が多ければ多いほど 0:10:04.484,0:10:07.661 使用法に関する意見を[br]多く得ることができます 0:10:09.081,0:10:13.655 私たちの生活が[br]さらにデジタルなものになるにつれ 0:10:13.655,0:10:17.153 私たちは感情を再び手にするために[br]電子機器の使用を控えようという 0:10:17.153,0:10:19.382 負けが明らかな闘いに挑んでいます 0:10:20.622,0:10:24.536 その代わりに 私が試みているのは[br]テクノロジーに感情を導入すること 0:10:24.536,0:10:26.765 そしてテクノロジーが[br]反応するものにすることです 0:10:26.765,0:10:29.435 私たちを引き離した電子機器によって 0:10:29.435,0:10:31.897 再び人々を[br]結びつけようとしているのです 0:10:31.897,0:10:36.485 テクノロジーに人間性を付与することで[br]私たちには 0:10:36.485,0:10:39.782 機械との関わりを見つめ直す[br]絶好の機会が与えられています 0:10:39.782,0:10:44.263 つまり人間として 私たちが 0:10:44.263,0:10:46.167 いかにお互いとつながり合うかを[br]見つめ直す機会なのです 0:10:46.167,0:10:48.327 ありがとうございました 0:10:48.327,0:10:51.640 (拍手)