WEBVTT 00:00:01.041 --> 00:00:04.175 こんにちは コードの詩人 ジョイです 00:00:04.199 --> 00:00:09.192 私の使命は 強まりつつある 目に見えない力 00:00:09.216 --> 00:00:12.072 「コード化された視線」 と私が呼ぶ― 00:00:12.096 --> 00:00:15.155 アルゴリズムにおける偏見を 阻止することです NOTE Paragraph 00:00:15.429 --> 00:00:19.549 アルゴリズムも 人と同じで 偏見が入り込むと不公正な結果を生みます 00:00:19.753 --> 00:00:25.745 しかも アルゴリズムはウイルスのように 偏見をどんどん拡散してしまいます 00:00:25.799 --> 00:00:27.381 それも急速にです 00:00:27.943 --> 00:00:32.330 アルゴリズムの偏見は 排他的な扱いや 00:00:32.354 --> 00:00:34.482 差別行為を生む恐れもあります 00:00:34.506 --> 00:00:36.567 具体的にお見せしましょう NOTE Paragraph 00:00:36.980 --> 00:00:39.416 (ビデオ)ねえ カメラくん 私には顔があるわ 00:00:40.162 --> 00:00:42.026 私の顔が見える? 00:00:42.051 --> 00:00:43.676 メガネを外した方がいいかな? 00:00:43.701 --> 00:00:45.915 この人の顔は見えるわね 00:00:46.237 --> 00:00:48.482 私の顔はどう? 00:00:51.890 --> 00:00:55.640 お面をつけるわ このお面は見える? NOTE Paragraph 00:00:56.474 --> 00:00:58.839 (ジョイ)何が起きたのでしょう? 00:00:58.863 --> 00:01:02.004 私が白い仮面をつけて 00:01:02.028 --> 00:01:03.452 コンピュータの前に座り 00:01:03.476 --> 00:01:07.126 安いウェブカメラで検知されるか 試している理由は? 00:01:07.150 --> 00:01:09.441 コードの詩人として コード化された視線と 00:01:09.465 --> 00:01:10.985 戦うとき以外の私は 00:01:11.009 --> 00:01:14.281 MITメディアラボの大学院生で 00:01:14.305 --> 00:01:19.222 ちょっと変わったプロジェクトに いろいろ関わっています 00:01:19.246 --> 00:01:21.273 その1つの 「Aspire Mirror(鼓舞する鏡)」は 00:01:21.297 --> 00:01:26.431 鏡に映った自分の顔に デジタルの仮面を重ねるものです 00:01:26.455 --> 00:01:28.805 朝起きてパワフルな気分に なりたければ 00:01:28.829 --> 00:01:30.263 ライオンの面をつけたり 00:01:30.287 --> 00:01:33.783 気分を高めるために 何かを「引用」したりできます 00:01:33.807 --> 00:01:36.720 このとき 私は 一般的な顔認識ソフトを使い 00:01:36.720 --> 00:01:38.221 システムを組もうとしたのですが 00:01:38.221 --> 00:01:43.298 白い仮面をつけないと テストすら難しいと気づきました NOTE Paragraph 00:01:44.282 --> 00:01:48.628 実は この問題に悩まされたのは 初めてではありませんでした 00:01:48.652 --> 00:01:52.955 ジョージア工科大学で コンピュータ科学を学んでいたとき 00:01:52.979 --> 00:01:55.034 ソーシャルロボットを研究していて 00:01:55.058 --> 00:01:57.385 ロボット相手に 代わりばんこに 00:01:57.389 --> 00:02:00.582 「いないいないばあ」をするという 課題がありました 00:02:00.582 --> 00:02:04.887 顔を覆った手を 「ばあ!」のところで どけて顔を見せる遊びですね 00:02:04.911 --> 00:02:09.340 相手の顔が見えないと 成立しないゲームですが 00:02:09.364 --> 00:02:11.863 ロボットは私の顔を 認識できませんでした 00:02:11.887 --> 00:02:15.837 私はルームメイトの顔を借りて どうにか作業を終え 00:02:15.861 --> 00:02:17.241 課題を提出しました 00:02:17.265 --> 00:02:21.018 そのときは このバグも誰かが 直してくれると思っていました NOTE Paragraph 00:02:21.669 --> 00:02:23.672 それから少しして 私は 00:02:23.696 --> 00:02:27.855 起業コンテストに参加するため 香港に行きました 00:02:28.339 --> 00:02:31.033 参加者たちは いくつかの地元の新興企業に 00:02:31.057 --> 00:02:33.429 案内されました 00:02:33.453 --> 00:02:36.168 ある会社の製品は ソーシャルロボットで 00:02:36.192 --> 00:02:38.104 デモを見せてもらうことに なりました 00:02:38.128 --> 00:02:41.108 デモは成功し 私の番がやって来ます 00:02:41.132 --> 00:02:43.055 結果はご想像のとおり 00:02:43.079 --> 00:02:46.044 私の顔は検知されません 00:02:46.068 --> 00:02:48.579 「どうなってるの?」 と開発者たちに尋ねたら 00:02:48.603 --> 00:02:54.136 私と同じ顔認識ソフトを 使っていることが判明しました 00:02:54.160 --> 00:02:55.810 世界を半周して分かったのは 00:02:55.834 --> 00:02:59.686 アルゴリズムの偏見が 広がるのはすごく早いことです 00:02:59.710 --> 00:03:02.880 ネットからダウンロードする 時間しかかかりません NOTE Paragraph 00:03:03.745 --> 00:03:06.821 どうなっているのか? なぜ私の顔は検知されないのか? 00:03:06.845 --> 00:03:10.201 機械に視覚を持たせる仕組みを 考えてみましょう 00:03:10.225 --> 00:03:13.634 コンピュータビジョンでは 機械学習の技術を使って 00:03:13.658 --> 00:03:15.538 顔を認識します 00:03:15.562 --> 00:03:19.459 顔のサンプルを集めて トレーニングするのです 00:03:19.483 --> 00:03:22.301 これは顔 これは顔 これは顔じゃない 00:03:22.325 --> 00:03:26.844 やがてコンピュータは 顔を認識する方法を習得します 00:03:26.868 --> 00:03:30.857 でもトレーニング用のサンプルに あまり多様性がなかったら 00:03:30.881 --> 00:03:34.230 そこで確立された基準から 大きく外れた顔は 00:03:34.254 --> 00:03:35.903 検知するのが難しくなります 00:03:35.927 --> 00:03:37.890 私の場合はそれでした NOTE Paragraph 00:03:37.914 --> 00:03:40.296 でも大丈夫 希望の持てる面もあります 00:03:40.320 --> 00:03:43.091 顔のサンプル集は ひとりでに できるわけではありません 00:03:43.115 --> 00:03:44.903 私たちにだって作れます 00:03:44.927 --> 00:03:49.103 ですから 網羅的な トレーニング用のサンプルを作り 00:03:49.127 --> 00:03:52.951 さまざまな人間の姿形を しっかり反映させれば いいんです NOTE Paragraph 00:03:52.975 --> 00:03:55.196 私の例でお見せしたように 00:03:55.220 --> 00:03:56.988 ソーシャルロボットの振る舞いから 00:03:57.012 --> 00:04:01.623 アルゴリズムの偏見による 切り捨てが見つかりました 00:04:01.647 --> 00:04:06.462 この偏見は 差別行為にも つながりうるものです 00:04:07.437 --> 00:04:08.890 米国では全国的に 00:04:08.914 --> 00:04:13.112 警察が顔認識ソフトを使って 00:04:13.136 --> 00:04:15.595 犯罪に対処し始めています 00:04:15.619 --> 00:04:17.962 ジョージタウン大学 ロースクールの報告によると 00:04:17.966 --> 00:04:24.419 米国の成人2人に1人 1億1700万人の顔が 00:04:24.443 --> 00:04:27.977 何らかの顔認識用のデータベースに 記録されています 00:04:28.001 --> 00:04:32.553 警察は現在 制限なしに これらのシステムを参照できますが 00:04:32.577 --> 00:04:36.863 使っているアルゴリズムの 正確さは検証されていません 00:04:36.887 --> 00:04:40.751 でも 顔認識は完璧でなく 00:04:40.775 --> 00:04:44.948 顔と名前を一致させるのは なおも難しい課題です 00:04:44.948 --> 00:04:46.820 Facebookで こんな経験をしたことは? 00:04:46.820 --> 00:04:49.752 写真の中の人が正しく認識されず おかしなタグが付いていて 00:04:49.776 --> 00:04:52.234 私は いつも友達と大笑いしています 00:04:52.258 --> 00:04:57.849 でも 犯罪者と間違われたら 笑い事では済みません 00:04:57.873 --> 00:05:00.700 市民の自由が侵された どころでもありません NOTE Paragraph 00:05:00.724 --> 00:05:03.929 機械学習は顔認識に 利用されるとともに 00:05:03.953 --> 00:05:08.458 コンピュータビジョンの 利用範囲を拡大しています 00:05:09.266 --> 00:05:13.282 データ・サイエンティストの キャシー・オニールは 00:05:13.306 --> 00:05:19.987 『Weapons of Math Destruction (数学破壊兵器)』の中で 00:05:20.011 --> 00:05:24.364 不可解で破壊的なアルゴリズムが 「数学破壊兵器」として台頭し 00:05:24.388 --> 00:05:27.352 ますます広く意思決定に 使われるようになり 00:05:27.376 --> 00:05:30.553 私たちの暮らしの多くの場面に 影響を与えていると述べています 00:05:30.577 --> 00:05:32.557 仕事の採用・不採用を分けるものは? 00:05:32.557 --> 00:05:34.573 ローンが組めるかどうか 保険に入れるかどうか 00:05:34.573 --> 00:05:38.110 志望大学に入学できるかどうか 00:05:38.134 --> 00:05:41.643 同じところで同じ製品を 購入するのなら 00:05:41.667 --> 00:05:44.109 誰でも値段は同じかどうか といったことにもです NOTE Paragraph 00:05:44.133 --> 00:05:47.892 警察は機械学習を 予測警備にも 00:05:47.916 --> 00:05:50.205 使い始めています 00:05:50.229 --> 00:05:53.723 裁判官の中には 機械が出したリスク評価をもとに 00:05:53.747 --> 00:05:58.149 何年の懲役にすべきか 決める人もいます 00:05:58.153 --> 00:06:00.647 だから こうした判断について よく考えなければなりません 00:06:00.651 --> 00:06:01.983 判断は公平なのでしょうか? 00:06:01.987 --> 00:06:04.747 すでに見た通り アルゴリズムの偏見により 00:06:04.771 --> 00:06:08.145 出てくる結果は必ずしも 公平ではありません NOTE Paragraph 00:06:08.169 --> 00:06:10.133 私たちに何ができるでしょう 00:06:10.157 --> 00:06:13.837 どうすれば より包括的なコードを作り 00:06:13.861 --> 00:06:16.851 それを実践していけるのか 考えることから始めましょう 00:06:16.875 --> 00:06:19.184 まずは人からです 00:06:19.708 --> 00:06:21.619 つまり コードを書く人が大事です 00:06:21.669 --> 00:06:25.706 多様なメンバーで チームを構成し 00:06:25.716 --> 00:06:28.247 互いの盲点を チェックできているか? 00:06:28.271 --> 00:06:31.816 技術的な面では コードをどう作るかが重要です 00:06:31.840 --> 00:06:35.491 システム開発の要素に 公正さを組み込んでいるか? 00:06:35.515 --> 00:06:38.428 最後に 何のために コードを書くかも重要です 00:06:38.785 --> 00:06:43.868 私たちはコンピュータを使って 莫大な富を生み出してきましたが 00:06:43.892 --> 00:06:48.339 今 より一層の平等も 生み出すことができるのです 00:06:48.363 --> 00:06:51.293 社会の変革を 後付けでなく 00:06:51.317 --> 00:06:53.487 優先事項とすれば良いのです 00:06:54.008 --> 00:06:58.530 このように「インコーディング」運動には 3つの柱があるわけです 00:06:58.554 --> 00:07:00.206 誰がコードを書くかが重要 00:07:00.230 --> 00:07:01.773 どのようにコードを書くかが重要 00:07:01.797 --> 00:07:03.820 なぜコードを書くかが重要 なのです NOTE Paragraph 00:07:03.844 --> 00:07:07.223 インコーディングに向けて まず手を付けるべきは 00:07:07.223 --> 00:07:10.131 偏りを発見できる プラットフォームを作ること 00:07:10.155 --> 00:07:13.233 私が紹介したような 経験を集積して 00:07:13.257 --> 00:07:15.997 今あるソフトウェアの 点検もします 00:07:16.351 --> 00:07:20.116 トレーニング用サンプルにも もっと多様性を盛り込みましょう 00:07:20.140 --> 00:07:22.943 「インクルージョンに向けた自撮り」 キャンペーンを展開して 00:07:22.967 --> 00:07:26.622 多様性のあるサンプルを 開発者が作成しテストするのを 00:07:26.646 --> 00:07:28.559 支援することもできます 00:07:29.302 --> 00:07:32.130 さらには 開発中の技術が 社会に与える影響について 00:07:32.154 --> 00:07:37.155 もっと注意深く 考えるようにしましょう NOTE Paragraph 00:07:37.569 --> 00:07:39.982 インコーディング運動を 始めるために 00:07:39.986 --> 00:07:42.863 私は「Algorithmic Justice League」 を設立しました 00:07:42.863 --> 00:07:48.579 公正さに関心がある人なら誰でも コード化された視線との戦いに参加できます 00:07:48.753 --> 00:07:52.049 偏ったコードの通報や監査依頼 00:07:52.073 --> 00:07:54.518 試験者の参加申し込みは codedgaze.comへ 00:07:54.542 --> 00:07:57.313 話題の共有には 00:07:57.337 --> 00:07:59.624 #codedgazeを使ってください NOTE Paragraph 00:08:00.742 --> 00:08:03.229 ぜひ皆さんに 参加してほしいんです 00:08:03.253 --> 00:08:06.972 テクノロジーが 一部の人でなく みんなの役に立つ― 00:08:06.996 --> 00:08:08.893 世界を創りましょう 00:08:08.917 --> 00:08:13.505 インクルージョンを大事にし 自ら社会を変える そんな世界にしましょう NOTE Paragraph 00:08:13.529 --> 00:08:14.704 ありがとうございました NOTE Paragraph 00:08:14.728 --> 00:08:18.999 (拍手) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 でも ほんとに大丈夫? 00:08:23.751 --> 00:08:25.810 本気で参加してくれますね? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (笑) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (拍手)