1 00:00:01,041 --> 00:00:04,175 こんにちは コードの詩人 ジョイです 2 00:00:04,199 --> 00:00:09,192 私の使命は 強まりつつある 目に見えない力 3 00:00:09,216 --> 00:00:12,072 「コード化された視線」 と私が呼ぶ― 4 00:00:12,096 --> 00:00:15,155 アルゴリズムにおける偏見を 阻止することです 5 00:00:15,429 --> 00:00:19,549 アルゴリズムも 人と同じで 偏見が入り込むと不公正な結果を生みます 6 00:00:19,753 --> 00:00:25,745 しかも アルゴリズムはウイルスのように 偏見をどんどん拡散してしまいます 7 00:00:25,799 --> 00:00:27,381 それも急速にです 8 00:00:27,943 --> 00:00:32,330 アルゴリズムの偏見は 排他的な扱いや 9 00:00:32,354 --> 00:00:34,482 差別行為を生む恐れもあります 10 00:00:34,506 --> 00:00:36,567 具体的にお見せしましょう 11 00:00:36,980 --> 00:00:39,416 (ビデオ)ねえ カメラくん 私には顔があるわ 12 00:00:40,162 --> 00:00:42,026 私の顔が見える? 13 00:00:42,051 --> 00:00:43,676 メガネを外した方がいいかな? 14 00:00:43,701 --> 00:00:45,915 この人の顔は見えるわね 15 00:00:46,237 --> 00:00:48,482 私の顔はどう? 16 00:00:51,890 --> 00:00:55,640 お面をつけるわ このお面は見える? 17 00:00:56,474 --> 00:00:58,839 (ジョイ)何が起きたのでしょう? 18 00:00:58,863 --> 00:01:02,004 私が白い仮面をつけて 19 00:01:02,028 --> 00:01:03,452 コンピュータの前に座り 20 00:01:03,476 --> 00:01:07,126 安いウェブカメラで検知されるか 試している理由は? 21 00:01:07,150 --> 00:01:09,441 コードの詩人として コード化された視線と 22 00:01:09,465 --> 00:01:10,985 戦うとき以外の私は 23 00:01:11,009 --> 00:01:14,281 MITメディアラボの大学院生で 24 00:01:14,305 --> 00:01:19,222 ちょっと変わったプロジェクトに いろいろ関わっています 25 00:01:19,246 --> 00:01:21,273 その1つの 「Aspire Mirror(鼓舞する鏡)」は 26 00:01:21,297 --> 00:01:26,431 鏡に映った自分の顔に デジタルの仮面を重ねるものです 27 00:01:26,455 --> 00:01:28,805 朝起きてパワフルな気分に なりたければ 28 00:01:28,829 --> 00:01:30,263 ライオンの面をつけたり 29 00:01:30,287 --> 00:01:33,783 気分を高めるために 何かを「引用」したりできます 30 00:01:33,807 --> 00:01:36,720 このとき 私は 一般的な顔認識ソフトを使い 31 00:01:36,720 --> 00:01:38,221 システムを組もうとしたのですが 32 00:01:38,221 --> 00:01:43,298 白い仮面をつけないと テストすら難しいと気づきました 33 00:01:44,282 --> 00:01:48,628 実は この問題に悩まされたのは 初めてではありませんでした 34 00:01:48,652 --> 00:01:52,955 ジョージア工科大学で コンピュータ科学を学んでいたとき 35 00:01:52,979 --> 00:01:55,034 ソーシャルロボットを研究していて 36 00:01:55,058 --> 00:01:57,385 ロボット相手に 代わりばんこに 37 00:01:57,389 --> 00:02:00,582 「いないいないばあ」をするという 課題がありました 38 00:02:00,582 --> 00:02:04,887 顔を覆った手を 「ばあ!」のところで どけて顔を見せる遊びですね 39 00:02:04,911 --> 00:02:09,340 相手の顔が見えないと 成立しないゲームですが 40 00:02:09,364 --> 00:02:11,863 ロボットは私の顔を 認識できませんでした 41 00:02:11,887 --> 00:02:15,837 私はルームメイトの顔を借りて どうにか作業を終え 42 00:02:15,861 --> 00:02:17,241 課題を提出しました 43 00:02:17,265 --> 00:02:21,018 そのときは このバグも誰かが 直してくれると思っていました 44 00:02:21,669 --> 00:02:23,672 それから少しして 私は 45 00:02:23,696 --> 00:02:27,855 起業コンテストに参加するため 香港に行きました 46 00:02:28,339 --> 00:02:31,033 参加者たちは いくつかの地元の新興企業に 47 00:02:31,057 --> 00:02:33,429 案内されました 48 00:02:33,453 --> 00:02:36,168 ある会社の製品は ソーシャルロボットで 49 00:02:36,192 --> 00:02:38,104 デモを見せてもらうことに なりました 50 00:02:38,128 --> 00:02:41,108 デモは成功し 私の番がやって来ます 51 00:02:41,132 --> 00:02:43,055 結果はご想像のとおり 52 00:02:43,079 --> 00:02:46,044 私の顔は検知されません 53 00:02:46,068 --> 00:02:48,579 「どうなってるの?」 と開発者たちに尋ねたら 54 00:02:48,603 --> 00:02:54,136 私と同じ顔認識ソフトを 使っていることが判明しました 55 00:02:54,160 --> 00:02:55,810 世界を半周して分かったのは 56 00:02:55,834 --> 00:02:59,686 アルゴリズムの偏見が 広がるのはすごく早いことです 57 00:02:59,710 --> 00:03:02,880 ネットからダウンロードする 時間しかかかりません 58 00:03:03,745 --> 00:03:06,821 どうなっているのか? なぜ私の顔は検知されないのか? 59 00:03:06,845 --> 00:03:10,201 機械に視覚を持たせる仕組みを 考えてみましょう 60 00:03:10,225 --> 00:03:13,634 コンピュータビジョンでは 機械学習の技術を使って 61 00:03:13,658 --> 00:03:15,538 顔を認識します 62 00:03:15,562 --> 00:03:19,459 顔のサンプルを集めて トレーニングするのです 63 00:03:19,483 --> 00:03:22,301 これは顔 これは顔 これは顔じゃない 64 00:03:22,325 --> 00:03:26,844 やがてコンピュータは 顔を認識する方法を習得します 65 00:03:26,868 --> 00:03:30,857 でもトレーニング用のサンプルに あまり多様性がなかったら 66 00:03:30,881 --> 00:03:34,230 そこで確立された基準から 大きく外れた顔は 67 00:03:34,254 --> 00:03:35,903 検知するのが難しくなります 68 00:03:35,927 --> 00:03:37,890 私の場合はそれでした 69 00:03:37,914 --> 00:03:40,296 でも大丈夫 希望の持てる面もあります 70 00:03:40,320 --> 00:03:43,091 顔のサンプル集は ひとりでに できるわけではありません 71 00:03:43,115 --> 00:03:44,903 私たちにだって作れます 72 00:03:44,927 --> 00:03:49,103 ですから 網羅的な トレーニング用のサンプルを作り 73 00:03:49,127 --> 00:03:52,951 さまざまな人間の姿形を しっかり反映させれば いいんです 74 00:03:52,975 --> 00:03:55,196 私の例でお見せしたように 75 00:03:55,220 --> 00:03:56,988 ソーシャルロボットの振る舞いから 76 00:03:57,012 --> 00:04:01,623 アルゴリズムの偏見による 切り捨てが見つかりました 77 00:04:01,647 --> 00:04:06,462 この偏見は 差別行為にも つながりうるものです 78 00:04:07,437 --> 00:04:08,890 米国では全国的に 79 00:04:08,914 --> 00:04:13,112 警察が顔認識ソフトを使って 80 00:04:13,136 --> 00:04:15,595 犯罪に対処し始めています 81 00:04:15,619 --> 00:04:17,962 ジョージタウン大学 ロースクールの報告によると 82 00:04:17,966 --> 00:04:24,419 米国の成人2人に1人 1億1700万人の顔が 83 00:04:24,443 --> 00:04:27,977 何らかの顔認識用のデータベースに 記録されています 84 00:04:28,001 --> 00:04:32,553 警察は現在 制限なしに これらのシステムを参照できますが 85 00:04:32,577 --> 00:04:36,863 使っているアルゴリズムの 正確さは検証されていません 86 00:04:36,887 --> 00:04:40,751 でも 顔認識は完璧でなく 87 00:04:40,775 --> 00:04:44,948 顔と名前を一致させるのは なおも難しい課題です 88 00:04:44,948 --> 00:04:46,820 Facebookで こんな経験をしたことは? 89 00:04:46,820 --> 00:04:49,752 写真の中の人が正しく認識されず おかしなタグが付いていて 90 00:04:49,776 --> 00:04:52,234 私は いつも友達と大笑いしています 91 00:04:52,258 --> 00:04:57,849 でも 犯罪者と間違われたら 笑い事では済みません 92 00:04:57,873 --> 00:05:00,700 市民の自由が侵された どころでもありません 93 00:05:00,724 --> 00:05:03,929 機械学習は顔認識に 利用されるとともに 94 00:05:03,953 --> 00:05:08,458 コンピュータビジョンの 利用範囲を拡大しています 95 00:05:09,266 --> 00:05:13,282 データ・サイエンティストの キャシー・オニールは 96 00:05:13,306 --> 00:05:19,987 『Weapons of Math Destruction (数学破壊兵器)』の中で 97 00:05:20,011 --> 00:05:24,364 不可解で破壊的なアルゴリズムが 「数学破壊兵器」として台頭し 98 00:05:24,388 --> 00:05:27,352 ますます広く意思決定に 使われるようになり 99 00:05:27,376 --> 00:05:30,553 私たちの暮らしの多くの場面に 影響を与えていると述べています 100 00:05:30,577 --> 00:05:32,557 仕事の採用・不採用を分けるものは? 101 00:05:32,557 --> 00:05:34,573 ローンが組めるかどうか 保険に入れるかどうか 102 00:05:34,573 --> 00:05:38,110 志望大学に入学できるかどうか 103 00:05:38,134 --> 00:05:41,643 同じところで同じ製品を 購入するのなら 104 00:05:41,667 --> 00:05:44,109 誰でも値段は同じかどうか といったことにもです 105 00:05:44,133 --> 00:05:47,892 警察は機械学習を 予測警備にも 106 00:05:47,916 --> 00:05:50,205 使い始めています 107 00:05:50,229 --> 00:05:53,723 裁判官の中には 機械が出したリスク評価をもとに 108 00:05:53,747 --> 00:05:58,149 何年の懲役にすべきか 決める人もいます 109 00:05:58,153 --> 00:06:00,647 だから こうした判断について よく考えなければなりません 110 00:06:00,651 --> 00:06:01,983 判断は公平なのでしょうか? 111 00:06:01,987 --> 00:06:04,747 すでに見た通り アルゴリズムの偏見により 112 00:06:04,771 --> 00:06:08,145 出てくる結果は必ずしも 公平ではありません 113 00:06:08,169 --> 00:06:10,133 私たちに何ができるでしょう 114 00:06:10,157 --> 00:06:13,837 どうすれば より包括的なコードを作り 115 00:06:13,861 --> 00:06:16,851 それを実践していけるのか 考えることから始めましょう 116 00:06:16,875 --> 00:06:19,184 まずは人からです 117 00:06:19,708 --> 00:06:21,619 つまり コードを書く人が大事です 118 00:06:21,669 --> 00:06:25,706 多様なメンバーで チームを構成し 119 00:06:25,716 --> 00:06:28,247 互いの盲点を チェックできているか? 120 00:06:28,271 --> 00:06:31,816 技術的な面では コードをどう作るかが重要です 121 00:06:31,840 --> 00:06:35,491 システム開発の要素に 公正さを組み込んでいるか? 122 00:06:35,515 --> 00:06:38,428 最後に 何のために コードを書くかも重要です 123 00:06:38,785 --> 00:06:43,868 私たちはコンピュータを使って 莫大な富を生み出してきましたが 124 00:06:43,892 --> 00:06:48,339 今 より一層の平等も 生み出すことができるのです 125 00:06:48,363 --> 00:06:51,293 社会の変革を 後付けでなく 126 00:06:51,317 --> 00:06:53,487 優先事項とすれば良いのです 127 00:06:54,008 --> 00:06:58,530 このように「インコーディング」運動には 3つの柱があるわけです 128 00:06:58,554 --> 00:07:00,206 誰がコードを書くかが重要 129 00:07:00,230 --> 00:07:01,773 どのようにコードを書くかが重要 130 00:07:01,797 --> 00:07:03,820 なぜコードを書くかが重要 なのです 131 00:07:03,844 --> 00:07:07,223 インコーディングに向けて まず手を付けるべきは 132 00:07:07,223 --> 00:07:10,131 偏りを発見できる プラットフォームを作ること 133 00:07:10,155 --> 00:07:13,233 私が紹介したような 経験を集積して 134 00:07:13,257 --> 00:07:15,997 今あるソフトウェアの 点検もします 135 00:07:16,351 --> 00:07:20,116 トレーニング用サンプルにも もっと多様性を盛り込みましょう 136 00:07:20,140 --> 00:07:22,943 「インクルージョンに向けた自撮り」 キャンペーンを展開して 137 00:07:22,967 --> 00:07:26,622 多様性のあるサンプルを 開発者が作成しテストするのを 138 00:07:26,646 --> 00:07:28,559 支援することもできます 139 00:07:29,302 --> 00:07:32,130 さらには 開発中の技術が 社会に与える影響について 140 00:07:32,154 --> 00:07:37,155 もっと注意深く 考えるようにしましょう 141 00:07:37,569 --> 00:07:39,982 インコーディング運動を 始めるために 142 00:07:39,986 --> 00:07:42,863 私は「Algorithmic Justice League」 を設立しました 143 00:07:42,863 --> 00:07:48,579 公正さに関心がある人なら誰でも コード化された視線との戦いに参加できます 144 00:07:48,753 --> 00:07:52,049 偏ったコードの通報や監査依頼 145 00:07:52,073 --> 00:07:54,518 試験者の参加申し込みは codedgaze.comへ 146 00:07:54,542 --> 00:07:57,313 話題の共有には 147 00:07:57,337 --> 00:07:59,624 #codedgazeを使ってください 148 00:08:00,742 --> 00:08:03,229 ぜひ皆さんに 参加してほしいんです 149 00:08:03,253 --> 00:08:06,972 テクノロジーが 一部の人でなく みんなの役に立つ― 150 00:08:06,996 --> 00:08:08,893 世界を創りましょう 151 00:08:08,917 --> 00:08:13,505 インクルージョンを大事にし 自ら社会を変える そんな世界にしましょう 152 00:08:13,529 --> 00:08:14,704 ありがとうございました 153 00:08:14,728 --> 00:08:18,999 (拍手) 154 00:08:20,873 --> 00:08:23,727 でも ほんとに大丈夫? 155 00:08:23,751 --> 00:08:25,810 本気で参加してくれますね? 156 00:08:25,834 --> 00:08:27,119 (笑) 157 00:08:27,143 --> 00:08:30,830 (拍手)