1 00:00:00,975 --> 00:00:02,861 アルゴリズムは どこにでもあります 2 00:00:04,111 --> 00:00:07,466 アルゴリズムが勝者と敗者を分けます 3 00:00:08,019 --> 00:00:10,167 勝者は仕事を手に入れ 4 00:00:10,167 --> 00:00:12,080 有利なクレジットカードを 申し込めます 5 00:00:12,080 --> 00:00:15,105 一方 敗者は就職面接すら受けられず 6 00:00:15,590 --> 00:00:17,737 保険料は より高くなります 7 00:00:18,197 --> 00:00:21,946 私たちは 理解できない上に 不服申し立ての機会もない— 8 00:00:22,675 --> 00:00:26,002 秘密の数式によって 格付けされているのです 9 00:00:27,180 --> 00:00:28,536 そこで疑問が湧いてきます 10 00:00:28,560 --> 00:00:31,473 もしアルゴリズムが間違っていたら? 11 00:00:32,990 --> 00:00:34,724 アルゴリズムを作る時 必要なものが2つあります 12 00:00:34,724 --> 00:00:37,069 データ つまり過去の出来事の記録と 13 00:00:37,069 --> 00:00:38,760 人が追い求める「成功」を 定義する基準です 14 00:00:38,760 --> 00:00:41,165 人が追い求める「成功」を 定義する基準です 15 00:00:41,165 --> 00:00:46,056 そして観察と理解を通して アルゴリズムを訓練します 16 00:00:46,056 --> 00:00:49,589 アルゴリズムに 成功と関係する要素を 理解させるためです 17 00:00:49,589 --> 00:00:52,552 どんな状況が 成功に繋がるのでしょう? 18 00:00:52,801 --> 00:00:54,643 実は アルゴリズムは 誰でも使っています 19 00:00:54,667 --> 00:00:57,229 プログラムに書かないだけです 20 00:00:57,229 --> 00:00:58,571 1つ例を挙げましょう 21 00:00:58,571 --> 00:01:02,021 私は毎日アルゴリズムを使って 家族の食事を用意します 22 00:01:02,021 --> 00:01:04,274 私が利用するデータは 23 00:01:04,274 --> 00:01:06,053 台所にどんな材料があるか 24 00:01:06,053 --> 00:01:07,598 どれだけ時間をかけられるか 25 00:01:07,598 --> 00:01:08,911 どれだけ料理に凝るかで 26 00:01:08,911 --> 00:01:10,614 私はそのデータをまとめます 27 00:01:10,618 --> 00:01:14,869 ちなみにインスタントラーメンは 食べ物とは認めません 28 00:01:14,883 --> 00:01:16,762 (笑) 29 00:01:16,786 --> 00:01:18,631 私にとって成功の基準は 30 00:01:18,655 --> 00:01:21,554 子供たちが野菜を食べることです 31 00:01:22,101 --> 00:01:24,689 もし下の息子が決めるなら 基準はガラッと変わり 32 00:01:24,689 --> 00:01:28,047 「いっぱいチョコナッツクリームを 食べられれば成功」と言うでしょう 33 00:01:29,179 --> 00:01:31,405 でも基準を決めるのは私です 34 00:01:31,429 --> 00:01:34,136 責任者は私で 私の意見が重要なんですから 35 00:01:34,160 --> 00:01:36,835 これがアルゴリズムの第1のルールです 36 00:01:36,859 --> 00:01:40,299 アルゴリズムとはプログラムに 埋め込まれた意見なのです 37 00:01:41,482 --> 00:01:45,225 これは ほとんどの人が持つ アルゴリズムのイメージとはかけ離れています 38 00:01:45,249 --> 00:01:50,167 人々はアルゴリズムが客観的で正しく 科学的なものと思っていますが 39 00:01:50,167 --> 00:01:52,606 それはマーケティング上のトリックです 40 00:01:53,269 --> 00:01:55,394 アルゴリズムで人を怯ませるのも 41 00:01:55,418 --> 00:01:58,486 マーケティングのトリックですし 42 00:01:58,486 --> 00:02:02,221 アルゴリズムを信用させたり 恐れさせたりするのもそう 43 00:02:02,221 --> 00:02:05,029 皆 数学を恐れつつ信用していますから 44 00:02:05,567 --> 00:02:10,727 ビッグデータを盲信すると いろいろな問題が生じかねません 45 00:02:11,604 --> 00:02:15,057 彼女はキリ・ソアーズ ブルックリンの高校で校長をしています 46 00:02:15,081 --> 00:02:17,667 2011年に彼女が教えてくれたのですが 彼女の学校では 47 00:02:17,691 --> 00:02:20,418 「付加価値モデル」という 複雑な秘密のアルゴリズムで 48 00:02:20,422 --> 00:02:22,501 教員が評価されている ということでした 49 00:02:22,505 --> 00:02:25,111 私は こう伝えました 「数式を調べてみましょう 50 00:02:25,111 --> 00:02:27,156 見せてくれれば説明しますよ」 51 00:02:27,156 --> 00:02:29,261 すると彼女は 「数式を入手しようとしたら 52 00:02:29,261 --> 00:02:32,173 市教育局の担当者に『これは数学ですよ 理解できないでしょう』と 53 00:02:32,173 --> 00:02:33,763 言われたんです」 54 00:02:35,266 --> 00:02:36,604 事態はさらに深刻化します 55 00:02:36,628 --> 00:02:40,158 ニューヨーク・ポスト紙が 情報自由法に基づく開示請求をして 56 00:02:40,182 --> 00:02:43,141 ニューヨーク市の全教員の 名前とスコアを手に入れ 57 00:02:43,165 --> 00:02:46,507 教員を辱めるような データを公表しました 58 00:02:47,084 --> 00:02:50,908 一方 私がソース・コードを 同じ方法で手に入れようとしたところ 59 00:02:50,908 --> 00:02:53,117 無理だと言われました 60 00:02:53,141 --> 00:02:54,377 却下されたのです 61 00:02:54,401 --> 00:02:55,575 後にわかったことですが 62 00:02:55,599 --> 00:02:58,439 ニューヨーク市で その数式を 見られる人は誰もおらず 63 00:02:58,439 --> 00:03:00,484 誰も理解していなかったのです 64 00:03:01,869 --> 00:03:05,097 その後 ゲイリー・ルービンスタインという 頭のキレる人物が登場します 65 00:03:05,097 --> 00:03:07,132 彼はニューヨーク・ポスト紙のデータから 66 00:03:07,132 --> 00:03:10,632 2種類のスコアを持っている 教員665名を見つけ出しました 67 00:03:10,632 --> 00:03:12,593 それに該当するのは 例えば 68 00:03:12,617 --> 00:03:15,020 数学を7年生と8年生で 教えている場合です 69 00:03:15,020 --> 00:03:16,728 彼は2種類のスコアを散布図にしました 70 00:03:16,728 --> 00:03:18,975 点はそれぞれ 先生を表します 71 00:03:19,064 --> 00:03:21,483 (笑) 72 00:03:21,507 --> 00:03:23,318 これは どういうことでしょう? 73 00:03:23,318 --> 00:03:24,329 (笑) 74 00:03:24,353 --> 00:03:27,743 こんなものを教員の個人評価に 使ってはいけません 75 00:03:27,743 --> 00:03:29,919 まるで乱数発生器じゃないですか 76 00:03:29,919 --> 00:03:32,493 (拍手) 77 00:03:32,493 --> 00:03:33,869 でも実際に使われたんです 78 00:03:33,869 --> 00:03:35,009 彼女はサラ・ワイサキ 79 00:03:35,009 --> 00:03:38,224 他の205人のワシントンD.C.学区の 先生たちと共に 80 00:03:38,224 --> 00:03:39,884 解雇されました 81 00:03:39,884 --> 00:03:42,907 校長や保護者からの評価は 非常に高かったのにです 82 00:03:42,907 --> 00:03:44,565 校長や保護者からの評価は 非常に高かったのにです 83 00:03:45,390 --> 00:03:47,366 皆さんが今 考えていることは わかります 84 00:03:47,366 --> 00:03:50,013 特にデータサイエンティストや AIの専門家なら思うでしょう 85 00:03:50,013 --> 00:03:54,333 「自分なら そんなデタラメな アルゴリズムは作らない」って 86 00:03:54,783 --> 00:03:56,596 でもアルゴリズムは誤ることもあれば 87 00:03:56,596 --> 00:04:01,558 善意に基づいていても 破壊的な影響を及ぼすことだってあります 88 00:04:02,531 --> 00:04:04,874 飛行機なら 設計がまずければ 89 00:04:04,874 --> 00:04:06,935 墜落しますし その様子が見えますが 90 00:04:06,959 --> 00:04:09,329 アルゴリズムだと設計がまずくても 91 00:04:10,175 --> 00:04:14,820 長期間に渡って 音もなく 大惨事をもたらし続けかねないんです 92 00:04:15,748 --> 00:04:17,578 彼はロジャー・エイルズ 93 00:04:17,578 --> 00:04:19,342 (笑) 94 00:04:20,524 --> 00:04:23,142 1996年にFOXニュースを創設しました 95 00:04:23,436 --> 00:04:26,017 20人以上の女性が セクハラ被害を訴えました 96 00:04:26,041 --> 00:04:29,240 またキャリアアップを 妨害されたそうです 97 00:04:29,240 --> 00:04:31,820 彼自身は2016年に地位を追われましたが 98 00:04:31,844 --> 00:04:34,954 最近のニュースにある通り 問題は依然残っています 99 00:04:35,654 --> 00:04:37,054 ここで疑問が湧いてきます 100 00:04:37,078 --> 00:04:40,222 再起をはかるために FOXニュースは何をすべきか? 101 00:04:41,245 --> 00:04:44,286 人材採用プロセスを 機械学習アルゴリズムに 102 00:04:44,310 --> 00:04:45,964 替えるのはどうでしょう? 103 00:04:45,988 --> 00:04:47,583 いいアイデアでしょう? 104 00:04:47,607 --> 00:04:48,907 検討してみましょう 105 00:04:48,931 --> 00:04:51,036 まずデータには 何が使えるでしょう? 106 00:04:51,060 --> 00:04:56,007 過去21年間に FOXニュースに送られた 履歴書がいいでしょう 107 00:04:56,031 --> 00:04:57,533 妥当なデータです 108 00:04:57,557 --> 00:04:59,495 では成功の基準は? 109 00:04:59,921 --> 00:05:01,245 妥当な基準は… 110 00:05:01,269 --> 00:05:03,047 どんな人がFOXニュースで 成功するんでしょう? 111 00:05:03,071 --> 00:05:06,651 例えば 4年在職して 最低1回は昇進していれば 112 00:05:06,675 --> 00:05:08,649 成功と言えそうです 113 00:05:08,816 --> 00:05:10,377 妥当な基準です 114 00:05:10,401 --> 00:05:12,755 それをアルゴリズムに学習させます 115 00:05:12,779 --> 00:05:16,976 人々を探って 何が成功につながるか— 116 00:05:17,219 --> 00:05:20,721 これまで どんな履歴書が 成功に繋がってきたのかを 117 00:05:20,721 --> 00:05:23,605 この基準に従って学習させるのです 118 00:05:24,200 --> 00:05:25,829 さて このアルゴリズムを 119 00:05:25,829 --> 00:05:28,714 現在の就職希望者に 当てはめると どうなるでしょう? 120 00:05:29,119 --> 00:05:31,318 まず女性は除外されるでしょう 121 00:05:31,663 --> 00:05:35,593 過去に成功してきたようには 見えないからです 122 00:05:39,642 --> 00:05:42,289 配慮もなく やみくもに アルゴリズムを適用しても 123 00:05:42,313 --> 00:05:44,981 物事は公平にはならないんです 124 00:05:44,981 --> 00:05:46,513 アルゴリズムは公平を生みません 125 00:05:46,537 --> 00:05:48,665 過去の行為や行動パターンを 126 00:05:48,689 --> 00:05:49,872 繰り返し 127 00:05:49,896 --> 00:05:52,215 自動的に現状を維持するだけです 128 00:05:52,718 --> 00:05:55,317 この世界が完璧なら それでいいんでしょうが 129 00:05:55,905 --> 00:05:57,217 そうではありません 130 00:05:57,241 --> 00:06:01,913 さらに付け加えると ほとんどの企業は みっともない裁判を抱えている訳ではありませんが 131 00:06:02,446 --> 00:06:04,928 こういった企業にいる データサイエンティストは 132 00:06:04,928 --> 00:06:06,851 正確性に焦点を当て 133 00:06:06,851 --> 00:06:09,684 データに従うよう指示されています 134 00:06:10,273 --> 00:06:11,654 その意味を考えてみましょう 135 00:06:11,678 --> 00:06:13,529 誰でもバイアスを持っているので 136 00:06:13,529 --> 00:06:18,355 アルゴリズムに性差別や その他の偏見が コード化されている可能性があります 137 00:06:19,488 --> 00:06:20,909 思考実験をしてみましょう 138 00:06:20,933 --> 00:06:22,682 私は思考実験が好きなので 139 00:06:23,574 --> 00:06:27,049 人種を完全に隔離した 社会があるとします 140 00:06:28,247 --> 00:06:31,575 どの街でも どの地域でも 人種は隔離され 141 00:06:31,599 --> 00:06:33,980 犯罪を見つけるために 警察を送り込むのは 142 00:06:33,980 --> 00:06:36,373 マイノリティーが住む地域だけです 143 00:06:36,391 --> 00:06:39,450 すると逮捕者のデータは かなり偏ったものになるでしょう 144 00:06:39,851 --> 00:06:42,426 さらに データサイエンティストを 探してきて 145 00:06:42,450 --> 00:06:46,911 報酬を払い 次の犯罪が起こる場所を 予測させたらどうなるでしょう? 146 00:06:47,195 --> 00:06:48,992 マイノリティーの地域になります 147 00:06:49,285 --> 00:06:52,820 あるいは 次に犯罪を犯しそうな人を 予測させたら? 148 00:06:52,888 --> 00:06:54,623 マイノリティーでしょうね 149 00:06:55,949 --> 00:06:59,394 データサイエンティストは モデルの素晴らしさと正確さを 150 00:06:59,394 --> 00:07:00,811 自慢するでしょうし 151 00:07:00,835 --> 00:07:02,564 確かにその通りでしょう 152 00:07:03,951 --> 00:07:07,610 さて 現実はそこまで極端ではありませんが 153 00:07:07,610 --> 00:07:09,877 実際に多くの市や町で 深刻な人種差別があり 154 00:07:09,901 --> 00:07:12,814 警察の活動や司法制度のデータが 偏っているという 155 00:07:12,814 --> 00:07:14,806 証拠が揃っています 156 00:07:15,632 --> 00:07:18,447 実際にホットスポットと呼ばれる 犯罪多発地域を 157 00:07:18,471 --> 00:07:20,331 予測しています 158 00:07:20,401 --> 00:07:23,791 さらには個々人の犯罪傾向を 159 00:07:23,791 --> 00:07:26,221 実際に予測しています 160 00:07:26,972 --> 00:07:30,935 報道組織プロパブリカが最近 いわゆる「再犯リスク」アルゴリズムの 161 00:07:30,959 --> 00:07:32,957 1つを取り上げ調査しました 162 00:07:32,957 --> 00:07:34,070 1つを取り上げ調査しました 163 00:07:34,070 --> 00:07:37,968 フロリダ州で 判事による 量刑手続に使われているものです 164 00:07:38,411 --> 00:07:42,286 左側の黒人男性バーナードのスコアは 10点満点の10点で 165 00:07:43,179 --> 00:07:45,186 右の白人ディランは3点でした 166 00:07:45,210 --> 00:07:48,221 10点中10点はハイリスクで 3点はローリスクです 167 00:07:48,598 --> 00:07:50,887 2人とも麻薬所持で逮捕され 168 00:07:50,887 --> 00:07:52,311 どちらも前科はありましたが 169 00:07:52,311 --> 00:07:54,695 3点のディランには重罪の前科があり 170 00:07:54,695 --> 00:07:57,201 10点のバーナードにはありませんでした 171 00:07:57,818 --> 00:08:00,884 これが重要な理由は スコアが高ければ高いほど 172 00:08:00,908 --> 00:08:04,381 刑期が長くなる 傾向があるからです 173 00:08:06,234 --> 00:08:07,888 どうなっているのでしょう? 174 00:08:08,526 --> 00:08:10,478 これは「データ・ロンダリング」です 175 00:08:10,930 --> 00:08:15,357 このプロセスを通して 技術者が ブラックボックスのようなアルゴリズムの内部に 176 00:08:15,381 --> 00:08:17,202 醜い現実を隠し 177 00:08:17,226 --> 00:08:19,210 「客観的」とか 178 00:08:19,210 --> 00:08:21,538 「能力主義」と称しているんです 179 00:08:23,118 --> 00:08:25,803 秘密にされている 重要で破壊的なアルゴリズムを 180 00:08:25,803 --> 00:08:28,014 私はこんな名前で呼んでいます 181 00:08:28,038 --> 00:08:30,037 「大量破壊数学」です 182 00:08:30,061 --> 00:08:31,625 (笑) 183 00:08:31,649 --> 00:08:34,703 (拍手) 184 00:08:34,727 --> 00:08:37,655 それは間違いなく どこにでも存在します 185 00:08:37,655 --> 00:08:41,418 民間企業が 私的なアルゴリズムを 私的な目的で 186 00:08:41,442 --> 00:08:43,014 作っているんです 187 00:08:43,214 --> 00:08:46,352 先程お話しした 教員や警察向けのアルゴリズムでさえ 188 00:08:46,352 --> 00:08:48,205 民間企業が制作し 189 00:08:48,205 --> 00:08:50,576 政府機関に販売したものです 190 00:08:50,600 --> 00:08:52,473 アルゴリズムは 「秘伝のタレ」だから 191 00:08:52,497 --> 00:08:54,625 公開できないと 企業側は主張します 192 00:08:54,649 --> 00:08:57,439 また アルゴリズムは私的な権力です 193 00:08:57,924 --> 00:09:03,119 この謎めいた存在が持つ権威を振りかざして 企業は利益を得ています 194 00:09:05,044 --> 00:09:08,048 ただ こう思うかもしれません アルゴリズムが民間のものなら 195 00:09:08,072 --> 00:09:09,230 競争があるので 196 00:09:09,254 --> 00:09:11,560 自由市場の力が 問題を解決するのではないか… 197 00:09:11,584 --> 00:09:12,833 でも そうはいきません 198 00:09:12,857 --> 00:09:15,977 不公平は大きな利益を 生み出しますから 199 00:09:17,127 --> 00:09:21,026 それに我々人間は 合理的経済人ではなく 200 00:09:21,031 --> 00:09:22,613 誰もがバイアスを持っています 201 00:09:22,960 --> 00:09:26,191 私たちは 自分が望みも 気づきもしない形で 202 00:09:26,191 --> 00:09:28,890 差別や偏見を持っているのです 203 00:09:29,352 --> 00:09:32,433 全体を俯瞰して見ると そのことがわかります 204 00:09:32,457 --> 00:09:35,231 なぜなら社会学者が 考案した実験を通して 205 00:09:35,231 --> 00:09:37,366 一貫して実証されてきたからです 206 00:09:37,390 --> 00:09:39,958 その実験では研究者が 履歴書を大量に送付しました 207 00:09:39,982 --> 00:09:42,327 同じように資格は満たしていますが 一部は白人っぽい名前で 208 00:09:42,327 --> 00:09:43,957 一部は黒人っぽい名前 209 00:09:43,957 --> 00:09:47,131 そして結果は 常にがっかりするものでした 210 00:09:47,510 --> 00:09:49,281 つまりバイアスがあるのは私たちで 211 00:09:49,305 --> 00:09:51,498 どんなデータを集め選ぶかによって 212 00:09:51,498 --> 00:09:54,570 そのバイアスをアルゴリズムに 注入しているんです 213 00:09:54,594 --> 00:09:57,311 これは私がインスタントラーメンを 含めないのと同じで 214 00:09:57,311 --> 00:09:59,106 不適切だと決めたのは 私なんです 215 00:09:59,106 --> 00:10:04,528 しかし実際に過去の行動を元にした データを信頼し 216 00:10:04,528 --> 00:10:06,732 成功の基準を恣意的に選びながら 217 00:10:06,756 --> 00:10:10,739 どうして欠陥のないアルゴリズムを 期待できるのでしょう? 218 00:10:10,763 --> 00:10:13,469 それは無理です チェックが必要なんです 219 00:10:14,045 --> 00:10:15,874 公平性を確かめる必要があるんです 220 00:10:15,898 --> 00:10:18,403 幸い公正性は確認できます 221 00:10:18,403 --> 00:10:21,779 アルゴリズムに問いただせば 222 00:10:21,779 --> 00:10:24,043 常に本当のことしか 答えないので 223 00:10:24,067 --> 00:10:26,560 修正を加え より良いものに 作り替えられます 224 00:10:26,584 --> 00:10:28,959 私は これを アルゴリズム監査と呼んでいます 225 00:10:28,983 --> 00:10:30,662 その手順を説明しましょう 226 00:10:30,686 --> 00:10:33,072 まずはデータ完全性チェックです 227 00:10:34,132 --> 00:10:36,789 先ほど登場した 再犯リスク・アルゴリズムの場合— 228 00:10:37,582 --> 00:10:41,155 データ完全性チェックとは 事実を直視するという意味になるでしょう 229 00:10:41,179 --> 00:10:44,705 例えばアメリカでは 大麻の使用率は 白人と黒人で同じなのに 230 00:10:44,729 --> 00:10:47,214 逮捕される割合は 黒人の方がはるかに高く 231 00:10:47,238 --> 00:10:50,422 地域によっては 4〜5倍になるという事実があります 232 00:10:51,317 --> 00:10:54,107 このようなバイアスは 他の犯罪では どんな形で表れ 233 00:10:54,107 --> 00:10:56,118 私たちは それを どう説明したらいいでしょうか? 234 00:10:56,122 --> 00:10:59,201 次に 私たちは成功の基準について 考えなければなりません 235 00:10:59,225 --> 00:11:00,606 その基準を監査するのです 236 00:11:00,630 --> 00:11:03,206 採用アルゴリズムを 思い出してください 237 00:11:03,206 --> 00:11:06,515 勤続年数が4年で 昇進1回の人はどうだったでしょう 238 00:11:06,515 --> 00:11:08,364 その人は成功した社員でしょうが 239 00:11:08,388 --> 00:11:11,647 同時に その会社の文化に 支持されたとも言えます 240 00:11:12,019 --> 00:11:14,015 ただ その文化に バイアスがあるかもしれないので 241 00:11:14,039 --> 00:11:16,104 この2つは分けて考える必要があります 242 00:11:16,128 --> 00:11:18,554 一つの例として オーケストラの ブラインド・オーディションを見るべきでしょう 243 00:11:18,578 --> 00:11:19,774 一つの例として オーケストラの ブラインド・オーディションを見るべきでしょう 244 00:11:19,798 --> 00:11:22,864 オーディションを受ける人は 衝立の向こうにいます 245 00:11:22,946 --> 00:11:24,877 ここで注目したいのは 246 00:11:24,901 --> 00:11:28,262 審査員は 何が重要で 何が重要でないかを 247 00:11:28,262 --> 00:11:30,225 あらかじめ決めて 248 00:11:30,225 --> 00:11:32,934 重要でないものに 惑わされないようにしている点です 249 00:11:32,941 --> 00:11:35,710 ブラインド・オーディションを するようになって 250 00:11:35,734 --> 00:11:39,498 女性がオーケストラに占める割合は 5倍に増えました 251 00:11:40,253 --> 00:11:42,658 次に正確性を吟味しなければなりません 252 00:11:43,233 --> 00:11:47,287 教員向けの付加価値モデルなら すぐ落第になる項目です 253 00:11:47,578 --> 00:11:50,400 当然 完璧なアルゴリズムなどないので 254 00:11:50,620 --> 00:11:54,525 あらゆるアルゴリズムの 誤りを検討する必要があります 255 00:11:54,836 --> 00:11:59,765 誤りを起こす頻度は? どんな相手だと そのモデルは機能しないのか? 256 00:11:59,850 --> 00:12:02,318 失敗した時の損失規模は? 257 00:12:02,434 --> 00:12:04,891 そして最後に考えなければならないのは 258 00:12:05,973 --> 00:12:08,869 アルゴリズムの長期的影響 つまり 259 00:12:08,869 --> 00:12:11,346 それによって生じる フィードバック・ループです 260 00:12:11,346 --> 00:12:13,492 抽象的な話に 聞こえるかもしれませんが 261 00:12:13,492 --> 00:12:16,080 もしFacebookのエンジニアが 友人の投稿だけを表示する前に 262 00:12:16,080 --> 00:12:21,345 フィードバック・ループの影響を 考慮していたらと考えてみてください 263 00:12:21,761 --> 00:12:25,305 伝えたいことは あと2つ 1つはデータサイエンティストに向けたものです 264 00:12:25,450 --> 00:12:29,179 私たちデータサイエンティストが 真実を決めるべきではありません 265 00:12:29,520 --> 00:12:33,057 私たちは もっと広い社会に生じる 倫理的な議論を 266 00:12:33,057 --> 00:12:35,111 解釈する存在であるべきです 267 00:12:35,579 --> 00:12:37,712 (拍手) 268 00:12:37,736 --> 00:12:40,022 そしてデータサイエンティスト以外の 皆さん— 269 00:12:40,022 --> 00:12:41,407 そしてデータサイエンティスト以外の 皆さん— 270 00:12:41,431 --> 00:12:43,619 この状況は数学のテストではなく 271 00:12:43,632 --> 00:12:45,760 政治闘争なのです 272 00:12:46,587 --> 00:12:50,934 専制君主のようなアルゴリズムに対して 私たちは説明を求める必要があります 273 00:12:52,118 --> 00:12:53,617 (拍手) 274 00:12:53,641 --> 00:12:57,866 ビッグデータを盲信する時代は 終わらせるべきです 275 00:12:57,890 --> 00:12:59,057 ありがとうございました 276 00:12:59,081 --> 00:13:04,384 (拍手)