WEBVTT 00:00:00.975 --> 00:00:02.861 アルゴリズムは どこにでもあります 00:00:04.111 --> 00:00:07.466 アルゴリズムが勝者と敗者を分けます 00:00:08.019 --> 00:00:10.167 勝者は仕事を手に入れ 00:00:10.167 --> 00:00:12.080 有利なクレジットカードを 申し込めます 00:00:12.080 --> 00:00:15.105 一方 敗者は就職面接すら受けられず 00:00:15.590 --> 00:00:17.737 保険料は より高くなります 00:00:18.197 --> 00:00:21.946 私たちは 理解できない上に 不服申し立ての機会もない— 00:00:22.675 --> 00:00:26.002 秘密の数式によって 格付けされているのです 00:00:27.180 --> 00:00:28.536 そこで疑問が湧いてきます 00:00:28.560 --> 00:00:31.473 もしアルゴリズムが間違っていたら? NOTE Paragraph 00:00:32.990 --> 00:00:34.724 アルゴリズムを作る時 必要なものが2つあります 00:00:34.724 --> 00:00:37.069 データ つまり過去の出来事の記録と 00:00:37.069 --> 00:00:38.760 人が追い求める「成功」を 定義する基準です 00:00:38.760 --> 00:00:41.165 人が追い求める「成功」を 定義する基準です 00:00:41.165 --> 00:00:46.056 そして観察と理解を通して アルゴリズムを訓練します 00:00:46.056 --> 00:00:49.589 アルゴリズムに 成功と関係する要素を 理解させるためです 00:00:49.589 --> 00:00:52.552 どんな状況が 成功に繋がるのでしょう? NOTE Paragraph 00:00:52.801 --> 00:00:54.643 実は アルゴリズムは 誰でも使っています 00:00:54.667 --> 00:00:57.229 プログラムに書かないだけです 00:00:57.229 --> 00:00:58.571 1つ例を挙げましょう 00:00:58.571 --> 00:01:02.021 私は毎日アルゴリズムを使って 家族の食事を用意します 00:01:02.021 --> 00:01:04.274 私が利用するデータは 00:01:04.274 --> 00:01:06.053 台所にどんな材料があるか 00:01:06.053 --> 00:01:07.598 どれだけ時間をかけられるか 00:01:07.598 --> 00:01:08.911 どれだけ料理に凝るかで 00:01:08.911 --> 00:01:10.614 私はそのデータをまとめます 00:01:10.618 --> 00:01:14.869 ちなみにインスタントラーメンは 食べ物とは認めません NOTE Paragraph 00:01:14.883 --> 00:01:16.762 (笑) NOTE Paragraph 00:01:16.786 --> 00:01:18.631 私にとって成功の基準は 00:01:18.655 --> 00:01:21.554 子供たちが野菜を食べることです 00:01:22.101 --> 00:01:24.689 もし下の息子が決めるなら 基準はガラッと変わり 00:01:24.689 --> 00:01:28.047 「いっぱいチョコナッツクリームを 食べられれば成功」と言うでしょう 00:01:29.179 --> 00:01:31.405 でも基準を決めるのは私です 00:01:31.429 --> 00:01:34.136 責任者は私で 私の意見が重要なんですから 00:01:34.160 --> 00:01:36.835 これがアルゴリズムの第1のルールです NOTE Paragraph 00:01:36.859 --> 00:01:40.299 アルゴリズムとはプログラムに 埋め込まれた意見なのです 00:01:41.482 --> 00:01:45.225 これは ほとんどの人が持つ アルゴリズムのイメージとはかけ離れています 00:01:45.249 --> 00:01:50.167 人々はアルゴリズムが客観的で正しく 科学的なものと思っていますが 00:01:50.167 --> 00:01:52.606 それはマーケティング上のトリックです 00:01:53.269 --> 00:01:55.394 アルゴリズムで人を怯ませるのも 00:01:55.418 --> 00:01:58.486 マーケティングのトリックですし 00:01:58.486 --> 00:02:02.221 アルゴリズムを信用させたり 恐れさせたりするのもそう 00:02:02.221 --> 00:02:05.029 皆 数学を恐れつつ信用していますから 00:02:05.567 --> 00:02:10.727 ビッグデータを盲信すると いろいろな問題が生じかねません NOTE Paragraph 00:02:11.604 --> 00:02:15.057 彼女はキリ・ソアーズ ブルックリンの高校で校長をしています 00:02:15.081 --> 00:02:17.667 2011年に彼女が教えてくれたのですが 彼女の学校では 00:02:17.691 --> 00:02:20.418 「付加価値モデル」という 複雑な秘密のアルゴリズムで 00:02:20.422 --> 00:02:22.501 教員が評価されている ということでした 00:02:22.505 --> 00:02:25.111 私は こう伝えました 「数式を調べてみましょう 00:02:25.111 --> 00:02:27.156 見せてくれれば説明しますよ」 00:02:27.156 --> 00:02:29.261 すると彼女は 「数式を入手しようとしたら 00:02:29.261 --> 00:02:32.173 市教育局の担当者に『これは数学ですよ 理解できないでしょう』と 00:02:32.173 --> 00:02:33.763 言われたんです」 NOTE Paragraph 00:02:35.266 --> 00:02:36.604 事態はさらに深刻化します 00:02:36.628 --> 00:02:40.158 ニューヨーク・ポスト紙が 情報自由法に基づく開示請求をして 00:02:40.182 --> 00:02:43.141 ニューヨーク市の全教員の 名前とスコアを手に入れ 00:02:43.165 --> 00:02:46.507 教員を辱めるような データを公表しました 00:02:47.084 --> 00:02:50.908 一方 私がソース・コードを 同じ方法で手に入れようとしたところ 00:02:50.908 --> 00:02:53.117 無理だと言われました 00:02:53.141 --> 00:02:54.377 却下されたのです 00:02:54.401 --> 00:02:55.575 後にわかったことですが 00:02:55.599 --> 00:02:58.439 ニューヨーク市で その数式を 見られる人は誰もおらず 00:02:58.439 --> 00:03:00.484 誰も理解していなかったのです 00:03:01.869 --> 00:03:05.097 その後 ゲイリー・ルービンスタインという 頭のキレる人物が登場します 00:03:05.097 --> 00:03:07.132 彼はニューヨーク・ポスト紙のデータから 00:03:07.132 --> 00:03:10.632 2種類のスコアを持っている 教員665名を見つけ出しました 00:03:10.632 --> 00:03:12.593 それに該当するのは 例えば 00:03:12.617 --> 00:03:15.020 数学を7年生と8年生で 教えている場合です 00:03:15.020 --> 00:03:16.728 彼は2種類のスコアを散布図にしました 00:03:16.728 --> 00:03:18.975 点はそれぞれ 先生を表します NOTE Paragraph 00:03:19.064 --> 00:03:21.483 (笑) NOTE Paragraph 00:03:21.507 --> 00:03:23.318 これは どういうことでしょう? NOTE Paragraph 00:03:23.318 --> 00:03:24.329 (笑) NOTE Paragraph 00:03:24.353 --> 00:03:27.743 こんなものを教員の個人評価に 使ってはいけません 00:03:27.743 --> 00:03:29.919 まるで乱数発生器じゃないですか NOTE Paragraph 00:03:29.919 --> 00:03:32.493 (拍手) NOTE Paragraph 00:03:32.493 --> 00:03:33.869 でも実際に使われたんです 00:03:33.869 --> 00:03:35.009 彼女はサラ・ワイサキ 00:03:35.009 --> 00:03:38.224 他の205人のワシントンD.C.学区の 先生たちと共に 00:03:38.224 --> 00:03:39.884 解雇されました 00:03:39.884 --> 00:03:42.907 校長や保護者からの評価は 非常に高かったのにです 00:03:42.907 --> 00:03:44.565 校長や保護者からの評価は 非常に高かったのにです NOTE Paragraph 00:03:45.390 --> 00:03:47.366 皆さんが今 考えていることは わかります 00:03:47.366 --> 00:03:50.013 特にデータサイエンティストや AIの専門家なら思うでしょう 00:03:50.013 --> 00:03:54.333 「自分なら そんなデタラメな アルゴリズムは作らない」って 00:03:54.783 --> 00:03:56.596 でもアルゴリズムは誤ることもあれば 00:03:56.596 --> 00:04:01.558 善意に基づいていても 破壊的な影響を及ぼすことだってあります 00:04:02.531 --> 00:04:04.874 飛行機なら 設計がまずければ 00:04:04.874 --> 00:04:06.935 墜落しますし その様子が見えますが 00:04:06.959 --> 00:04:09.329 アルゴリズムだと設計がまずくても 00:04:10.175 --> 00:04:14.820 長期間に渡って 音もなく 大惨事をもたらし続けかねないんです NOTE Paragraph 00:04:15.748 --> 00:04:17.578 彼はロジャー・エイルズ NOTE Paragraph 00:04:17.578 --> 00:04:19.342 (笑) NOTE Paragraph 00:04:20.524 --> 00:04:23.142 1996年にFOXニュースを創設しました 00:04:23.436 --> 00:04:26.017 20人以上の女性が セクハラ被害を訴えました 00:04:26.041 --> 00:04:29.240 またキャリアアップを 妨害されたそうです 00:04:29.240 --> 00:04:31.820 彼自身は2016年に地位を追われましたが 00:04:31.844 --> 00:04:34.954 最近のニュースにある通り 問題は依然残っています 00:04:35.654 --> 00:04:37.054 ここで疑問が湧いてきます 00:04:37.078 --> 00:04:40.222 再起をはかるために FOXニュースは何をすべきか? NOTE Paragraph 00:04:41.245 --> 00:04:44.286 人材採用プロセスを 機械学習アルゴリズムに 00:04:44.310 --> 00:04:45.964 替えるのはどうでしょう? 00:04:45.988 --> 00:04:47.583 いいアイデアでしょう? 00:04:47.607 --> 00:04:48.907 検討してみましょう 00:04:48.931 --> 00:04:51.036 まずデータには 何が使えるでしょう? 00:04:51.060 --> 00:04:56.007 過去21年間に FOXニュースに送られた 履歴書がいいでしょう 00:04:56.031 --> 00:04:57.533 妥当なデータです 00:04:57.557 --> 00:04:59.495 では成功の基準は? 00:04:59.921 --> 00:05:01.245 妥当な基準は… 00:05:01.269 --> 00:05:03.047 どんな人がFOXニュースで 成功するんでしょう? 00:05:03.071 --> 00:05:06.651 例えば 4年在職して 最低1回は昇進していれば 00:05:06.675 --> 00:05:08.649 成功と言えそうです 00:05:08.816 --> 00:05:10.377 妥当な基準です 00:05:10.401 --> 00:05:12.755 それをアルゴリズムに学習させます 00:05:12.779 --> 00:05:16.976 人々を探って 何が成功につながるか— 00:05:17.219 --> 00:05:20.721 これまで どんな履歴書が 成功に繋がってきたのかを 00:05:20.721 --> 00:05:23.605 この基準に従って学習させるのです 00:05:24.200 --> 00:05:25.829 さて このアルゴリズムを 00:05:25.829 --> 00:05:28.714 現在の就職希望者に 当てはめると どうなるでしょう? 00:05:29.119 --> 00:05:31.318 まず女性は除外されるでしょう 00:05:31.663 --> 00:05:35.593 過去に成功してきたようには 見えないからです NOTE Paragraph 00:05:39.642 --> 00:05:42.289 配慮もなく やみくもに アルゴリズムを適用しても 00:05:42.313 --> 00:05:44.981 物事は公平にはならないんです 00:05:44.981 --> 00:05:46.513 アルゴリズムは公平を生みません 00:05:46.537 --> 00:05:48.665 過去の行為や行動パターンを 00:05:48.689 --> 00:05:49.872 繰り返し 00:05:49.896 --> 00:05:52.215 自動的に現状を維持するだけです 00:05:52.718 --> 00:05:55.317 この世界が完璧なら それでいいんでしょうが 00:05:55.905 --> 00:05:57.217 そうではありません 00:05:57.241 --> 00:06:01.913 さらに付け加えると ほとんどの企業は みっともない裁判を抱えている訳ではありませんが 00:06:02.446 --> 00:06:04.928 こういった企業にいる データサイエンティストは 00:06:04.928 --> 00:06:06.851 正確性に焦点を当て 00:06:06.851 --> 00:06:09.684 データに従うよう指示されています 00:06:10.273 --> 00:06:11.654 その意味を考えてみましょう 00:06:11.678 --> 00:06:13.529 誰でもバイアスを持っているので 00:06:13.529 --> 00:06:18.355 アルゴリズムに性差別や その他の偏見が コード化されている可能性があります NOTE Paragraph 00:06:19.488 --> 00:06:20.909 思考実験をしてみましょう 00:06:20.933 --> 00:06:22.682 私は思考実験が好きなので 00:06:23.574 --> 00:06:27.049 人種を完全に隔離した 社会があるとします 00:06:28.247 --> 00:06:31.575 どの街でも どの地域でも 人種は隔離され 00:06:31.599 --> 00:06:33.980 犯罪を見つけるために 警察を送り込むのは 00:06:33.980 --> 00:06:36.373 マイノリティーが住む地域だけです 00:06:36.391 --> 00:06:39.450 すると逮捕者のデータは かなり偏ったものになるでしょう 00:06:39.851 --> 00:06:42.426 さらに データサイエンティストを 探してきて 00:06:42.450 --> 00:06:46.911 報酬を払い 次の犯罪が起こる場所を 予測させたらどうなるでしょう? 00:06:47.195 --> 00:06:48.992 マイノリティーの地域になります 00:06:49.285 --> 00:06:52.820 あるいは 次に犯罪を犯しそうな人を 予測させたら? 00:06:52.888 --> 00:06:54.623 マイノリティーでしょうね 00:06:55.949 --> 00:06:59.394 データサイエンティストは モデルの素晴らしさと正確さを 00:06:59.394 --> 00:07:00.811 自慢するでしょうし 00:07:00.835 --> 00:07:02.564 確かにその通りでしょう NOTE Paragraph 00:07:03.951 --> 00:07:07.610 さて 現実はそこまで極端ではありませんが 00:07:07.610 --> 00:07:09.877 実際に多くの市や町で 深刻な人種差別があり 00:07:09.901 --> 00:07:12.814 警察の活動や司法制度のデータが 偏っているという 00:07:12.814 --> 00:07:14.806 証拠が揃っています 00:07:15.632 --> 00:07:18.447 実際にホットスポットと呼ばれる 犯罪多発地域を 00:07:18.471 --> 00:07:20.331 予測しています 00:07:20.401 --> 00:07:23.791 さらには個々人の犯罪傾向を 00:07:23.791 --> 00:07:26.221 実際に予測しています 00:07:26.972 --> 00:07:30.935 報道組織プロパブリカが最近 いわゆる「再犯リスク」アルゴリズムの 00:07:30.959 --> 00:07:32.957 1つを取り上げ調査しました 00:07:32.957 --> 00:07:34.070 1つを取り上げ調査しました 00:07:34.070 --> 00:07:37.968 フロリダ州で 判事による 量刑手続に使われているものです 00:07:38.411 --> 00:07:42.286 左側の黒人男性バーナードのスコアは 10点満点の10点で 00:07:43.179 --> 00:07:45.186 右の白人ディランは3点でした 00:07:45.210 --> 00:07:48.221 10点中10点はハイリスクで 3点はローリスクです 00:07:48.598 --> 00:07:50.887 2人とも麻薬所持で逮捕され 00:07:50.887 --> 00:07:52.311 どちらも前科はありましたが 00:07:52.311 --> 00:07:54.695 3点のディランには重罪の前科があり 00:07:54.695 --> 00:07:57.201 10点のバーナードにはありませんでした 00:07:57.818 --> 00:08:00.884 これが重要な理由は スコアが高ければ高いほど 00:08:00.908 --> 00:08:04.381 刑期が長くなる 傾向があるからです NOTE Paragraph 00:08:06.234 --> 00:08:07.888 どうなっているのでしょう? 00:08:08.526 --> 00:08:10.478 これは「データ・ロンダリング」です 00:08:10.930 --> 00:08:15.357 このプロセスを通して 技術者が ブラックボックスのようなアルゴリズムの内部に 00:08:15.381 --> 00:08:17.202 醜い現実を隠し 00:08:17.226 --> 00:08:19.210 「客観的」とか 00:08:19.210 --> 00:08:21.538 「能力主義」と称しているんです 00:08:23.118 --> 00:08:25.803 秘密にされている 重要で破壊的なアルゴリズムを 00:08:25.803 --> 00:08:28.014 私はこんな名前で呼んでいます 00:08:28.038 --> 00:08:30.037 「大量破壊数学」です NOTE Paragraph 00:08:30.061 --> 00:08:31.625 (笑) NOTE Paragraph 00:08:31.649 --> 00:08:34.703 (拍手) NOTE Paragraph 00:08:34.727 --> 00:08:37.655 それは間違いなく どこにでも存在します 00:08:37.655 --> 00:08:41.418 民間企業が 私的なアルゴリズムを 私的な目的で 00:08:41.442 --> 00:08:43.014 作っているんです 00:08:43.214 --> 00:08:46.352 先程お話しした 教員や警察向けのアルゴリズムでさえ 00:08:46.352 --> 00:08:48.205 民間企業が制作し 00:08:48.205 --> 00:08:50.576 政府機関に販売したものです 00:08:50.600 --> 00:08:52.473 アルゴリズムは 「秘伝のタレ」だから 00:08:52.497 --> 00:08:54.625 公開できないと 企業側は主張します 00:08:54.649 --> 00:08:57.439 また アルゴリズムは私的な権力です 00:08:57.924 --> 00:09:03.119 この謎めいた存在が持つ権威を振りかざして 企業は利益を得ています 00:09:05.044 --> 00:09:08.048 ただ こう思うかもしれません アルゴリズムが民間のものなら 00:09:08.072 --> 00:09:09.230 競争があるので 00:09:09.254 --> 00:09:11.560 自由市場の力が 問題を解決するのではないか… 00:09:11.584 --> 00:09:12.833 でも そうはいきません 00:09:12.857 --> 00:09:15.977 不公平は大きな利益を 生み出しますから NOTE Paragraph 00:09:17.127 --> 00:09:21.026 それに我々人間は 合理的経済人ではなく 00:09:21.031 --> 00:09:22.613 誰もがバイアスを持っています 00:09:22.960 --> 00:09:26.191 私たちは 自分が望みも 気づきもしない形で 00:09:26.191 --> 00:09:28.890 差別や偏見を持っているのです 00:09:29.352 --> 00:09:32.433 全体を俯瞰して見ると そのことがわかります 00:09:32.457 --> 00:09:35.231 なぜなら社会学者が 考案した実験を通して 00:09:35.231 --> 00:09:37.366 一貫して実証されてきたからです 00:09:37.390 --> 00:09:39.958 その実験では研究者が 履歴書を大量に送付しました 00:09:39.982 --> 00:09:42.327 同じように資格は満たしていますが 一部は白人っぽい名前で 00:09:42.327 --> 00:09:43.957 一部は黒人っぽい名前 00:09:43.957 --> 00:09:47.131 そして結果は 常にがっかりするものでした NOTE Paragraph 00:09:47.510 --> 00:09:49.281 つまりバイアスがあるのは私たちで 00:09:49.305 --> 00:09:51.498 どんなデータを集め選ぶかによって 00:09:51.498 --> 00:09:54.570 そのバイアスをアルゴリズムに 注入しているんです 00:09:54.594 --> 00:09:57.311 これは私がインスタントラーメンを 含めないのと同じで 00:09:57.311 --> 00:09:59.106 不適切だと決めたのは 私なんです 00:09:59.106 --> 00:10:04.528 しかし実際に過去の行動を元にした データを信頼し 00:10:04.528 --> 00:10:06.732 成功の基準を恣意的に選びながら 00:10:06.756 --> 00:10:10.739 どうして欠陥のないアルゴリズムを 期待できるのでしょう? 00:10:10.763 --> 00:10:13.469 それは無理です チェックが必要なんです 00:10:14.045 --> 00:10:15.874 公平性を確かめる必要があるんです NOTE Paragraph 00:10:15.898 --> 00:10:18.403 幸い公正性は確認できます 00:10:18.403 --> 00:10:21.779 アルゴリズムに問いただせば 00:10:21.779 --> 00:10:24.043 常に本当のことしか 答えないので 00:10:24.067 --> 00:10:26.560 修正を加え より良いものに 作り替えられます 00:10:26.584 --> 00:10:28.959 私は これを アルゴリズム監査と呼んでいます 00:10:28.983 --> 00:10:30.662 その手順を説明しましょう NOTE Paragraph 00:10:30.686 --> 00:10:33.072 まずはデータ完全性チェックです 00:10:34.132 --> 00:10:36.789 先ほど登場した 再犯リスク・アルゴリズムの場合— 00:10:37.582 --> 00:10:41.155 データ完全性チェックとは 事実を直視するという意味になるでしょう 00:10:41.179 --> 00:10:44.705 例えばアメリカでは 大麻の使用率は 白人と黒人で同じなのに 00:10:44.729 --> 00:10:47.214 逮捕される割合は 黒人の方がはるかに高く 00:10:47.238 --> 00:10:50.422 地域によっては 4〜5倍になるという事実があります 00:10:51.317 --> 00:10:54.107 このようなバイアスは 他の犯罪では どんな形で表れ 00:10:54.107 --> 00:10:56.118 私たちは それを どう説明したらいいでしょうか? NOTE Paragraph 00:10:56.122 --> 00:10:59.201 次に 私たちは成功の基準について 考えなければなりません 00:10:59.225 --> 00:11:00.606 その基準を監査するのです 00:11:00.630 --> 00:11:03.206 採用アルゴリズムを 思い出してください 00:11:03.206 --> 00:11:06.515 勤続年数が4年で 昇進1回の人はどうだったでしょう 00:11:06.515 --> 00:11:08.364 その人は成功した社員でしょうが 00:11:08.388 --> 00:11:11.647 同時に その会社の文化に 支持されたとも言えます 00:11:12.019 --> 00:11:14.015 ただ その文化に バイアスがあるかもしれないので 00:11:14.039 --> 00:11:16.104 この2つは分けて考える必要があります 00:11:16.128 --> 00:11:18.554 一つの例として オーケストラの ブラインド・オーディションを見るべきでしょう 00:11:18.578 --> 00:11:19.774 一つの例として オーケストラの ブラインド・オーディションを見るべきでしょう 00:11:19.798 --> 00:11:22.864 オーディションを受ける人は 衝立の向こうにいます 00:11:22.946 --> 00:11:24.877 ここで注目したいのは 00:11:24.901 --> 00:11:28.262 審査員は 何が重要で 何が重要でないかを 00:11:28.262 --> 00:11:30.225 あらかじめ決めて 00:11:30.225 --> 00:11:32.934 重要でないものに 惑わされないようにしている点です 00:11:32.941 --> 00:11:35.710 ブラインド・オーディションを するようになって 00:11:35.734 --> 00:11:39.498 女性がオーケストラに占める割合は 5倍に増えました NOTE Paragraph 00:11:40.253 --> 00:11:42.658 次に正確性を吟味しなければなりません 00:11:43.233 --> 00:11:47.287 教員向けの付加価値モデルなら すぐ落第になる項目です 00:11:47.578 --> 00:11:50.400 当然 完璧なアルゴリズムなどないので 00:11:50.620 --> 00:11:54.525 あらゆるアルゴリズムの 誤りを検討する必要があります 00:11:54.836 --> 00:11:59.765 誤りを起こす頻度は? どんな相手だと そのモデルは機能しないのか? 00:11:59.850 --> 00:12:02.318 失敗した時の損失規模は? NOTE Paragraph 00:12:02.434 --> 00:12:04.891 そして最後に考えなければならないのは 00:12:05.973 --> 00:12:08.869 アルゴリズムの長期的影響 つまり 00:12:08.869 --> 00:12:11.346 それによって生じる フィードバック・ループです 00:12:11.346 --> 00:12:13.492 抽象的な話に 聞こえるかもしれませんが 00:12:13.492 --> 00:12:16.080 もしFacebookのエンジニアが 友人の投稿だけを表示する前に 00:12:16.080 --> 00:12:21.345 フィードバック・ループの影響を 考慮していたらと考えてみてください NOTE Paragraph 00:12:21.761 --> 00:12:25.305 伝えたいことは あと2つ 1つはデータサイエンティストに向けたものです 00:12:25.450 --> 00:12:29.179 私たちデータサイエンティストが 真実を決めるべきではありません 00:12:29.520 --> 00:12:33.057 私たちは もっと広い社会に生じる 倫理的な議論を 00:12:33.057 --> 00:12:35.111 解釈する存在であるべきです NOTE Paragraph 00:12:35.579 --> 00:12:37.712 (拍手) NOTE Paragraph 00:12:37.736 --> 00:12:40.022 そしてデータサイエンティスト以外の 皆さん— 00:12:40.022 --> 00:12:41.407 そしてデータサイエンティスト以外の 皆さん— 00:12:41.431 --> 00:12:43.619 この状況は数学のテストではなく 00:12:43.632 --> 00:12:45.760 政治闘争なのです 00:12:46.587 --> 00:12:50.934 専制君主のようなアルゴリズムに対して 私たちは説明を求める必要があります NOTE Paragraph 00:12:52.118 --> 00:12:53.617 (拍手) NOTE Paragraph 00:12:53.641 --> 00:12:57.866 ビッグデータを盲信する時代は 終わらせるべきです NOTE Paragraph 00:12:57.890 --> 00:12:59.057 ありがとうございました NOTE Paragraph 00:12:59.081 --> 00:13:04.384 (拍手)