ビッグデータを盲信する時代に終止符を
-
0:01 - 0:03アルゴリズムは どこにでもあります
-
0:04 - 0:07アルゴリズムが勝者と敗者を分けます
-
0:08 - 0:10勝者は仕事を手に入れ
-
0:10 - 0:12有利なクレジットカードを
申し込めます -
0:12 - 0:15一方 敗者は就職面接すら受けられず
-
0:16 - 0:18保険料は より高くなります
-
0:18 - 0:22私たちは 理解できない上に
不服申し立ての機会もない— -
0:23 - 0:26秘密の数式によって
格付けされているのです -
0:27 - 0:29そこで疑問が湧いてきます
-
0:29 - 0:31もしアルゴリズムが間違っていたら?
-
0:33 - 0:35アルゴリズムを作る時
必要なものが2つあります -
0:35 - 0:37データ つまり過去の出来事の記録と
-
0:37 - 0:39人が追い求める「成功」を
定義する基準です -
0:39 - 0:41人が追い求める「成功」を
定義する基準です -
0:41 - 0:46そして観察と理解を通して
アルゴリズムを訓練します -
0:46 - 0:50アルゴリズムに 成功と関係する要素を
理解させるためです -
0:50 - 0:53どんな状況が 成功に繋がるのでしょう?
-
0:53 - 0:55実は アルゴリズムは
誰でも使っています -
0:55 - 0:57プログラムに書かないだけです
-
0:57 - 0:591つ例を挙げましょう
-
0:59 - 1:02私は毎日アルゴリズムを使って
家族の食事を用意します -
1:02 - 1:04私が利用するデータは
-
1:04 - 1:06台所にどんな材料があるか
-
1:06 - 1:08どれだけ時間をかけられるか
-
1:08 - 1:09どれだけ料理に凝るかで
-
1:09 - 1:11私はそのデータをまとめます
-
1:11 - 1:15ちなみにインスタントラーメンは
食べ物とは認めません -
1:15 - 1:17(笑)
-
1:17 - 1:19私にとって成功の基準は
-
1:19 - 1:22子供たちが野菜を食べることです
-
1:22 - 1:25もし下の息子が決めるなら
基準はガラッと変わり -
1:25 - 1:28「いっぱいチョコナッツクリームを
食べられれば成功」と言うでしょう -
1:29 - 1:31でも基準を決めるのは私です
-
1:31 - 1:34責任者は私で
私の意見が重要なんですから -
1:34 - 1:37これがアルゴリズムの第1のルールです
-
1:37 - 1:40アルゴリズムとはプログラムに
埋め込まれた意見なのです -
1:41 - 1:45これは ほとんどの人が持つ
アルゴリズムのイメージとはかけ離れています -
1:45 - 1:50人々はアルゴリズムが客観的で正しく
科学的なものと思っていますが -
1:50 - 1:53それはマーケティング上のトリックです
-
1:53 - 1:55アルゴリズムで人を怯ませるのも
-
1:55 - 1:58マーケティングのトリックですし
-
1:58 - 2:02アルゴリズムを信用させたり
恐れさせたりするのもそう -
2:02 - 2:05皆 数学を恐れつつ信用していますから
-
2:06 - 2:11ビッグデータを盲信すると
いろいろな問題が生じかねません -
2:12 - 2:15彼女はキリ・ソアーズ
ブルックリンの高校で校長をしています -
2:15 - 2:182011年に彼女が教えてくれたのですが
彼女の学校では -
2:18 - 2:20「付加価値モデル」という
複雑な秘密のアルゴリズムで -
2:20 - 2:23教員が評価されている
ということでした -
2:23 - 2:25私は こう伝えました
「数式を調べてみましょう -
2:25 - 2:27見せてくれれば説明しますよ」
-
2:27 - 2:29すると彼女は
「数式を入手しようとしたら -
2:29 - 2:32市教育局の担当者に『これは数学ですよ
理解できないでしょう』と -
2:32 - 2:34言われたんです」
-
2:35 - 2:37事態はさらに深刻化します
-
2:37 - 2:40ニューヨーク・ポスト紙が
情報自由法に基づく開示請求をして -
2:40 - 2:43ニューヨーク市の全教員の
名前とスコアを手に入れ -
2:43 - 2:47教員を辱めるような
データを公表しました -
2:47 - 2:51一方 私がソース・コードを
同じ方法で手に入れようとしたところ -
2:51 - 2:53無理だと言われました
-
2:53 - 2:54却下されたのです
-
2:54 - 2:56後にわかったことですが
-
2:56 - 2:58ニューヨーク市で その数式を
見られる人は誰もおらず -
2:58 - 3:00誰も理解していなかったのです
-
3:02 - 3:05その後 ゲイリー・ルービンスタインという
頭のキレる人物が登場します -
3:05 - 3:07彼はニューヨーク・ポスト紙のデータから
-
3:07 - 3:112種類のスコアを持っている
教員665名を見つけ出しました -
3:11 - 3:13それに該当するのは 例えば
-
3:13 - 3:15数学を7年生と8年生で
教えている場合です -
3:15 - 3:17彼は2種類のスコアを散布図にしました
-
3:17 - 3:19点はそれぞれ 先生を表します
-
3:19 - 3:21(笑)
-
3:22 - 3:23これは どういうことでしょう?
-
3:23 - 3:24(笑)
-
3:24 - 3:28こんなものを教員の個人評価に
使ってはいけません -
3:28 - 3:30まるで乱数発生器じゃないですか
-
3:30 - 3:32(拍手)
-
3:32 - 3:34でも実際に使われたんです
-
3:34 - 3:35彼女はサラ・ワイサキ
-
3:35 - 3:38他の205人のワシントンD.C.学区の
先生たちと共に -
3:38 - 3:40解雇されました
-
3:40 - 3:43校長や保護者からの評価は
非常に高かったのにです -
3:43 - 3:45校長や保護者からの評価は
非常に高かったのにです -
3:45 - 3:47皆さんが今 考えていることは
わかります -
3:47 - 3:50特にデータサイエンティストや
AIの専門家なら思うでしょう -
3:50 - 3:54「自分なら そんなデタラメな
アルゴリズムは作らない」って -
3:55 - 3:57でもアルゴリズムは誤ることもあれば
-
3:57 - 4:02善意に基づいていても
破壊的な影響を及ぼすことだってあります -
4:03 - 4:05飛行機なら 設計がまずければ
-
4:05 - 4:07墜落しますし
その様子が見えますが -
4:07 - 4:09アルゴリズムだと設計がまずくても
-
4:10 - 4:15長期間に渡って 音もなく
大惨事をもたらし続けかねないんです -
4:16 - 4:18彼はロジャー・エイルズ
-
4:18 - 4:19(笑)
-
4:21 - 4:231996年にFOXニュースを創設しました
-
4:23 - 4:2620人以上の女性が
セクハラ被害を訴えました -
4:26 - 4:29またキャリアアップを
妨害されたそうです -
4:29 - 4:32彼自身は2016年に地位を追われましたが
-
4:32 - 4:35最近のニュースにある通り
問題は依然残っています -
4:36 - 4:37ここで疑問が湧いてきます
-
4:37 - 4:40再起をはかるために
FOXニュースは何をすべきか? -
4:41 - 4:44人材採用プロセスを
機械学習アルゴリズムに -
4:44 - 4:46替えるのはどうでしょう?
-
4:46 - 4:48いいアイデアでしょう?
-
4:48 - 4:49検討してみましょう
-
4:49 - 4:51まずデータには
何が使えるでしょう? -
4:51 - 4:56過去21年間に FOXニュースに送られた
履歴書がいいでしょう -
4:56 - 4:58妥当なデータです
-
4:58 - 4:59では成功の基準は?
-
5:00 - 5:01妥当な基準は…
-
5:01 - 5:03どんな人がFOXニュースで
成功するんでしょう? -
5:03 - 5:07例えば 4年在職して
最低1回は昇進していれば -
5:07 - 5:09成功と言えそうです
-
5:09 - 5:10妥当な基準です
-
5:10 - 5:13それをアルゴリズムに学習させます
-
5:13 - 5:17人々を探って
何が成功につながるか— -
5:17 - 5:21これまで どんな履歴書が
成功に繋がってきたのかを -
5:21 - 5:24この基準に従って学習させるのです
-
5:24 - 5:26さて このアルゴリズムを
-
5:26 - 5:29現在の就職希望者に
当てはめると どうなるでしょう? -
5:29 - 5:31まず女性は除外されるでしょう
-
5:32 - 5:36過去に成功してきたようには
見えないからです -
5:40 - 5:42配慮もなく やみくもに
アルゴリズムを適用しても -
5:42 - 5:45物事は公平にはならないんです
-
5:45 - 5:47アルゴリズムは公平を生みません
-
5:47 - 5:49過去の行為や行動パターンを
-
5:49 - 5:50繰り返し
-
5:50 - 5:52自動的に現状を維持するだけです
-
5:53 - 5:55この世界が完璧なら
それでいいんでしょうが -
5:56 - 5:57そうではありません
-
5:57 - 6:02さらに付け加えると ほとんどの企業は
みっともない裁判を抱えている訳ではありませんが -
6:02 - 6:05こういった企業にいる
データサイエンティストは -
6:05 - 6:07正確性に焦点を当て
-
6:07 - 6:10データに従うよう指示されています
-
6:10 - 6:12その意味を考えてみましょう
-
6:12 - 6:14誰でもバイアスを持っているので
-
6:14 - 6:18アルゴリズムに性差別や その他の偏見が
コード化されている可能性があります -
6:19 - 6:21思考実験をしてみましょう
-
6:21 - 6:23私は思考実験が好きなので
-
6:24 - 6:27人種を完全に隔離した
社会があるとします -
6:28 - 6:32どの街でも どの地域でも
人種は隔離され -
6:32 - 6:34犯罪を見つけるために
警察を送り込むのは -
6:34 - 6:36マイノリティーが住む地域だけです
-
6:36 - 6:39すると逮捕者のデータは
かなり偏ったものになるでしょう -
6:40 - 6:42さらに データサイエンティストを
探してきて -
6:42 - 6:47報酬を払い 次の犯罪が起こる場所を
予測させたらどうなるでしょう? -
6:47 - 6:49マイノリティーの地域になります
-
6:49 - 6:53あるいは 次に犯罪を犯しそうな人を
予測させたら? -
6:53 - 6:55マイノリティーでしょうね
-
6:56 - 6:59データサイエンティストは
モデルの素晴らしさと正確さを -
6:59 - 7:01自慢するでしょうし
-
7:01 - 7:03確かにその通りでしょう
-
7:04 - 7:08さて 現実はそこまで極端ではありませんが
-
7:08 - 7:10実際に多くの市や町で
深刻な人種差別があり -
7:10 - 7:13警察の活動や司法制度のデータが
偏っているという -
7:13 - 7:15証拠が揃っています
-
7:16 - 7:18実際にホットスポットと呼ばれる
犯罪多発地域を -
7:18 - 7:20予測しています
-
7:20 - 7:24さらには個々人の犯罪傾向を
-
7:24 - 7:26実際に予測しています
-
7:27 - 7:31報道組織プロパブリカが最近
いわゆる「再犯リスク」アルゴリズムの -
7:31 - 7:331つを取り上げ調査しました
-
7:33 - 7:341つを取り上げ調査しました
-
7:34 - 7:38フロリダ州で 判事による
量刑手続に使われているものです -
7:38 - 7:42左側の黒人男性バーナードのスコアは
10点満点の10点で -
7:43 - 7:45右の白人ディランは3点でした
-
7:45 - 7:4810点中10点はハイリスクで
3点はローリスクです -
7:49 - 7:512人とも麻薬所持で逮捕され
-
7:51 - 7:52どちらも前科はありましたが
-
7:52 - 7:553点のディランには重罪の前科があり
-
7:55 - 7:5710点のバーナードにはありませんでした
-
7:58 - 8:01これが重要な理由は
スコアが高ければ高いほど -
8:01 - 8:04刑期が長くなる
傾向があるからです -
8:06 - 8:08どうなっているのでしょう?
-
8:09 - 8:10これは「データ・ロンダリング」です
-
8:11 - 8:15このプロセスを通して 技術者が
ブラックボックスのようなアルゴリズムの内部に -
8:15 - 8:17醜い現実を隠し
-
8:17 - 8:19「客観的」とか
-
8:19 - 8:22「能力主義」と称しているんです
-
8:23 - 8:26秘密にされている
重要で破壊的なアルゴリズムを -
8:26 - 8:28私はこんな名前で呼んでいます
-
8:28 - 8:30「大量破壊数学」です
-
8:30 - 8:32(笑)
-
8:32 - 8:35(拍手)
-
8:35 - 8:38それは間違いなく
どこにでも存在します -
8:38 - 8:41民間企業が 私的なアルゴリズムを
私的な目的で -
8:41 - 8:43作っているんです
-
8:43 - 8:46先程お話しした
教員や警察向けのアルゴリズムでさえ -
8:46 - 8:48民間企業が制作し
-
8:48 - 8:51政府機関に販売したものです
-
8:51 - 8:52アルゴリズムは
「秘伝のタレ」だから -
8:52 - 8:55公開できないと
企業側は主張します -
8:55 - 8:57また アルゴリズムは私的な権力です
-
8:58 - 9:03この謎めいた存在が持つ権威を振りかざして
企業は利益を得ています -
9:05 - 9:08ただ こう思うかもしれません
アルゴリズムが民間のものなら -
9:08 - 9:09競争があるので
-
9:09 - 9:12自由市場の力が
問題を解決するのではないか… -
9:12 - 9:13でも そうはいきません
-
9:13 - 9:16不公平は大きな利益を
生み出しますから -
9:17 - 9:21それに我々人間は
合理的経済人ではなく -
9:21 - 9:23誰もがバイアスを持っています
-
9:23 - 9:26私たちは 自分が望みも
気づきもしない形で -
9:26 - 9:29差別や偏見を持っているのです
-
9:29 - 9:32全体を俯瞰して見ると
そのことがわかります -
9:32 - 9:35なぜなら社会学者が
考案した実験を通して -
9:35 - 9:37一貫して実証されてきたからです
-
9:37 - 9:40その実験では研究者が
履歴書を大量に送付しました -
9:40 - 9:42同じように資格は満たしていますが
一部は白人っぽい名前で -
9:42 - 9:44一部は黒人っぽい名前
-
9:44 - 9:47そして結果は
常にがっかりするものでした -
9:48 - 9:49つまりバイアスがあるのは私たちで
-
9:49 - 9:51どんなデータを集め選ぶかによって
-
9:51 - 9:55そのバイアスをアルゴリズムに
注入しているんです -
9:55 - 9:57これは私がインスタントラーメンを
含めないのと同じで -
9:57 - 9:59不適切だと決めたのは
私なんです -
9:59 - 10:05しかし実際に過去の行動を元にした
データを信頼し -
10:05 - 10:07成功の基準を恣意的に選びながら
-
10:07 - 10:11どうして欠陥のないアルゴリズムを
期待できるのでしょう? -
10:11 - 10:13それは無理です
チェックが必要なんです -
10:14 - 10:16公平性を確かめる必要があるんです
-
10:16 - 10:18幸い公正性は確認できます
-
10:18 - 10:22アルゴリズムに問いただせば
-
10:22 - 10:24常に本当のことしか
答えないので -
10:24 - 10:27修正を加え より良いものに
作り替えられます -
10:27 - 10:29私は これを
アルゴリズム監査と呼んでいます -
10:29 - 10:31その手順を説明しましょう
-
10:31 - 10:33まずはデータ完全性チェックです
-
10:34 - 10:37先ほど登場した
再犯リスク・アルゴリズムの場合— -
10:38 - 10:41データ完全性チェックとは
事実を直視するという意味になるでしょう -
10:41 - 10:45例えばアメリカでは 大麻の使用率は
白人と黒人で同じなのに -
10:45 - 10:47逮捕される割合は
黒人の方がはるかに高く -
10:47 - 10:50地域によっては
4〜5倍になるという事実があります -
10:51 - 10:54このようなバイアスは
他の犯罪では どんな形で表れ -
10:54 - 10:56私たちは それを
どう説明したらいいでしょうか? -
10:56 - 10:59次に 私たちは成功の基準について
考えなければなりません -
10:59 - 11:01その基準を監査するのです
-
11:01 - 11:03採用アルゴリズムを
思い出してください -
11:03 - 11:07勤続年数が4年で
昇進1回の人はどうだったでしょう -
11:07 - 11:08その人は成功した社員でしょうが
-
11:08 - 11:12同時に その会社の文化に
支持されたとも言えます -
11:12 - 11:14ただ その文化に
バイアスがあるかもしれないので -
11:14 - 11:16この2つは分けて考える必要があります
-
11:16 - 11:19一つの例として オーケストラの
ブラインド・オーディションを見るべきでしょう -
11:19 - 11:20一つの例として オーケストラの
ブラインド・オーディションを見るべきでしょう -
11:20 - 11:23オーディションを受ける人は
衝立の向こうにいます -
11:23 - 11:25ここで注目したいのは
-
11:25 - 11:28審査員は 何が重要で
何が重要でないかを -
11:28 - 11:30あらかじめ決めて
-
11:30 - 11:33重要でないものに
惑わされないようにしている点です -
11:33 - 11:36ブラインド・オーディションを
するようになって -
11:36 - 11:39女性がオーケストラに占める割合は
5倍に増えました -
11:40 - 11:43次に正確性を吟味しなければなりません
-
11:43 - 11:47教員向けの付加価値モデルなら
すぐ落第になる項目です -
11:48 - 11:50当然 完璧なアルゴリズムなどないので
-
11:51 - 11:55あらゆるアルゴリズムの
誤りを検討する必要があります -
11:55 - 12:00誤りを起こす頻度は?
どんな相手だと そのモデルは機能しないのか? -
12:00 - 12:02失敗した時の損失規模は?
-
12:02 - 12:05そして最後に考えなければならないのは
-
12:06 - 12:09アルゴリズムの長期的影響 つまり
-
12:09 - 12:11それによって生じる
フィードバック・ループです -
12:11 - 12:13抽象的な話に
聞こえるかもしれませんが -
12:13 - 12:16もしFacebookのエンジニアが
友人の投稿だけを表示する前に -
12:16 - 12:21フィードバック・ループの影響を
考慮していたらと考えてみてください -
12:22 - 12:25伝えたいことは あと2つ
1つはデータサイエンティストに向けたものです -
12:25 - 12:29私たちデータサイエンティストが
真実を決めるべきではありません -
12:30 - 12:33私たちは もっと広い社会に生じる
倫理的な議論を -
12:33 - 12:35解釈する存在であるべきです
-
12:36 - 12:38(拍手)
-
12:38 - 12:40そしてデータサイエンティスト以外の
皆さん— -
12:40 - 12:41そしてデータサイエンティスト以外の
皆さん— -
12:41 - 12:44この状況は数学のテストではなく
-
12:44 - 12:46政治闘争なのです
-
12:47 - 12:51専制君主のようなアルゴリズムに対して
私たちは説明を求める必要があります -
12:52 - 12:54(拍手)
-
12:54 - 12:58ビッグデータを盲信する時代は
終わらせるべきです -
12:58 - 12:59ありがとうございました
-
12:59 - 13:04(拍手)
- Title:
- ビッグデータを盲信する時代に終止符を
- Speaker:
- キャシー・オニール
- Description:
-
アルゴリズムは、誰がローンを組めるか、誰が就職面接を受けられるか、誰が保険を掛けられるかなど、様々なことを決めています。ただアルゴリズムは自動的に公平性を生む訳ではありません。数学者でデータサイエンティストのキャシー・オニールは、秘密で、重要性が高く、悪影響を及ぼすアルゴリズムに「大量破壊数学」と名付けました。アルゴリズムの裏側にある隠れた意図を、もっと知ろうではありませんか。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Yasushi Aoki approved Japanese subtitles for The era of blind faith in big data must end | ||
Yasushi Aoki accepted Japanese subtitles for The era of blind faith in big data must end | ||
Retired user edited Japanese subtitles for The era of blind faith in big data must end | ||
Yasushi Aoki edited Japanese subtitles for The era of blind faith in big data must end | ||
Yasushi Aoki edited Japanese subtitles for The era of blind faith in big data must end | ||
Yasushi Aoki edited Japanese subtitles for The era of blind faith in big data must end | ||
Yasushi Aoki edited Japanese subtitles for The era of blind faith in big data must end | ||
Yasushi Aoki edited Japanese subtitles for The era of blind faith in big data must end |