Return to Video

ビッグデータを盲信する時代に終止符を

  • 0:01 - 0:03
    アルゴリズムは どこにでもあります
  • 0:04 - 0:07
    アルゴリズムが勝者と敗者を分けます
  • 0:08 - 0:10
    勝者は仕事を手に入れ
  • 0:10 - 0:12
    有利なクレジットカードを
    申し込めます
  • 0:12 - 0:15
    一方 敗者は就職面接すら受けられず
  • 0:16 - 0:18
    保険料は より高くなります
  • 0:18 - 0:22
    私たちは 理解できない上に
    不服申し立ての機会もない—
  • 0:23 - 0:26
    秘密の数式によって
    格付けされているのです
  • 0:27 - 0:29
    そこで疑問が湧いてきます
  • 0:29 - 0:31
    もしアルゴリズムが間違っていたら?
  • 0:33 - 0:35
    アルゴリズムを作る時
    必要なものが2つあります
  • 0:35 - 0:37
    データ つまり過去の出来事の記録と
  • 0:37 - 0:39
    人が追い求める「成功」を
    定義する基準です
  • 0:39 - 0:41
    人が追い求める「成功」を
    定義する基準です
  • 0:41 - 0:46
    そして観察と理解を通して
    アルゴリズムを訓練します
  • 0:46 - 0:50
    アルゴリズムに 成功と関係する要素を
    理解させるためです
  • 0:50 - 0:53
    どんな状況が 成功に繋がるのでしょう?
  • 0:53 - 0:55
    実は アルゴリズムは
    誰でも使っています
  • 0:55 - 0:57
    プログラムに書かないだけです
  • 0:57 - 0:59
    1つ例を挙げましょう
  • 0:59 - 1:02
    私は毎日アルゴリズムを使って
    家族の食事を用意します
  • 1:02 - 1:04
    私が利用するデータは
  • 1:04 - 1:06
    台所にどんな材料があるか
  • 1:06 - 1:08
    どれだけ時間をかけられるか
  • 1:08 - 1:09
    どれだけ料理に凝るかで
  • 1:09 - 1:11
    私はそのデータをまとめます
  • 1:11 - 1:15
    ちなみにインスタントラーメンは
    食べ物とは認めません
  • 1:15 - 1:17
    (笑)
  • 1:17 - 1:19
    私にとって成功の基準は
  • 1:19 - 1:22
    子供たちが野菜を食べることです
  • 1:22 - 1:25
    もし下の息子が決めるなら
    基準はガラッと変わり
  • 1:25 - 1:28
    「いっぱいチョコナッツクリームを
    食べられれば成功」と言うでしょう
  • 1:29 - 1:31
    でも基準を決めるのは私です
  • 1:31 - 1:34
    責任者は私で
    私の意見が重要なんですから
  • 1:34 - 1:37
    これがアルゴリズムの第1のルールです
  • 1:37 - 1:40
    アルゴリズムとはプログラムに
    埋め込まれた意見なのです
  • 1:41 - 1:45
    これは ほとんどの人が持つ
    アルゴリズムのイメージとはかけ離れています
  • 1:45 - 1:50
    人々はアルゴリズムが客観的で正しく
    科学的なものと思っていますが
  • 1:50 - 1:53
    それはマーケティング上のトリックです
  • 1:53 - 1:55
    アルゴリズムで人を怯ませるのも
  • 1:55 - 1:58
    マーケティングのトリックですし
  • 1:58 - 2:02
    アルゴリズムを信用させたり
    恐れさせたりするのもそう
  • 2:02 - 2:05
    皆 数学を恐れつつ信用していますから
  • 2:06 - 2:11
    ビッグデータを盲信すると
    いろいろな問題が生じかねません
  • 2:12 - 2:15
    彼女はキリ・ソアーズ
    ブルックリンの高校で校長をしています
  • 2:15 - 2:18
    2011年に彼女が教えてくれたのですが
    彼女の学校では
  • 2:18 - 2:20
    「付加価値モデル」という
    複雑な秘密のアルゴリズムで
  • 2:20 - 2:23
    教員が評価されている
    ということでした
  • 2:23 - 2:25
    私は こう伝えました
    「数式を調べてみましょう
  • 2:25 - 2:27
    見せてくれれば説明しますよ」
  • 2:27 - 2:29
    すると彼女は
    「数式を入手しようとしたら
  • 2:29 - 2:32
    市教育局の担当者に『これは数学ですよ
    理解できないでしょう』と
  • 2:32 - 2:34
    言われたんです」
  • 2:35 - 2:37
    事態はさらに深刻化します
  • 2:37 - 2:40
    ニューヨーク・ポスト紙が
    情報自由法に基づく開示請求をして
  • 2:40 - 2:43
    ニューヨーク市の全教員の
    名前とスコアを手に入れ
  • 2:43 - 2:47
    教員を辱めるような
    データを公表しました
  • 2:47 - 2:51
    一方 私がソース・コードを
    同じ方法で手に入れようとしたところ
  • 2:51 - 2:53
    無理だと言われました
  • 2:53 - 2:54
    却下されたのです
  • 2:54 - 2:56
    後にわかったことですが
  • 2:56 - 2:58
    ニューヨーク市で その数式を
    見られる人は誰もおらず
  • 2:58 - 3:00
    誰も理解していなかったのです
  • 3:02 - 3:05
    その後 ゲイリー・ルービンスタインという
    頭のキレる人物が登場します
  • 3:05 - 3:07
    彼はニューヨーク・ポスト紙のデータから
  • 3:07 - 3:11
    2種類のスコアを持っている
    教員665名を見つけ出しました
  • 3:11 - 3:13
    それに該当するのは 例えば
  • 3:13 - 3:15
    数学を7年生と8年生で
    教えている場合です
  • 3:15 - 3:17
    彼は2種類のスコアを散布図にしました
  • 3:17 - 3:19
    点はそれぞれ 先生を表します
  • 3:19 - 3:21
    (笑)
  • 3:22 - 3:23
    これは どういうことでしょう?
  • 3:23 - 3:24
    (笑)
  • 3:24 - 3:28
    こんなものを教員の個人評価に
    使ってはいけません
  • 3:28 - 3:30
    まるで乱数発生器じゃないですか
  • 3:30 - 3:32
    (拍手)
  • 3:32 - 3:34
    でも実際に使われたんです
  • 3:34 - 3:35
    彼女はサラ・ワイサキ
  • 3:35 - 3:38
    他の205人のワシントンD.C.学区の
    先生たちと共に
  • 3:38 - 3:40
    解雇されました
  • 3:40 - 3:43
    校長や保護者からの評価は
    非常に高かったのにです
  • 3:43 - 3:45
    校長や保護者からの評価は
    非常に高かったのにです
  • 3:45 - 3:47
    皆さんが今 考えていることは
    わかります
  • 3:47 - 3:50
    特にデータサイエンティストや
    AIの専門家なら思うでしょう
  • 3:50 - 3:54
    「自分なら そんなデタラメな
    アルゴリズムは作らない」って
  • 3:55 - 3:57
    でもアルゴリズムは誤ることもあれば
  • 3:57 - 4:02
    善意に基づいていても
    破壊的な影響を及ぼすことだってあります
  • 4:03 - 4:05
    飛行機なら 設計がまずければ
  • 4:05 - 4:07
    墜落しますし
    その様子が見えますが
  • 4:07 - 4:09
    アルゴリズムだと設計がまずくても
  • 4:10 - 4:15
    長期間に渡って 音もなく
    大惨事をもたらし続けかねないんです
  • 4:16 - 4:18
    彼はロジャー・エイルズ
  • 4:18 - 4:19
    (笑)
  • 4:21 - 4:23
    1996年にFOXニュースを創設しました
  • 4:23 - 4:26
    20人以上の女性が
    セクハラ被害を訴えました
  • 4:26 - 4:29
    またキャリアアップを
    妨害されたそうです
  • 4:29 - 4:32
    彼自身は2016年に地位を追われましたが
  • 4:32 - 4:35
    最近のニュースにある通り
    問題は依然残っています
  • 4:36 - 4:37
    ここで疑問が湧いてきます
  • 4:37 - 4:40
    再起をはかるために
    FOXニュースは何をすべきか?
  • 4:41 - 4:44
    人材採用プロセスを
    機械学習アルゴリズムに
  • 4:44 - 4:46
    替えるのはどうでしょう?
  • 4:46 - 4:48
    いいアイデアでしょう?
  • 4:48 - 4:49
    検討してみましょう
  • 4:49 - 4:51
    まずデータには
    何が使えるでしょう?
  • 4:51 - 4:56
    過去21年間に FOXニュースに送られた
    履歴書がいいでしょう
  • 4:56 - 4:58
    妥当なデータです
  • 4:58 - 4:59
    では成功の基準は?
  • 5:00 - 5:01
    妥当な基準は…
  • 5:01 - 5:03
    どんな人がFOXニュースで
    成功するんでしょう?
  • 5:03 - 5:07
    例えば 4年在職して
    最低1回は昇進していれば
  • 5:07 - 5:09
    成功と言えそうです
  • 5:09 - 5:10
    妥当な基準です
  • 5:10 - 5:13
    それをアルゴリズムに学習させます
  • 5:13 - 5:17
    人々を探って
    何が成功につながるか—
  • 5:17 - 5:21
    これまで どんな履歴書が
    成功に繋がってきたのかを
  • 5:21 - 5:24
    この基準に従って学習させるのです
  • 5:24 - 5:26
    さて このアルゴリズムを
  • 5:26 - 5:29
    現在の就職希望者に
    当てはめると どうなるでしょう?
  • 5:29 - 5:31
    まず女性は除外されるでしょう
  • 5:32 - 5:36
    過去に成功してきたようには
    見えないからです
  • 5:40 - 5:42
    配慮もなく やみくもに
    アルゴリズムを適用しても
  • 5:42 - 5:45
    物事は公平にはならないんです
  • 5:45 - 5:47
    アルゴリズムは公平を生みません
  • 5:47 - 5:49
    過去の行為や行動パターンを
  • 5:49 - 5:50
    繰り返し
  • 5:50 - 5:52
    自動的に現状を維持するだけです
  • 5:53 - 5:55
    この世界が完璧なら
    それでいいんでしょうが
  • 5:56 - 5:57
    そうではありません
  • 5:57 - 6:02
    さらに付け加えると ほとんどの企業は
    みっともない裁判を抱えている訳ではありませんが
  • 6:02 - 6:05
    こういった企業にいる
    データサイエンティストは
  • 6:05 - 6:07
    正確性に焦点を当て
  • 6:07 - 6:10
    データに従うよう指示されています
  • 6:10 - 6:12
    その意味を考えてみましょう
  • 6:12 - 6:14
    誰でもバイアスを持っているので
  • 6:14 - 6:18
    アルゴリズムに性差別や その他の偏見が
    コード化されている可能性があります
  • 6:19 - 6:21
    思考実験をしてみましょう
  • 6:21 - 6:23
    私は思考実験が好きなので
  • 6:24 - 6:27
    人種を完全に隔離した
    社会があるとします
  • 6:28 - 6:32
    どの街でも どの地域でも
    人種は隔離され
  • 6:32 - 6:34
    犯罪を見つけるために
    警察を送り込むのは
  • 6:34 - 6:36
    マイノリティーが住む地域だけです
  • 6:36 - 6:39
    すると逮捕者のデータは
    かなり偏ったものになるでしょう
  • 6:40 - 6:42
    さらに データサイエンティストを
    探してきて
  • 6:42 - 6:47
    報酬を払い 次の犯罪が起こる場所を
    予測させたらどうなるでしょう?
  • 6:47 - 6:49
    マイノリティーの地域になります
  • 6:49 - 6:53
    あるいは 次に犯罪を犯しそうな人を
    予測させたら?
  • 6:53 - 6:55
    マイノリティーでしょうね
  • 6:56 - 6:59
    データサイエンティストは
    モデルの素晴らしさと正確さを
  • 6:59 - 7:01
    自慢するでしょうし
  • 7:01 - 7:03
    確かにその通りでしょう
  • 7:04 - 7:08
    さて 現実はそこまで極端ではありませんが
  • 7:08 - 7:10
    実際に多くの市や町で
    深刻な人種差別があり
  • 7:10 - 7:13
    警察の活動や司法制度のデータが
    偏っているという
  • 7:13 - 7:15
    証拠が揃っています
  • 7:16 - 7:18
    実際にホットスポットと呼ばれる
    犯罪多発地域を
  • 7:18 - 7:20
    予測しています
  • 7:20 - 7:24
    さらには個々人の犯罪傾向を
  • 7:24 - 7:26
    実際に予測しています
  • 7:27 - 7:31
    報道組織プロパブリカが最近
    いわゆる「再犯リスク」アルゴリズムの
  • 7:31 - 7:33
    1つを取り上げ調査しました
  • 7:33 - 7:34
    1つを取り上げ調査しました
  • 7:34 - 7:38
    フロリダ州で 判事による
    量刑手続に使われているものです
  • 7:38 - 7:42
    左側の黒人男性バーナードのスコアは
    10点満点の10点で
  • 7:43 - 7:45
    右の白人ディランは3点でした
  • 7:45 - 7:48
    10点中10点はハイリスクで
    3点はローリスクです
  • 7:49 - 7:51
    2人とも麻薬所持で逮捕され
  • 7:51 - 7:52
    どちらも前科はありましたが
  • 7:52 - 7:55
    3点のディランには重罪の前科があり
  • 7:55 - 7:57
    10点のバーナードにはありませんでした
  • 7:58 - 8:01
    これが重要な理由は
    スコアが高ければ高いほど
  • 8:01 - 8:04
    刑期が長くなる
    傾向があるからです
  • 8:06 - 8:08
    どうなっているのでしょう?
  • 8:09 - 8:10
    これは「データ・ロンダリング」です
  • 8:11 - 8:15
    このプロセスを通して 技術者が
    ブラックボックスのようなアルゴリズムの内部に
  • 8:15 - 8:17
    醜い現実を隠し
  • 8:17 - 8:19
    「客観的」とか
  • 8:19 - 8:22
    「能力主義」と称しているんです
  • 8:23 - 8:26
    秘密にされている
    重要で破壊的なアルゴリズムを
  • 8:26 - 8:28
    私はこんな名前で呼んでいます
  • 8:28 - 8:30
    「大量破壊数学」です
  • 8:30 - 8:32
    (笑)
  • 8:32 - 8:35
    (拍手)
  • 8:35 - 8:38
    それは間違いなく
    どこにでも存在します
  • 8:38 - 8:41
    民間企業が 私的なアルゴリズムを
    私的な目的で
  • 8:41 - 8:43
    作っているんです
  • 8:43 - 8:46
    先程お話しした
    教員や警察向けのアルゴリズムでさえ
  • 8:46 - 8:48
    民間企業が制作し
  • 8:48 - 8:51
    政府機関に販売したものです
  • 8:51 - 8:52
    アルゴリズムは
    「秘伝のタレ」だから
  • 8:52 - 8:55
    公開できないと
    企業側は主張します
  • 8:55 - 8:57
    また アルゴリズムは私的な権力です
  • 8:58 - 9:03
    この謎めいた存在が持つ権威を振りかざして
    企業は利益を得ています
  • 9:05 - 9:08
    ただ こう思うかもしれません
    アルゴリズムが民間のものなら
  • 9:08 - 9:09
    競争があるので
  • 9:09 - 9:12
    自由市場の力が
    問題を解決するのではないか…
  • 9:12 - 9:13
    でも そうはいきません
  • 9:13 - 9:16
    不公平は大きな利益を
    生み出しますから
  • 9:17 - 9:21
    それに我々人間は
    合理的経済人ではなく
  • 9:21 - 9:23
    誰もがバイアスを持っています
  • 9:23 - 9:26
    私たちは 自分が望みも
    気づきもしない形で
  • 9:26 - 9:29
    差別や偏見を持っているのです
  • 9:29 - 9:32
    全体を俯瞰して見ると
    そのことがわかります
  • 9:32 - 9:35
    なぜなら社会学者が
    考案した実験を通して
  • 9:35 - 9:37
    一貫して実証されてきたからです
  • 9:37 - 9:40
    その実験では研究者が
    履歴書を大量に送付しました
  • 9:40 - 9:42
    同じように資格は満たしていますが
    一部は白人っぽい名前で
  • 9:42 - 9:44
    一部は黒人っぽい名前
  • 9:44 - 9:47
    そして結果は
    常にがっかりするものでした
  • 9:48 - 9:49
    つまりバイアスがあるのは私たちで
  • 9:49 - 9:51
    どんなデータを集め選ぶかによって
  • 9:51 - 9:55
    そのバイアスをアルゴリズムに
    注入しているんです
  • 9:55 - 9:57
    これは私がインスタントラーメンを
    含めないのと同じで
  • 9:57 - 9:59
    不適切だと決めたのは
    私なんです
  • 9:59 - 10:05
    しかし実際に過去の行動を元にした
    データを信頼し
  • 10:05 - 10:07
    成功の基準を恣意的に選びながら
  • 10:07 - 10:11
    どうして欠陥のないアルゴリズムを
    期待できるのでしょう?
  • 10:11 - 10:13
    それは無理です
    チェックが必要なんです
  • 10:14 - 10:16
    公平性を確かめる必要があるんです
  • 10:16 - 10:18
    幸い公正性は確認できます
  • 10:18 - 10:22
    アルゴリズムに問いただせば
  • 10:22 - 10:24
    常に本当のことしか
    答えないので
  • 10:24 - 10:27
    修正を加え より良いものに
    作り替えられます
  • 10:27 - 10:29
    私は これを
    アルゴリズム監査と呼んでいます
  • 10:29 - 10:31
    その手順を説明しましょう
  • 10:31 - 10:33
    まずはデータ完全性チェックです
  • 10:34 - 10:37
    先ほど登場した
    再犯リスク・アルゴリズムの場合—
  • 10:38 - 10:41
    データ完全性チェックとは
    事実を直視するという意味になるでしょう
  • 10:41 - 10:45
    例えばアメリカでは 大麻の使用率は
    白人と黒人で同じなのに
  • 10:45 - 10:47
    逮捕される割合は
    黒人の方がはるかに高く
  • 10:47 - 10:50
    地域によっては
    4〜5倍になるという事実があります
  • 10:51 - 10:54
    このようなバイアスは
    他の犯罪では どんな形で表れ
  • 10:54 - 10:56
    私たちは それを
    どう説明したらいいでしょうか?
  • 10:56 - 10:59
    次に 私たちは成功の基準について
    考えなければなりません
  • 10:59 - 11:01
    その基準を監査するのです
  • 11:01 - 11:03
    採用アルゴリズムを
    思い出してください
  • 11:03 - 11:07
    勤続年数が4年で
    昇進1回の人はどうだったでしょう
  • 11:07 - 11:08
    その人は成功した社員でしょうが
  • 11:08 - 11:12
    同時に その会社の文化に
    支持されたとも言えます
  • 11:12 - 11:14
    ただ その文化に
    バイアスがあるかもしれないので
  • 11:14 - 11:16
    この2つは分けて考える必要があります
  • 11:16 - 11:19
    一つの例として オーケストラの
    ブラインド・オーディションを見るべきでしょう
  • 11:19 - 11:20
    一つの例として オーケストラの
    ブラインド・オーディションを見るべきでしょう
  • 11:20 - 11:23
    オーディションを受ける人は
    衝立の向こうにいます
  • 11:23 - 11:25
    ここで注目したいのは
  • 11:25 - 11:28
    審査員は 何が重要で
    何が重要でないかを
  • 11:28 - 11:30
    あらかじめ決めて
  • 11:30 - 11:33
    重要でないものに
    惑わされないようにしている点です
  • 11:33 - 11:36
    ブラインド・オーディションを
    するようになって
  • 11:36 - 11:39
    女性がオーケストラに占める割合は
    5倍に増えました
  • 11:40 - 11:43
    次に正確性を吟味しなければなりません
  • 11:43 - 11:47
    教員向けの付加価値モデルなら
    すぐ落第になる項目です
  • 11:48 - 11:50
    当然 完璧なアルゴリズムなどないので
  • 11:51 - 11:55
    あらゆるアルゴリズムの
    誤りを検討する必要があります
  • 11:55 - 12:00
    誤りを起こす頻度は?
    どんな相手だと そのモデルは機能しないのか?
  • 12:00 - 12:02
    失敗した時の損失規模は?
  • 12:02 - 12:05
    そして最後に考えなければならないのは
  • 12:06 - 12:09
    アルゴリズムの長期的影響 つまり
  • 12:09 - 12:11
    それによって生じる
    フィードバック・ループです
  • 12:11 - 12:13
    抽象的な話に
    聞こえるかもしれませんが
  • 12:13 - 12:16
    もしFacebookのエンジニアが
    友人の投稿だけを表示する前に
  • 12:16 - 12:21
    フィードバック・ループの影響を
    考慮していたらと考えてみてください
  • 12:22 - 12:25
    伝えたいことは あと2つ
    1つはデータサイエンティストに向けたものです
  • 12:25 - 12:29
    私たちデータサイエンティストが
    真実を決めるべきではありません
  • 12:30 - 12:33
    私たちは もっと広い社会に生じる
    倫理的な議論を
  • 12:33 - 12:35
    解釈する存在であるべきです
  • 12:36 - 12:38
    (拍手)
  • 12:38 - 12:40
    そしてデータサイエンティスト以外の
    皆さん—
  • 12:40 - 12:41
    そしてデータサイエンティスト以外の
    皆さん—
  • 12:41 - 12:44
    この状況は数学のテストではなく
  • 12:44 - 12:46
    政治闘争なのです
  • 12:47 - 12:51
    専制君主のようなアルゴリズムに対して
    私たちは説明を求める必要があります
  • 12:52 - 12:54
    (拍手)
  • 12:54 - 12:58
    ビッグデータを盲信する時代は
    終わらせるべきです
  • 12:58 - 12:59
    ありがとうございました
  • 12:59 - 13:04
    (拍手)
Title:
ビッグデータを盲信する時代に終止符を
Speaker:
キャシー・オニール
Description:

アルゴリズムは、誰がローンを組めるか、誰が就職面接を受けられるか、誰が保険を掛けられるかなど、様々なことを決めています。ただアルゴリズムは自動的に公平性を生む訳ではありません。数学者でデータサイエンティストのキャシー・オニールは、秘密で、重要性が高く、悪影響を及ぼすアルゴリズムに「大量破壊数学」と名付けました。アルゴリズムの裏側にある隠れた意図を、もっと知ろうではありませんか。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18

Japanese subtitles

Revisions