Return to Video

機械知能は人間の道徳性をより重要なものにする

  • 0:01 - 0:05
    私はコンピュータ・プログラマー
    としての最初の仕事を
  • 0:05 - 0:07
    大学1年生で始めました
  • 0:07 - 0:08
    まあ 10代だったんですね
  • 0:09 - 0:11
    ある会社で ソフトウェアを
  • 0:11 - 0:12
    書くという仕事を 始めてまもなく
  • 0:13 - 0:16
    会社のマネージャーが
    私のところに来て
  • 0:16 - 0:18
    こうささやきました
  • 0:18 - 0:21
    「僕の嘘 彼にばれてる?」
  • 0:22 - 0:24
    部屋には他に誰もいません
  • 0:25 - 0:29
    「誰にばれてるって言うんです?
    それにどうしてひそひそ声で?」
  • 0:30 - 0:33
    マネージャーは
    室内のコンピュータを指さして
  • 0:33 - 0:36
    「僕の嘘 彼にばれてる?」
  • 0:38 - 0:42
    実はこのマネージャー
    受付係と浮気してたんです
  • 0:42 - 0:43
    (笑)
  • 0:43 - 0:45
    私はまだ10代でした
  • 0:45 - 0:47
    だからささやき声で
    彼に叫び返しました
  • 0:47 - 0:51
    「ええ コンピュータには
    お見通しですよ」って
  • 0:51 - 0:53
    (笑)
  • 0:53 - 0:56
    笑っちゃいましたが 実は
    その笑いは自分に返ってきました
  • 0:56 - 0:59
    今日 コンピュータ・システムは
  • 0:59 - 1:03
    人間の顔画像を処理することによって
  • 1:03 - 1:05
    感情や 嘘まで見抜けるんです
  • 1:05 - 1:09
    広告主や 政府までもが
    非常に関心を寄せています
  • 1:10 - 1:12
    コンピュータプログラマーに
    私がなったのは
  • 1:12 - 1:15
    子どもの頃から数学と科学が
    熱狂的に好きだったからです
  • 1:16 - 1:19
    しかしその過程で
    核兵器についても学び
  • 1:19 - 1:22
    科学の倫理について
    非常に懸念するようになりました
  • 1:22 - 1:23
    悩みました
  • 1:23 - 1:26
    しかし 家庭の事情で
  • 1:26 - 1:29
    私はできるだけ早く
    働き始めなければなりませんでした
  • 1:29 - 1:33
    それでひそかに考えました
    技術者として
  • 1:33 - 1:34
    簡単に職が得られて
  • 1:34 - 1:38
    倫理という厄介な問題を何も
    考えなくていい分野の仕事はないかと
  • 1:39 - 1:41
    それで選んだのがコンピュータです
  • 1:41 - 1:42
    (笑)
  • 1:42 - 1:45
    ハハ 笑っちゃう
    自分のことを笑ってるんです
  • 1:45 - 1:48
    近頃 コンピュータ科学者は
  • 1:48 - 1:52
    10億人が毎日見ているものを制御する
    プラットフォームを作っています
  • 1:53 - 1:57
    誰をひき殺すか決定できる
    車を開発しています
  • 1:58 - 2:01
    戦争で人間を殺すかもしれないような
  • 2:01 - 2:03
    機械や兵器さえも作っています
  • 2:03 - 2:06
    全てにおいて重要になるのが倫理です
  • 2:07 - 2:09
    機械知能は もう存在しています
  • 2:10 - 2:13
    私たちは今や コンピュータを使って
    あらゆる種類の決定を下し
  • 2:13 - 2:15
    さらに新しい類の決定も下します
  • 2:15 - 2:20
    私たちは 単一の正答がない問題の答えを
    コンピュータに尋ねています
  • 2:20 - 2:22
    その問題とは 主観的で
  • 2:22 - 2:24
    オープンエンドで
    価値観にかかわるものです
  • 2:24 - 2:26
    私たちがする質問はこんなふうです
  • 2:26 - 2:27
    「誰を社員に採用すべきか?」
  • 2:28 - 2:31
    「どの友達からの新着情報を
    表示すべきか?」
  • 2:31 - 2:33
    「再犯する可能性の高い受刑者は誰か?」
  • 2:34 - 2:37
    「人々に勧めるべき
    ニュースや映画はどれか?」
  • 2:37 - 2:40
    確かに私たちは しばらくの間
    コンピュータを使ってきました
  • 2:40 - 2:42
    しかしこれは違います
  • 2:42 - 2:44
    これは歴史的なひずみです
  • 2:44 - 2:49
    なぜならそのような主観的な決定を
    コンピュータには頼れないからです
  • 2:49 - 2:54
    飛行機を飛ばしたり 建物を建てたり
  • 2:54 - 2:56
    月に行く場合とは違うんです
  • 2:56 - 3:00
    飛行機の方が安全か?
    その橋は揺れたり落ちたりしたか?
  • 3:00 - 3:04
    そこでは合意された
    かなり明確な基準があり
  • 3:04 - 3:06
    自然の法則が私たちを導いてくれます
  • 3:07 - 3:10
    私たちがそのような
    支えや基準を何も持っていないのが
  • 3:10 - 3:14
    人間くさい事柄における
    厄介な決定についてです
  • 3:14 - 3:18
    もっと複雑なことに
    ソフトウェアは強力になりつつあります
  • 3:18 - 3:22
    その一方で 透明性を減らし
    複雑さを増してもいるのです
  • 3:23 - 3:25
    ここ10年のあいだ
  • 3:25 - 3:27
    複雑なアルゴリズムは
    大きく前進しました
  • 3:27 - 3:29
    人間の顔を認識できます
  • 3:30 - 3:32
    手書き文字を読み取れます
  • 3:32 - 3:35
    クレジットカードの不正使用を探知し
  • 3:35 - 3:36
    スパムをブロックし
  • 3:36 - 3:38
    言語の翻訳もできます
  • 3:38 - 3:40
    医用イメージングで
    腫瘍を探しあてることもできます
  • 3:40 - 3:43
    チェスや碁で人間を
    打ち負かすこともできます
  • 3:43 - 3:48
    この進歩の多くは 「機械学習」と
    呼ばれる方法から成り立っています
  • 3:48 - 3:51
    機械学習は コンピュータに
    詳細で正確、綿密な指示を与える―
  • 3:51 - 3:55
    伝統的なプログラミングとは異なります
  • 3:55 - 4:00
    機械学習は システムに 大量のデータを
    しこたま詰め込むやり方です
  • 4:00 - 4:01
    そこには非構造化データという
  • 4:01 - 4:04
    人間がデジタルライフで
    生成する類のものも含まれます
  • 4:04 - 4:06
    そしてシステムはこのデータを
    組み合わせながら学習します
  • 4:07 - 4:08
    そしてまた重要なことに
  • 4:08 - 4:13
    これらのシステムは
    答が単一になる論理で動いてはいません
  • 4:13 - 4:16
    単純に回答を与えるのではなく
    もっと確率論的です
  • 4:16 - 4:19
    「これはおそらくあなたが
    探しているものにより近いでしょう」
  • 4:20 - 4:23
    これの良い面は
    この方法が非常に強力であることです
  • 4:23 - 4:25
    GoogleのAIシステムのトップはこれを
  • 4:25 - 4:27
    「データの理不尽なほどの強力さ」
    と呼んでいます
  • 4:28 - 4:29
    このシステムの悪い面は
  • 4:30 - 4:33
    これが何を学習しているのか
    私たちはそれほど理解していないことです
  • 4:33 - 4:34
    実際 その強力さが問題なのです
  • 4:35 - 4:39
    これはコンピュータに
    指示を与えるというよりは
  • 4:39 - 4:43
    むしろ子犬のような生き物として
    訓練するようなものです
  • 4:43 - 4:46
    その機械をそれほど
    理解も制御もできていないのにです
  • 4:46 - 4:48
    これは問題です
  • 4:48 - 4:53
    この人工知能システムが
    誤りを犯したときだけでなく
  • 4:53 - 4:56
    正しいことをした場合にも
    問題が生じます
  • 4:56 - 5:00
    なぜなら主観的な問題の場合
    私たちには正誤さえも分からないからです
  • 5:00 - 5:02
    私たちはこの物体が
    何を考えているか知りません
  • 5:03 - 5:07
    ですから たとえば雇用アルゴリズムを
    考えてみましょう
  • 5:08 - 5:12
    社員を雇う際に使われるシステムで
    機械学習システムを使っています
  • 5:13 - 5:17
    そのようなシステムは過去の従業員の
    データに基づいて訓練されています
  • 5:17 - 5:19
    そしてそのシステムが指示するのは
  • 5:19 - 5:22
    その会社に在籍する業績優秀者に似た
    人材を探し雇うことです
  • 5:23 - 5:24
    良さそうですね
  • 5:24 - 5:26
    以前ある会議に
    出席した折のことですが
  • 5:26 - 5:29
    そこには人事部のマネージャーと
    執行役が集まっていました
  • 5:29 - 5:30
    高い職位の人たちで
  • 5:30 - 5:32
    そのようなシステムを
    雇用に活用しています
  • 5:32 - 5:34
    彼らは非常にワクワクしていました
  • 5:34 - 5:38
    彼らの考えでは このシステムは
    より客観的で偏見の少ない雇用を行い
  • 5:38 - 5:41
    マネージャーの偏見に対して
    女性や少数派の人々に
  • 5:41 - 5:44
    より良い機会を与えるものでした
  • 5:44 - 5:46
    そうです 
    雇用には偏見が混じるのです
  • 5:47 - 5:48
    私は知っています
  • 5:48 - 5:51
    ある職場で プログラマーとして
    働きだした頃
  • 5:51 - 5:55
    直属のマネージャーが
    時々私のところに来ました
  • 5:55 - 5:59
    それも早朝とか夕方にです
  • 5:59 - 6:02
    そして彼女はこう言うんです
    「ゼイナップ ランチ行きましょ」
  • 6:03 - 6:05
    おかしなタイミングで
    全く訳が分かりませんでした
  • 6:05 - 6:07
    午後4時にランチ?
  • 6:07 - 6:10
    私はお金がなかったので おごりでした
    いつも行きました
  • 6:11 - 6:13
    後で何が起こっていたのか悟りました
  • 6:13 - 6:17
    直属のマネージャーは上層部に
  • 6:17 - 6:20
    重要な仕事のために雇ったのが
  • 6:20 - 6:24
    ジーンズとスニーカーで仕事をする
    10代女子だと言ってなかったんです
  • 6:25 - 6:27
    私は良い仕事ぶりだったのに
    体裁が悪くて
  • 6:27 - 6:29
    年齢や性別の点でも
    良くなかったんです
  • 6:29 - 6:32
    ですから性別や人種に
    惑わされない形での雇用は
  • 6:32 - 6:34
    非常に良いことだと
    私には思えます
  • 6:35 - 6:38
    でもこのシステムを用いると
    事態はより複雑になります なぜなら
  • 6:39 - 6:45
    現在コンピュータシステムは
    あなたに関するあらゆる類のことを
  • 6:45 - 6:47
    デジタル情報の断片から
    推測できるからです
  • 6:47 - 6:49
    自分が開示していなくてもです
  • 6:50 - 6:52
    システムはあなたの性的志向や
  • 6:53 - 6:54
    性格特徴や
  • 6:55 - 6:56
    政治的傾向を推測できます
  • 6:57 - 7:01
    システムは高水準の正確さで
    予測する力を持っています
  • 7:01 - 7:04
    思い出してください
    開示さえしていない事柄をですよ
  • 7:04 - 7:06
    これが推測です
  • 7:06 - 7:09
    ある友達は
    そのようなコンピュータシステムを
  • 7:09 - 7:13
    病的な あるいは産後の 抑うつの可能性を
    予測するために開発しています
  • 7:13 - 7:14
    SNSのデータを用いるんです
  • 7:15 - 7:16
    結果は素晴らしいです
  • 7:16 - 7:20
    彼女のシステムは
    うつ罹患の可能性を
  • 7:20 - 7:24
    症状が現れる数か月前に
    予測できるのです
  • 7:24 - 7:25
    数か月も前ですよ
  • 7:25 - 7:27
    症状が全くない段階での予測です
  • 7:27 - 7:32
    彼女はこれを早期介入のために
    活用したがっています 素晴らしい!
  • 7:33 - 7:35
    でもこれを雇用の文脈で
    考えてみましょう
  • 7:36 - 7:39
    例の 人事マネージャーの会議では
  • 7:39 - 7:44
    私はある非常に大きな企業の
    高職位のマネージャーに近づき
  • 7:44 - 7:48
    こう言いました
    「まだご存じないこととは思いますが
  • 7:48 - 7:55
    もしそのシステムが 将来うつになる可能性が
    高い人を排除しているとしたらどうでしょう?
  • 7:56 - 7:59
    今ではなく 
    将来そうなる可能性が高い人です
  • 8:00 - 8:03
    妊娠する可能性の
    高い女性を排除しているとしたら?
  • 8:03 - 8:06
    来年か再来年のことで
    今は妊娠していない場合ですよ?
  • 8:07 - 8:12
    もし職場の文化に合っているからと
    攻撃的な人が雇われたらどうします?」
  • 8:13 - 8:16
    性別の構成からは
    そのことを読み取れません
  • 8:16 - 8:17
    構成比はバランスが取れています
  • 8:17 - 8:21
    これは機械学習で
    伝統的なプログラムではないので
  • 8:21 - 8:26
    たとえば「うつハイリスク」とか
    「妊娠ハイリスク」
  • 8:26 - 8:28
    「攻撃的な人物度」
  • 8:28 - 8:30
    などの変数は登場しません
  • 8:30 - 8:34
    システムが何に基づいて選択しているのか
    分からないばかりか
  • 8:34 - 8:36
    どうすれば分かるのかの
    手がかりもありません
  • 8:36 - 8:37
    ブラックボックスなんです
  • 8:37 - 8:40
    システムには予測力がありますが
    人間には理解できない代物です
  • 8:40 - 8:43
    「どんな安全対策をしていますか?
  • 8:43 - 8:47
    あなたのブラックボックスが
    やましいことをしないようにです」
  • 8:49 - 8:53
    彼女は子犬の尻尾を10匹分も踏みつけた
    人でなしを見るかのような顔になりました
  • 8:53 - 8:54
    (笑)
  • 8:54 - 8:56
    彼女は私をじっと見て言いました
  • 8:57 - 9:01
    「これについては
    もう何も聞きたくない」
  • 9:01 - 9:03
    そして彼女は踵を返して
    行ってしまいました
  • 9:04 - 9:06
    彼女が失礼なわけではありません
  • 9:06 - 9:12
    明らかに 聞かなかったことにしたい
    あっち行ってという憎悪の眼差しでした
  • 9:12 - 9:13
    (笑)
  • 9:14 - 9:18
    いいですか そのようなシステムは
    ある意味 偏見の程度は
  • 9:18 - 9:20
    人間のマネージャーよりは
    少ないかもしれません
  • 9:20 - 9:22
    費用の面でも
    理にかなっているでしょう
  • 9:23 - 9:24
    でもそれはまた
  • 9:24 - 9:29
    ひそやかながら確実に
    労働市場からの
  • 9:29 - 9:31
    うつハイリスク者の締め出しに
    つながりかねません
  • 9:32 - 9:34
    これが私たちの築きたい
    社会の姿でしょうか?
  • 9:34 - 9:37
    こんなことをしていることさえ
    私たちは知らないんです
  • 9:37 - 9:41
    完全には理解していない機械に
    意思決定をさせているんですからね
  • 9:41 - 9:43
    もう1つの問題はこれです
  • 9:43 - 9:48
    このようなシステムの訓練は往々にして
    人間の行動データに基づいています
  • 9:48 - 9:50
    人間らしさが刻み込まれています
  • 9:50 - 9:54
    それらは私たちの偏見を
    反映している可能性があり
  • 9:54 - 9:58
    これらのシステムは
    私たちの偏見を拾い上げ
  • 9:58 - 9:59
    それを増幅して
  • 9:59 - 10:00
    私たちに示し返しかねません
  • 10:00 - 10:02
    私たちはこんな言いっぷりなのにですよ
  • 10:02 - 10:05
    「私たちはまさしく客観的です
    中立的なコンピューティングですから」
  • 10:06 - 10:09
    研究者たちは Googleにおいて
  • 10:10 - 10:15
    女性には 高給の求人広告が
    表示されにくいことを見出しました
  • 10:16 - 10:19
    また アフリカ系アメリカ人の
    名前を検索すると
  • 10:19 - 10:24
    犯罪歴をほのめかす広告が
    高確率で表示されます
  • 10:24 - 10:25
    犯罪歴がない人の場合でもそうです
  • 10:27 - 10:30
    そのような隠れた偏見と
    ブラックボックスのアルゴリズムを
  • 10:30 - 10:34
    研究者が暴くこともありますが
    知られない場合もあります
  • 10:34 - 10:37
    それらは人生を
    変える結果になりうるのです
  • 10:38 - 10:42
    ウィスコンシンで ある被告が
    刑期6年の判決を受けました
  • 10:42 - 10:43
    警察官から逃げたためです
  • 10:45 - 10:46
    ご存知ないかもしれませんが
  • 10:46 - 10:50
    仮釈放や判決の決定においても
    アルゴリズムの使用が増えています
  • 10:50 - 10:53
    彼はこのスコアが計算される仕組みを
    知りたいと思いました
  • 10:54 - 10:55
    それは商用のブラックボックスです
  • 10:55 - 11:00
    企業はアルゴリズムが
    公開の法廷で検証されるのを拒みました
  • 11:00 - 11:06
    でもProPublicaという非営利の調査団体が
    そのアルゴリズムを監査しました
  • 11:06 - 11:08
    入手可能だった
    公開データを用いてです
  • 11:08 - 11:10
    そして分かったのは
    結果には偏見が影響しており
  • 11:10 - 11:14
    予測力はひどいものでした
    偶然よりわずかにましな程度です
  • 11:14 - 11:18
    黒人の被告は 白人の被告に比べて
    将来犯罪を起こす確率が
  • 11:18 - 11:22
    2倍高いと
    誤ってラベリングされていました
  • 11:24 - 11:25
    ではこのケースを考えてみましょう
  • 11:26 - 11:30
    女性のほうは予定より遅れて
    親友を迎えに行くため
  • 11:30 - 11:32
    フロリダ州ブロワード郡の
    ある学校に向かって
  • 11:33 - 11:35
    友達と一緒に道を走っていました
  • 11:35 - 11:39
    ふたりはある家の玄関で 無施錠の
    子ども用の自転車とキックスケーターを見つけ
  • 11:39 - 11:41
    愚かにもそれに飛び乗りました
  • 11:41 - 11:44
    走り去ろうとしたところ
    女性が出てきて言いました
  • 11:44 - 11:46
    「ちょっと!
    それはうちの子の自転車よ!」
  • 11:46 - 11:49
    ふたりは降りて 歩き去りましたが
    逮捕されました
  • 11:49 - 11:53
    彼女は間違っていたし愚かでした
    でもまだ18歳です
  • 11:53 - 11:55
    彼女は2回の非行歴がありました
  • 11:56 - 12:01
    一方 男性のほうは Home Depoで
    万引きをして捕まりました
  • 12:01 - 12:04
    彼が万引きしたのは85ドル相当で
    同じく軽犯罪ですが
  • 12:05 - 12:09
    彼は強盗で前科2犯でした
  • 12:10 - 12:13
    でもアルゴリズムは 男性ではなく
    女性の方をハイリスクと評価しました
  • 12:15 - 12:19
    その女性が2年後に再犯していないことを
    ProPiblicaは明らかにしています
  • 12:19 - 12:21
    犯罪記録をもつ彼女が
    職を得るのは実に困難でした
  • 12:21 - 12:23
    一方 男性の方は再犯し
  • 12:23 - 12:27
    2つ目の犯罪のために
    現在は8年間の収監中です
  • 12:28 - 12:31
    ブラックボックスに対して
    監査が必要なのは明白です
  • 12:31 - 12:34
    チェックしないままこの種の権力を
    与えてはいけないのです
  • 12:34 - 12:37
    (拍手)
  • 12:38 - 12:42
    監査は偉大で重要ですが
    それで全ての問題を解決できはしません
  • 12:42 - 12:45
    Facebookのニュース・フィードの
    強力なアルゴリズムの場合
  • 12:45 - 12:50
    全てをランク付けし
    全ての友達やフォロー中のページのなかで
  • 12:50 - 12:52
    何を見るべきか決定する仕組みですね
  • 12:53 - 12:55
    赤ちゃんの写真をもう1枚見るべきか?
  • 12:55 - 12:56
    (笑)
  • 12:56 - 12:59
    知り合いからの ご機嫌斜めのコメントは?
  • 12:59 - 13:01
    重要だけど難解なニュース記事は?
  • 13:01 - 13:03
    正答はありません
  • 13:03 - 13:05
    Facebookはサイト上での
    やりとりに応じて最適化します
  • 13:06 - 13:07
    「いいね」やシェア コメント
    といったものです
  • 13:08 - 13:11
    2014年8月
  • 13:11 - 13:14
    ミズーリ州ファーガソンで
    抗議運動が勃発しました
  • 13:14 - 13:18
    アフリカ系アメリカ人の10代が
    白人の警察官に殺され
  • 13:18 - 13:20
    その状況が不審だったのです
  • 13:20 - 13:22
    抗議運動のニュースは
  • 13:22 - 13:25
    フィルタリングされない
    Twitterフィードを埋め尽くしました
  • 13:25 - 13:27
    でもFacebookには何ら
    表示されませんでした
  • 13:27 - 13:29
    Facebook上の友達との
    関連でしょうか?
  • 13:29 - 13:31
    私はFacebookのアルゴリズムを
    無効にしました
  • 13:31 - 13:34
    Facebookはアルゴリズムの
    管理下に置きたがるので
  • 13:34 - 13:36
    難しかったですけどね
  • 13:36 - 13:39
    すると友達が 抗議運動のことを
    話しているのが分かりました
  • 13:39 - 13:41
    アルゴリズムが私に
    見せなかっただけなんです
  • 13:41 - 13:44
    調査して分かりましたが
    これは広範囲にわたる問題でした
  • 13:44 - 13:48
    ファーガソンの話題は
    アルゴリズムに馴染まなかったんです
  • 13:48 - 13:49
    「いいね」しにくいのです
  • 13:49 - 13:51
    誰が「いいね」します?
  • 13:52 - 13:54
    コメントをするのさえ
    容易じゃありません
  • 13:54 - 13:55
    「いいね」もコメントもないので
  • 13:55 - 13:58
    アルゴリズムは少数の人にしか
    それを表示しません
  • 13:58 - 14:00
    だから目にすることがなかったんです
  • 14:01 - 14:02
    そのかわり その週
  • 14:02 - 14:04
    Facebookのアルゴリズムが
    ハイライトしたのは
  • 14:05 - 14:07
    ALSアイス・バケツ・チャレンジでした
  • 14:07 - 14:11
    価値のある目的で氷水をかぶり
    チャリティに寄付 良いですね
  • 14:11 - 14:12
    でも極めてよく
    アルゴリズムに馴染みます
  • 14:13 - 14:16
    機械が私たちのために
    これを決定したんです
  • 14:16 - 14:19
    非常に重要だけれど難解な会話は
  • 14:19 - 14:21
    Facebookが唯一の経路の場合
  • 14:21 - 14:24
    抑え込まれてきたのかもしれません
  • 14:24 - 14:28
    さて最後にこれらのシステムは
  • 14:28 - 14:31
    人間のシステムとは似つかない誤りを
    犯しうるのです
  • 14:31 - 14:34
    皆さんはワトソンを覚えていますか
    IBMの機械知能システムで
  • 14:34 - 14:37
    クイズ番組『ジェパディ!』で
    対戦相手の人間を打ち負かしました
  • 14:37 - 14:39
    すごい選手だったんです
  • 14:39 - 14:42
    しかし最終問題で
    ワトソンは こんな質問をされました
  • 14:43 - 14:46
    「その地域最大の空港の名は
    第二次世界大戦の英雄に由来し
  • 14:46 - 14:48
    2番目の空港の名の由来は
    第二次世界大戦中の戦いです」
  • 14:48 - 14:49
    (最終問題の音楽をハミング)
  • 14:50 - 14:51
    「シカゴ」
  • 14:51 - 14:52
    人間ふたりは正答でした
  • 14:53 - 14:57
    一方ワトソンの答えは
    「トロント」
  • 14:57 - 14:59
    米国の都市についての
    問題だったのに!
  • 15:00 - 15:02
    この素晴らしいシステムも
    エラーをするんです
  • 15:03 - 15:06
    人間はしないようなエラーです
    2年生の子どもでもしません
  • 15:07 - 15:10
    機械知能は失敗を犯すこともあるんです
  • 15:10 - 15:13
    人間のエラーパターンとは
    異なります
  • 15:13 - 15:16
    予想外であり 備えもできないような方法です
  • 15:16 - 15:20
    資質のある人が仕事を得られないのも
    ひどい話ですが
  • 15:20 - 15:23
    もしそれがプログラムのサブルーチンに伴う
    スタックオーバーフローが原因なら
  • 15:23 - 15:25
    3倍ひどい話です
  • 15:25 - 15:27
    (笑)
  • 15:27 - 15:29
    2010年5月
  • 15:29 - 15:33
    ウォールストリートの
    「売り」アルゴリズムでの
  • 15:33 - 15:36
    フィードバックループによって
    瞬間暴落が起き
  • 15:36 - 15:41
    36分間で1兆ドル相当の
    損失が出ました
  • 15:42 - 15:44
    「エラー」の意味を
    考えたくもないのが
  • 15:44 - 15:48
    無人攻撃機の場合です
  • 15:50 - 15:54
    ええ人間には 偏見がつきものです
  • 15:54 - 15:56
    意思決定者やゲートキーパー
  • 15:56 - 15:59
    法廷、ニュース、戦争・・・
  • 15:59 - 16:02
    そこではミスが生じますが
    これこそ私の言いたいことです
  • 16:02 - 16:06
    これらの難問から
    私たちは逃れられません
  • 16:07 - 16:10
    私たちは責任を
    機械に外部委託することはできないのです
  • 16:11 - 16:15
    (拍手)
  • 16:17 - 16:22
    人工知能は「倫理問題からの解放」カードを
    私たちにくれたりしません
  • 16:23 - 16:26
    データ科学者のフレッド・ベネンソンは
    これを数学による洗脳だと呼びました
  • 16:26 - 16:28
    私たちに必要なのは逆のものです
  • 16:28 - 16:33
    私たちはアルゴリズムを疑い
    精査するようにならねばなりません
  • 16:33 - 16:37
    私たちは アルゴリズムについての
    説明責任を持ち
  • 16:37 - 16:39
    監査や意味のある透明化を
    求めなければなりません
  • 16:39 - 16:43
    私たちは厄介で価値観にかかわる
    人間くさい事柄に対して
  • 16:43 - 16:46
    数学や計算機は
    客観性をもたらしえないことを
  • 16:46 - 16:48
    受け入れなければなりません
  • 16:49 - 16:52
    むしろ人間くささのもつ複雑さが
    アルゴリズムを管理するのです
  • 16:52 - 16:56
    確かに私たちは コンピュータを
    良い決断を下す助けとして
  • 16:56 - 16:58
    使いうるし そうすべきです
  • 16:58 - 17:03
    でも私たちは判断を下すことへの
    自分の道徳的な責任を認め
  • 17:03 - 17:06
    そしてアルゴリズムを
    その枠内で用いなければなりません
  • 17:06 - 17:11
    自分の責任を放棄して
    別の人間へ委ねることとは
  • 17:11 - 17:13
    異なるのです
  • 17:14 - 17:16
    機械知能はもう存在しています
  • 17:16 - 17:20
    つまり私たちは
    人間としての価値観や倫理感を
  • 17:20 - 17:22
    よりしっかり持たねばなりません
  • 17:22 - 17:23
    ありがとうございました
  • 17:23 - 17:28
    (拍手)
Title:
機械知能は人間の道徳性をより重要なものにする
Speaker:
ゼイナップ・トゥフェックチー
Description:

機械知能はもう存在しており、私たちは既にそれを使って主体的な決定を行うようになっています。しかし人工知能が成長・向上していく複雑な道筋は理解しにくく、制御することも難しいのです。このトークで、科学技術に関する社会学を研究するゼイナップ・トゥフェックチーは、いかに知能機械が人間のエラーパーターンと合わない、そしてそのために予想も事前の備えもないやり方で失敗を犯すと警告を発します。「私たちは責任を機械に外部委託することはできない」と彼女は言います。そして「私たちは人間としての価値観と倫理観をさらに強固に持たねばならない」と。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Japanese subtitles

Revisions