機械知能は人間の道徳性をより重要なものにする
-
0:01 - 0:05私はコンピュータ・プログラマー
としての最初の仕事を -
0:05 - 0:07大学1年生で始めました
-
0:07 - 0:08まあ 10代だったんですね
-
0:09 - 0:11ある会社で ソフトウェアを
-
0:11 - 0:12書くという仕事を 始めてまもなく
-
0:13 - 0:16会社のマネージャーが
私のところに来て -
0:16 - 0:18こうささやきました
-
0:18 - 0:21「僕の嘘 彼にばれてる?」
-
0:22 - 0:24部屋には他に誰もいません
-
0:25 - 0:29「誰にばれてるって言うんです?
それにどうしてひそひそ声で?」 -
0:30 - 0:33マネージャーは
室内のコンピュータを指さして -
0:33 - 0:36「僕の嘘 彼にばれてる?」
-
0:38 - 0:42実はこのマネージャー
受付係と浮気してたんです -
0:42 - 0:43(笑)
-
0:43 - 0:45私はまだ10代でした
-
0:45 - 0:47だからささやき声で
彼に叫び返しました -
0:47 - 0:51「ええ コンピュータには
お見通しですよ」って -
0:51 - 0:53(笑)
-
0:53 - 0:56笑っちゃいましたが 実は
その笑いは自分に返ってきました -
0:56 - 0:59今日 コンピュータ・システムは
-
0:59 - 1:03人間の顔画像を処理することによって
-
1:03 - 1:05感情や 嘘まで見抜けるんです
-
1:05 - 1:09広告主や 政府までもが
非常に関心を寄せています -
1:10 - 1:12コンピュータプログラマーに
私がなったのは -
1:12 - 1:15子どもの頃から数学と科学が
熱狂的に好きだったからです -
1:16 - 1:19しかしその過程で
核兵器についても学び -
1:19 - 1:22科学の倫理について
非常に懸念するようになりました -
1:22 - 1:23悩みました
-
1:23 - 1:26しかし 家庭の事情で
-
1:26 - 1:29私はできるだけ早く
働き始めなければなりませんでした -
1:29 - 1:33それでひそかに考えました
技術者として -
1:33 - 1:34簡単に職が得られて
-
1:34 - 1:38倫理という厄介な問題を何も
考えなくていい分野の仕事はないかと -
1:39 - 1:41それで選んだのがコンピュータです
-
1:41 - 1:42(笑)
-
1:42 - 1:45ハハ 笑っちゃう
自分のことを笑ってるんです -
1:45 - 1:48近頃 コンピュータ科学者は
-
1:48 - 1:5210億人が毎日見ているものを制御する
プラットフォームを作っています -
1:53 - 1:57誰をひき殺すか決定できる
車を開発しています -
1:58 - 2:01戦争で人間を殺すかもしれないような
-
2:01 - 2:03機械や兵器さえも作っています
-
2:03 - 2:06全てにおいて重要になるのが倫理です
-
2:07 - 2:09機械知能は もう存在しています
-
2:10 - 2:13私たちは今や コンピュータを使って
あらゆる種類の決定を下し -
2:13 - 2:15さらに新しい類の決定も下します
-
2:15 - 2:20私たちは 単一の正答がない問題の答えを
コンピュータに尋ねています -
2:20 - 2:22その問題とは 主観的で
-
2:22 - 2:24オープンエンドで
価値観にかかわるものです -
2:24 - 2:26私たちがする質問はこんなふうです
-
2:26 - 2:27「誰を社員に採用すべきか?」
-
2:28 - 2:31「どの友達からの新着情報を
表示すべきか?」 -
2:31 - 2:33「再犯する可能性の高い受刑者は誰か?」
-
2:34 - 2:37「人々に勧めるべき
ニュースや映画はどれか?」 -
2:37 - 2:40確かに私たちは しばらくの間
コンピュータを使ってきました -
2:40 - 2:42しかしこれは違います
-
2:42 - 2:44これは歴史的なひずみです
-
2:44 - 2:49なぜならそのような主観的な決定を
コンピュータには頼れないからです -
2:49 - 2:54飛行機を飛ばしたり 建物を建てたり
-
2:54 - 2:56月に行く場合とは違うんです
-
2:56 - 3:00飛行機の方が安全か?
その橋は揺れたり落ちたりしたか? -
3:00 - 3:04そこでは合意された
かなり明確な基準があり -
3:04 - 3:06自然の法則が私たちを導いてくれます
-
3:07 - 3:10私たちがそのような
支えや基準を何も持っていないのが -
3:10 - 3:14人間くさい事柄における
厄介な決定についてです -
3:14 - 3:18もっと複雑なことに
ソフトウェアは強力になりつつあります -
3:18 - 3:22その一方で 透明性を減らし
複雑さを増してもいるのです -
3:23 - 3:25ここ10年のあいだ
-
3:25 - 3:27複雑なアルゴリズムは
大きく前進しました -
3:27 - 3:29人間の顔を認識できます
-
3:30 - 3:32手書き文字を読み取れます
-
3:32 - 3:35クレジットカードの不正使用を探知し
-
3:35 - 3:36スパムをブロックし
-
3:36 - 3:38言語の翻訳もできます
-
3:38 - 3:40医用イメージングで
腫瘍を探しあてることもできます -
3:40 - 3:43チェスや碁で人間を
打ち負かすこともできます -
3:43 - 3:48この進歩の多くは 「機械学習」と
呼ばれる方法から成り立っています -
3:48 - 3:51機械学習は コンピュータに
詳細で正確、綿密な指示を与える― -
3:51 - 3:55伝統的なプログラミングとは異なります
-
3:55 - 4:00機械学習は システムに 大量のデータを
しこたま詰め込むやり方です -
4:00 - 4:01そこには非構造化データという
-
4:01 - 4:04人間がデジタルライフで
生成する類のものも含まれます -
4:04 - 4:06そしてシステムはこのデータを
組み合わせながら学習します -
4:07 - 4:08そしてまた重要なことに
-
4:08 - 4:13これらのシステムは
答が単一になる論理で動いてはいません -
4:13 - 4:16単純に回答を与えるのではなく
もっと確率論的です -
4:16 - 4:19「これはおそらくあなたが
探しているものにより近いでしょう」 -
4:20 - 4:23これの良い面は
この方法が非常に強力であることです -
4:23 - 4:25GoogleのAIシステムのトップはこれを
-
4:25 - 4:27「データの理不尽なほどの強力さ」
と呼んでいます -
4:28 - 4:29このシステムの悪い面は
-
4:30 - 4:33これが何を学習しているのか
私たちはそれほど理解していないことです -
4:33 - 4:34実際 その強力さが問題なのです
-
4:35 - 4:39これはコンピュータに
指示を与えるというよりは -
4:39 - 4:43むしろ子犬のような生き物として
訓練するようなものです -
4:43 - 4:46その機械をそれほど
理解も制御もできていないのにです -
4:46 - 4:48これは問題です
-
4:48 - 4:53この人工知能システムが
誤りを犯したときだけでなく -
4:53 - 4:56正しいことをした場合にも
問題が生じます -
4:56 - 5:00なぜなら主観的な問題の場合
私たちには正誤さえも分からないからです -
5:00 - 5:02私たちはこの物体が
何を考えているか知りません -
5:03 - 5:07ですから たとえば雇用アルゴリズムを
考えてみましょう -
5:08 - 5:12社員を雇う際に使われるシステムで
機械学習システムを使っています -
5:13 - 5:17そのようなシステムは過去の従業員の
データに基づいて訓練されています -
5:17 - 5:19そしてそのシステムが指示するのは
-
5:19 - 5:22その会社に在籍する業績優秀者に似た
人材を探し雇うことです -
5:23 - 5:24良さそうですね
-
5:24 - 5:26以前ある会議に
出席した折のことですが -
5:26 - 5:29そこには人事部のマネージャーと
執行役が集まっていました -
5:29 - 5:30高い職位の人たちで
-
5:30 - 5:32そのようなシステムを
雇用に活用しています -
5:32 - 5:34彼らは非常にワクワクしていました
-
5:34 - 5:38彼らの考えでは このシステムは
より客観的で偏見の少ない雇用を行い -
5:38 - 5:41マネージャーの偏見に対して
女性や少数派の人々に -
5:41 - 5:44より良い機会を与えるものでした
-
5:44 - 5:46そうです
雇用には偏見が混じるのです -
5:47 - 5:48私は知っています
-
5:48 - 5:51ある職場で プログラマーとして
働きだした頃 -
5:51 - 5:55直属のマネージャーが
時々私のところに来ました -
5:55 - 5:59それも早朝とか夕方にです
-
5:59 - 6:02そして彼女はこう言うんです
「ゼイナップ ランチ行きましょ」 -
6:03 - 6:05おかしなタイミングで
全く訳が分かりませんでした -
6:05 - 6:07午後4時にランチ?
-
6:07 - 6:10私はお金がなかったので おごりでした
いつも行きました -
6:11 - 6:13後で何が起こっていたのか悟りました
-
6:13 - 6:17直属のマネージャーは上層部に
-
6:17 - 6:20重要な仕事のために雇ったのが
-
6:20 - 6:24ジーンズとスニーカーで仕事をする
10代女子だと言ってなかったんです -
6:25 - 6:27私は良い仕事ぶりだったのに
体裁が悪くて -
6:27 - 6:29年齢や性別の点でも
良くなかったんです -
6:29 - 6:32ですから性別や人種に
惑わされない形での雇用は -
6:32 - 6:34非常に良いことだと
私には思えます -
6:35 - 6:38でもこのシステムを用いると
事態はより複雑になります なぜなら -
6:39 - 6:45現在コンピュータシステムは
あなたに関するあらゆる類のことを -
6:45 - 6:47デジタル情報の断片から
推測できるからです -
6:47 - 6:49自分が開示していなくてもです
-
6:50 - 6:52システムはあなたの性的志向や
-
6:53 - 6:54性格特徴や
-
6:55 - 6:56政治的傾向を推測できます
-
6:57 - 7:01システムは高水準の正確さで
予測する力を持っています -
7:01 - 7:04思い出してください
開示さえしていない事柄をですよ -
7:04 - 7:06これが推測です
-
7:06 - 7:09ある友達は
そのようなコンピュータシステムを -
7:09 - 7:13病的な あるいは産後の 抑うつの可能性を
予測するために開発しています -
7:13 - 7:14SNSのデータを用いるんです
-
7:15 - 7:16結果は素晴らしいです
-
7:16 - 7:20彼女のシステムは
うつ罹患の可能性を -
7:20 - 7:24症状が現れる数か月前に
予測できるのです -
7:24 - 7:25数か月も前ですよ
-
7:25 - 7:27症状が全くない段階での予測です
-
7:27 - 7:32彼女はこれを早期介入のために
活用したがっています 素晴らしい! -
7:33 - 7:35でもこれを雇用の文脈で
考えてみましょう -
7:36 - 7:39例の 人事マネージャーの会議では
-
7:39 - 7:44私はある非常に大きな企業の
高職位のマネージャーに近づき -
7:44 - 7:48こう言いました
「まだご存じないこととは思いますが -
7:48 - 7:55もしそのシステムが 将来うつになる可能性が
高い人を排除しているとしたらどうでしょう? -
7:56 - 7:59今ではなく
将来そうなる可能性が高い人です -
8:00 - 8:03妊娠する可能性の
高い女性を排除しているとしたら? -
8:03 - 8:06来年か再来年のことで
今は妊娠していない場合ですよ? -
8:07 - 8:12もし職場の文化に合っているからと
攻撃的な人が雇われたらどうします?」 -
8:13 - 8:16性別の構成からは
そのことを読み取れません -
8:16 - 8:17構成比はバランスが取れています
-
8:17 - 8:21これは機械学習で
伝統的なプログラムではないので -
8:21 - 8:26たとえば「うつハイリスク」とか
「妊娠ハイリスク」 -
8:26 - 8:28「攻撃的な人物度」
-
8:28 - 8:30などの変数は登場しません
-
8:30 - 8:34システムが何に基づいて選択しているのか
分からないばかりか -
8:34 - 8:36どうすれば分かるのかの
手がかりもありません -
8:36 - 8:37ブラックボックスなんです
-
8:37 - 8:40システムには予測力がありますが
人間には理解できない代物です -
8:40 - 8:43「どんな安全対策をしていますか?
-
8:43 - 8:47あなたのブラックボックスが
やましいことをしないようにです」 -
8:49 - 8:53彼女は子犬の尻尾を10匹分も踏みつけた
人でなしを見るかのような顔になりました -
8:53 - 8:54(笑)
-
8:54 - 8:56彼女は私をじっと見て言いました
-
8:57 - 9:01「これについては
もう何も聞きたくない」 -
9:01 - 9:03そして彼女は踵を返して
行ってしまいました -
9:04 - 9:06彼女が失礼なわけではありません
-
9:06 - 9:12明らかに 聞かなかったことにしたい
あっち行ってという憎悪の眼差しでした -
9:12 - 9:13(笑)
-
9:14 - 9:18いいですか そのようなシステムは
ある意味 偏見の程度は -
9:18 - 9:20人間のマネージャーよりは
少ないかもしれません -
9:20 - 9:22費用の面でも
理にかなっているでしょう -
9:23 - 9:24でもそれはまた
-
9:24 - 9:29ひそやかながら確実に
労働市場からの -
9:29 - 9:31うつハイリスク者の締め出しに
つながりかねません -
9:32 - 9:34これが私たちの築きたい
社会の姿でしょうか? -
9:34 - 9:37こんなことをしていることさえ
私たちは知らないんです -
9:37 - 9:41完全には理解していない機械に
意思決定をさせているんですからね -
9:41 - 9:43もう1つの問題はこれです
-
9:43 - 9:48このようなシステムの訓練は往々にして
人間の行動データに基づいています -
9:48 - 9:50人間らしさが刻み込まれています
-
9:50 - 9:54それらは私たちの偏見を
反映している可能性があり -
9:54 - 9:58これらのシステムは
私たちの偏見を拾い上げ -
9:58 - 9:59それを増幅して
-
9:59 - 10:00私たちに示し返しかねません
-
10:00 - 10:02私たちはこんな言いっぷりなのにですよ
-
10:02 - 10:05「私たちはまさしく客観的です
中立的なコンピューティングですから」 -
10:06 - 10:09研究者たちは Googleにおいて
-
10:10 - 10:15女性には 高給の求人広告が
表示されにくいことを見出しました -
10:16 - 10:19また アフリカ系アメリカ人の
名前を検索すると -
10:19 - 10:24犯罪歴をほのめかす広告が
高確率で表示されます -
10:24 - 10:25犯罪歴がない人の場合でもそうです
-
10:27 - 10:30そのような隠れた偏見と
ブラックボックスのアルゴリズムを -
10:30 - 10:34研究者が暴くこともありますが
知られない場合もあります -
10:34 - 10:37それらは人生を
変える結果になりうるのです -
10:38 - 10:42ウィスコンシンで ある被告が
刑期6年の判決を受けました -
10:42 - 10:43警察官から逃げたためです
-
10:45 - 10:46ご存知ないかもしれませんが
-
10:46 - 10:50仮釈放や判決の決定においても
アルゴリズムの使用が増えています -
10:50 - 10:53彼はこのスコアが計算される仕組みを
知りたいと思いました -
10:54 - 10:55それは商用のブラックボックスです
-
10:55 - 11:00企業はアルゴリズムが
公開の法廷で検証されるのを拒みました -
11:00 - 11:06でもProPublicaという非営利の調査団体が
そのアルゴリズムを監査しました -
11:06 - 11:08入手可能だった
公開データを用いてです -
11:08 - 11:10そして分かったのは
結果には偏見が影響しており -
11:10 - 11:14予測力はひどいものでした
偶然よりわずかにましな程度です -
11:14 - 11:18黒人の被告は 白人の被告に比べて
将来犯罪を起こす確率が -
11:18 - 11:222倍高いと
誤ってラベリングされていました -
11:24 - 11:25ではこのケースを考えてみましょう
-
11:26 - 11:30女性のほうは予定より遅れて
親友を迎えに行くため -
11:30 - 11:32フロリダ州ブロワード郡の
ある学校に向かって -
11:33 - 11:35友達と一緒に道を走っていました
-
11:35 - 11:39ふたりはある家の玄関で 無施錠の
子ども用の自転車とキックスケーターを見つけ -
11:39 - 11:41愚かにもそれに飛び乗りました
-
11:41 - 11:44走り去ろうとしたところ
女性が出てきて言いました -
11:44 - 11:46「ちょっと!
それはうちの子の自転車よ!」 -
11:46 - 11:49ふたりは降りて 歩き去りましたが
逮捕されました -
11:49 - 11:53彼女は間違っていたし愚かでした
でもまだ18歳です -
11:53 - 11:55彼女は2回の非行歴がありました
-
11:56 - 12:01一方 男性のほうは Home Depoで
万引きをして捕まりました -
12:01 - 12:04彼が万引きしたのは85ドル相当で
同じく軽犯罪ですが -
12:05 - 12:09彼は強盗で前科2犯でした
-
12:10 - 12:13でもアルゴリズムは 男性ではなく
女性の方をハイリスクと評価しました -
12:15 - 12:19その女性が2年後に再犯していないことを
ProPiblicaは明らかにしています -
12:19 - 12:21犯罪記録をもつ彼女が
職を得るのは実に困難でした -
12:21 - 12:23一方 男性の方は再犯し
-
12:23 - 12:272つ目の犯罪のために
現在は8年間の収監中です -
12:28 - 12:31ブラックボックスに対して
監査が必要なのは明白です -
12:31 - 12:34チェックしないままこの種の権力を
与えてはいけないのです -
12:34 - 12:37(拍手)
-
12:38 - 12:42監査は偉大で重要ですが
それで全ての問題を解決できはしません -
12:42 - 12:45Facebookのニュース・フィードの
強力なアルゴリズムの場合 -
12:45 - 12:50全てをランク付けし
全ての友達やフォロー中のページのなかで -
12:50 - 12:52何を見るべきか決定する仕組みですね
-
12:53 - 12:55赤ちゃんの写真をもう1枚見るべきか?
-
12:55 - 12:56(笑)
-
12:56 - 12:59知り合いからの ご機嫌斜めのコメントは?
-
12:59 - 13:01重要だけど難解なニュース記事は?
-
13:01 - 13:03正答はありません
-
13:03 - 13:05Facebookはサイト上での
やりとりに応じて最適化します -
13:06 - 13:07「いいね」やシェア コメント
といったものです -
13:08 - 13:112014年8月
-
13:11 - 13:14ミズーリ州ファーガソンで
抗議運動が勃発しました -
13:14 - 13:18アフリカ系アメリカ人の10代が
白人の警察官に殺され -
13:18 - 13:20その状況が不審だったのです
-
13:20 - 13:22抗議運動のニュースは
-
13:22 - 13:25フィルタリングされない
Twitterフィードを埋め尽くしました -
13:25 - 13:27でもFacebookには何ら
表示されませんでした -
13:27 - 13:29Facebook上の友達との
関連でしょうか? -
13:29 - 13:31私はFacebookのアルゴリズムを
無効にしました -
13:31 - 13:34Facebookはアルゴリズムの
管理下に置きたがるので -
13:34 - 13:36難しかったですけどね
-
13:36 - 13:39すると友達が 抗議運動のことを
話しているのが分かりました -
13:39 - 13:41アルゴリズムが私に
見せなかっただけなんです -
13:41 - 13:44調査して分かりましたが
これは広範囲にわたる問題でした -
13:44 - 13:48ファーガソンの話題は
アルゴリズムに馴染まなかったんです -
13:48 - 13:49「いいね」しにくいのです
-
13:49 - 13:51誰が「いいね」します?
-
13:52 - 13:54コメントをするのさえ
容易じゃありません -
13:54 - 13:55「いいね」もコメントもないので
-
13:55 - 13:58アルゴリズムは少数の人にしか
それを表示しません -
13:58 - 14:00だから目にすることがなかったんです
-
14:01 - 14:02そのかわり その週
-
14:02 - 14:04Facebookのアルゴリズムが
ハイライトしたのは -
14:05 - 14:07ALSアイス・バケツ・チャレンジでした
-
14:07 - 14:11価値のある目的で氷水をかぶり
チャリティに寄付 良いですね -
14:11 - 14:12でも極めてよく
アルゴリズムに馴染みます -
14:13 - 14:16機械が私たちのために
これを決定したんです -
14:16 - 14:19非常に重要だけれど難解な会話は
-
14:19 - 14:21Facebookが唯一の経路の場合
-
14:21 - 14:24抑え込まれてきたのかもしれません
-
14:24 - 14:28さて最後にこれらのシステムは
-
14:28 - 14:31人間のシステムとは似つかない誤りを
犯しうるのです -
14:31 - 14:34皆さんはワトソンを覚えていますか
IBMの機械知能システムで -
14:34 - 14:37クイズ番組『ジェパディ!』で
対戦相手の人間を打ち負かしました -
14:37 - 14:39すごい選手だったんです
-
14:39 - 14:42しかし最終問題で
ワトソンは こんな質問をされました -
14:43 - 14:46「その地域最大の空港の名は
第二次世界大戦の英雄に由来し -
14:46 - 14:482番目の空港の名の由来は
第二次世界大戦中の戦いです」 -
14:48 - 14:49(最終問題の音楽をハミング)
-
14:50 - 14:51「シカゴ」
-
14:51 - 14:52人間ふたりは正答でした
-
14:53 - 14:57一方ワトソンの答えは
「トロント」 -
14:57 - 14:59米国の都市についての
問題だったのに! -
15:00 - 15:02この素晴らしいシステムも
エラーをするんです -
15:03 - 15:06人間はしないようなエラーです
2年生の子どもでもしません -
15:07 - 15:10機械知能は失敗を犯すこともあるんです
-
15:10 - 15:13人間のエラーパターンとは
異なります -
15:13 - 15:16予想外であり 備えもできないような方法です
-
15:16 - 15:20資質のある人が仕事を得られないのも
ひどい話ですが -
15:20 - 15:23もしそれがプログラムのサブルーチンに伴う
スタックオーバーフローが原因なら -
15:23 - 15:253倍ひどい話です
-
15:25 - 15:27(笑)
-
15:27 - 15:292010年5月
-
15:29 - 15:33ウォールストリートの
「売り」アルゴリズムでの -
15:33 - 15:36フィードバックループによって
瞬間暴落が起き -
15:36 - 15:4136分間で1兆ドル相当の
損失が出ました -
15:42 - 15:44「エラー」の意味を
考えたくもないのが -
15:44 - 15:48無人攻撃機の場合です
-
15:50 - 15:54ええ人間には 偏見がつきものです
-
15:54 - 15:56意思決定者やゲートキーパー
-
15:56 - 15:59法廷、ニュース、戦争・・・
-
15:59 - 16:02そこではミスが生じますが
これこそ私の言いたいことです -
16:02 - 16:06これらの難問から
私たちは逃れられません -
16:07 - 16:10私たちは責任を
機械に外部委託することはできないのです -
16:11 - 16:15(拍手)
-
16:17 - 16:22人工知能は「倫理問題からの解放」カードを
私たちにくれたりしません -
16:23 - 16:26データ科学者のフレッド・ベネンソンは
これを数学による洗脳だと呼びました -
16:26 - 16:28私たちに必要なのは逆のものです
-
16:28 - 16:33私たちはアルゴリズムを疑い
精査するようにならねばなりません -
16:33 - 16:37私たちは アルゴリズムについての
説明責任を持ち -
16:37 - 16:39監査や意味のある透明化を
求めなければなりません -
16:39 - 16:43私たちは厄介で価値観にかかわる
人間くさい事柄に対して -
16:43 - 16:46数学や計算機は
客観性をもたらしえないことを -
16:46 - 16:48受け入れなければなりません
-
16:49 - 16:52むしろ人間くささのもつ複雑さが
アルゴリズムを管理するのです -
16:52 - 16:56確かに私たちは コンピュータを
良い決断を下す助けとして -
16:56 - 16:58使いうるし そうすべきです
-
16:58 - 17:03でも私たちは判断を下すことへの
自分の道徳的な責任を認め -
17:03 - 17:06そしてアルゴリズムを
その枠内で用いなければなりません -
17:06 - 17:11自分の責任を放棄して
別の人間へ委ねることとは -
17:11 - 17:13異なるのです
-
17:14 - 17:16機械知能はもう存在しています
-
17:16 - 17:20つまり私たちは
人間としての価値観や倫理感を -
17:20 - 17:22よりしっかり持たねばなりません
-
17:22 - 17:23ありがとうございました
-
17:23 - 17:28(拍手)
- Title:
- 機械知能は人間の道徳性をより重要なものにする
- Speaker:
- ゼイナップ・トゥフェックチー
- Description:
-
機械知能はもう存在しており、私たちは既にそれを使って主体的な決定を行うようになっています。しかし人工知能が成長・向上していく複雑な道筋は理解しにくく、制御することも難しいのです。このトークで、科学技術に関する社会学を研究するゼイナップ・トゥフェックチーは、いかに知能機械が人間のエラーパーターンと合わない、そしてそのために予想も事前の備えもないやり方で失敗を犯すと警告を発します。「私たちは責任を機械に外部委託することはできない」と彼女は言います。そして「私たちは人間としての価値観と倫理観をさらに強固に持たねばならない」と。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Natsuhiko Mizutani approved Japanese subtitles for Machine intelligence makes human morals more important | ||
Natsuhiko Mizutani edited Japanese subtitles for Machine intelligence makes human morals more important | ||
Natsuhiko Mizutani edited Japanese subtitles for Machine intelligence makes human morals more important | ||
Misaki Sato accepted Japanese subtitles for Machine intelligence makes human morals more important | ||
Misaki Sato edited Japanese subtitles for Machine intelligence makes human morals more important | ||
Misaki Sato edited Japanese subtitles for Machine intelligence makes human morals more important | ||
Naoko Fujii edited Japanese subtitles for Machine intelligence makes human morals more important | ||
Naoko Fujii edited Japanese subtitles for Machine intelligence makes human morals more important |