Return to Video

人間より優れた人工知能を作って制御を失わずにいることは可能か?

  • 0:01 - 0:03
    我々の多くが抱えている―
  • 0:03 - 0:05
    直感の誤りについて
    お話しします
  • 0:05 - 0:09
    正確には ある種の危険を
    察知し損なうということです
  • 0:09 - 0:11
    これから説明するシナリオは
  • 0:11 - 0:14
    私の考えでは
    恐ろしいと同時に
  • 0:14 - 0:17
    起こりそうなこと
    でもあります
  • 0:17 - 0:19
    ありがたくない
    組み合わせですね
  • 0:19 - 0:20
    考えてみたら
  • 0:20 - 0:23
    しかも 多くの人が
    それを恐れるよりは
  • 0:23 - 0:25
    素敵なことのように
    感じています
  • 0:25 - 0:28
    人工知能によって
    我々がどのように利益を得
  • 0:28 - 0:32
    そして最終的には
    破滅を招きかねないか お話しします
  • 0:32 - 0:34
    人工知能が
    人類を破滅させたり
  • 0:34 - 0:36
    自滅に追い込んだりしない
    シナリオは
  • 0:36 - 0:37
    実際 考えにくい気がします
  • 0:37 - 0:39
    それでも皆さんが
    私と同じなら
  • 0:39 - 0:42
    そういったことについて考えるのは
    楽しいことでしょう
  • 0:42 - 0:45
    その反応自体が問題なのです
  • 0:45 - 0:48
    そういう反応は
    懸念すべきです
  • 0:48 - 0:50
    仮にこの講演で
    私の訴えていることが
  • 0:50 - 0:54
    地球温暖化や
    何かの大異変のため
  • 0:54 - 0:57
    世界的な飢饉がやってくる
    ということだったとしましょう
  • 0:57 - 1:01
    私たちの孫や
    その孫の世代は
  • 1:01 - 1:03
    この写真のような
    有様になるんだと
  • 1:03 - 1:05
    その場合
    こうは思わないでしょう
  • 1:05 - 1:07
    「やあ 面白いな
  • 1:07 - 1:09
    このTEDトーク気に入ったよ」
  • 1:09 - 1:12
    飢饉は楽しいもの
    ではありません
  • 1:12 - 1:15
    一方で SFの中の破滅は
    楽しいものなのです
  • 1:15 - 1:19
    今の時点で AIの発展について
    私が最も懸念するのは
  • 1:19 - 1:21
    将来に待ち受けている
    危険に対して
  • 1:21 - 1:25
    我々が感情的に適切な反応を
    できずにいることです
  • 1:25 - 1:29
    こう話している私自身
    そういう反応をできずにいます
  • 1:30 - 1:33
    我々は2つの扉を前に
    立っているようなものです
  • 1:33 - 1:34
    1つ目の扉の先には
  • 1:34 - 1:37
    知的な機械の開発をやめるという
    道があります
  • 1:37 - 1:41
    ハードウェアやソフトウェアの進歩が
    何らかの理由で止まるのです
  • 1:41 - 1:45
    そういうことが起きうる要因を
    ちょっと考えてみましょう
  • 1:45 - 1:49
    自動化やインテリジェント化によって
    得られる価値を考えれば
  • 1:49 - 1:53
    人間は可能な限り
    テクノロジーを進歩させ続けるはずです
  • 1:53 - 1:56
    それが止まるとしたら
    理由は何でしょう?
  • 1:56 - 1:58
    全面核戦争とか
  • 1:59 - 2:01
    世界的な疫病の大流行とか
  • 2:02 - 2:04
    小惑星の衝突とか
  • 2:06 - 2:08
    ジャスティン・ビーバーの
    大統領就任とか
  • 2:08 - 2:11
    (笑)
  • 2:13 - 2:17
    要は 何かで現在の文明が
    崩壊する必要があるということです
  • 2:17 - 2:21
    それがどんなに ひどい事態であるはずか
    考えてみてください
  • 2:21 - 2:24
    技術の進歩を
  • 2:24 - 2:25
    幾世代にもわたり
  • 2:25 - 2:28
    半永久的に妨げるようなことです
  • 2:28 - 2:30
    ほぼ間違いなく
  • 2:30 - 2:32
    人類史上
    最悪の出来事でしょう
  • 2:32 - 2:34
    もう1つの選択肢
  • 2:34 - 2:36
    2番目の扉の
    向こうにあるのは
  • 2:36 - 2:39
    知的な機械の進歩が
  • 2:39 - 2:42
    ずっと続いていく未来です
  • 2:42 - 2:46
    するとどこかの時点で 人間よりも
    知的な機械を作ることになるでしょう
  • 2:46 - 2:48
    そしてひとたび
    人間より知的な機械が生まれたなら
  • 2:48 - 2:51
    機械は自分で
    進化していくでしょう
  • 2:51 - 2:53
    そうなると我々は 数学者
    I・J・グッドが言うところの
  • 2:53 - 2:55
    「知能爆発」の
    リスクに直面します
  • 2:55 - 2:58
    進歩のプロセスが
    人間の手を離れてしまうのです
  • 2:58 - 3:00
    それはこの絵のような
  • 3:00 - 3:04
    悪意を持つロボットの大群に
    襲われる恐怖として
  • 3:04 - 3:05
    よく戯画化されています
  • 3:05 - 3:08
    でもそれは ごくありそうな
    シナリオではないでしょう
  • 3:08 - 3:13
    別に機械が悪意に目覚めるという
    わけではありません
  • 3:13 - 3:15
    本当に 心配すべきなのは
  • 3:15 - 3:18
    人間よりもはるかに優れた
    機械を作ってしまうと
  • 3:18 - 3:21
    人間と機械の目的の
    ほんのわずかなズレによって
  • 3:21 - 3:24
    人類が破滅しかねないと
    いうことです
  • 3:24 - 3:26
    人類がアリのような存在になると
    考えるといいです
  • 3:27 - 3:28
    我々は アリが
    嫌いなわけではなく
  • 3:28 - 3:30
    わざわざ 潰しに
    行きはしません
  • 3:30 - 3:33
    潰してしまわないように
    気を遣いさえして
  • 3:33 - 3:35
    アリを避けて歩きます
  • 3:35 - 3:36
    でもアリの存在が
  • 3:36 - 3:39
    我々の目的と衝突した時—
  • 3:39 - 3:42
    たとえばこんな建造物を
    作るという場合には
  • 3:42 - 3:44
    良心の呵責なしに
    アリを全滅させてしまいます
  • 3:44 - 3:46
    私が懸念するのは
  • 3:46 - 3:49
    意識的にせよ無意識にせよ
  • 3:49 - 3:54
    人類をそのように軽く扱う機械を
    我々がいつか作ってしまうことです
  • 3:54 - 3:57
    考えすぎだと 多くの方は
    思っていることでしょう
  • 3:57 - 4:01
    超知的AIの実現可能性を
    疑問視し
  • 4:01 - 4:05
    ましてや不可避などとは
    思わない人もいるでしょう
  • 4:05 - 4:09
    でも それなら これから挙げる仮定に
    間違いを見つけてほしいものです
  • 4:09 - 4:11
    仮定は3つだけです
  • 4:12 - 4:17
    知性とは物質的なシステムにおける
    情報処理である
  • 4:17 - 4:20
    実際これは
    仮定以上のものです
  • 4:20 - 4:23
    狭い意味での知性なら
    もう機械で作り出されており
  • 4:23 - 4:25
    そのような機械はすでに
  • 4:25 - 4:29
    人間を超える水準に
    達しています
  • 4:29 - 4:31
    そして様々な分野にわたって
  • 4:31 - 4:34
    柔軟に思考できる能力である
    「汎用知能」は
  • 4:34 - 4:38
    物質で構成可能なことを
    我々は知っています
  • 4:38 - 4:41
    なぜなら人間の脳が
    そうだからです
  • 4:41 - 4:45
    ここにあるのは
    ただの原子の塊です
  • 4:45 - 4:49
    より知的な振る舞いをする
  • 4:49 - 4:52
    原子でできたシステムの構築を
    続けていくなら
  • 4:52 - 4:55
    何かで中断させられない限りは
  • 4:55 - 4:57
    いつか汎用知能を
  • 4:57 - 4:59
    機械で作り出すことに
    なるでしょう
  • 4:59 - 5:03
    重要なのは ここで進歩のスピードは
    問題ではないことです
  • 5:03 - 5:06
    どんな進歩であれ
    そこに至るのに十分だからです
  • 5:06 - 5:10
    ムーアの法則の持続も
    指数爆発的な進歩も必要ありません
  • 5:10 - 5:13
    ただ続けていくだけで
    いいのです
  • 5:13 - 5:17
    第2の仮定は
    人間が進み続けていくこと
  • 5:17 - 5:20
    我々が知的な機械の
    改良を続けていくことです
  • 5:21 - 5:25
    知性の価値を考えてください
  • 5:25 - 5:29
    知性は 我々が価値を置くもの
    すべての源泉
  • 5:29 - 5:32
    価値を置くものを守るために
    必要なものです
  • 5:32 - 5:34
    我々が持つ
    最も貴重なリソースです
  • 5:34 - 5:36
    我々は それを必要としています
  • 5:36 - 5:39
    我々は解決すべき問題を
    抱えています
  • 5:39 - 5:43
    アルツハイマーやガンのような病気を
    治したいと思っています
  • 5:43 - 5:47
    経済の仕組みを理解したい
    気象科学をもっと良くしたいと思っています
  • 5:47 - 5:50
    だから 可能であれば
    やるはずです
  • 5:50 - 5:53
    列車はすでに駅を出発していて
    ブレーキはありません
  • 5:54 - 5:59
    3番目は 人間は知性の
    頂点にはおらず
  • 5:59 - 6:02
    その近くにすら
    いないということ
  • 6:02 - 6:03
    これは重要な洞察であり
  • 6:03 - 6:06
    我々の状況を
    危うくするものです
  • 6:06 - 6:11
    これはまた リスクについての我々の勘が
    当てにならない理由でもあります
  • 6:11 - 6:14
    史上最も頭の良い人間について
    考えてみましょう
  • 6:15 - 6:18
    ほぼ必ず上がってくる名前に
    フォン・ノイマンがあります
  • 6:18 - 6:20
    ノイマンの周囲には
  • 6:20 - 6:23
    当時の 最も優れた数学者や
    物理学者がいたわけですが
  • 6:23 - 6:28
    人々がノイマンから受けた印象については
    いろいろ記述されています
  • 6:28 - 6:31
    ノイマンにまつわる話で 半分でも
    正しいものが 半分だけだったとしても
  • 6:31 - 6:32
    疑いなく彼は
  • 6:32 - 6:35
    これまでに生きた最も頭の良い
    人間の1人です
  • 6:35 - 6:38
    知能の分布を考えてみましょう
  • 6:38 - 6:41
    ここにフォン・ノイマンがいて
  • 6:41 - 6:44
    この辺に私や皆さんがいて
  • 6:44 - 6:46
    この辺にニワトリがいます
  • 6:46 - 6:47
    (笑)
  • 6:47 - 6:49
    失敬 ニワトリはこの辺です
  • 6:49 - 6:50
    (笑)
  • 6:50 - 6:54
    元々滅入る話をさらに滅入るものに
    することもないでしょう
  • 6:54 - 6:55
    (笑)
  • 6:56 - 7:00
    知能の分布には
    今の我々に想像できるよりも
  • 7:00 - 7:03
    はるかに大きな広がりが
    あることでしょう
  • 7:04 - 7:07
    そして我々が
    人間よりも知的な機械を作ったなら
  • 7:07 - 7:09
    それはこの知能の地平を
  • 7:09 - 7:12
    我々の想像が
    及ばないくらい遠くまで
  • 7:12 - 7:14
    進んでいくことでしょう
  • 7:15 - 7:19
    重要なのは スピードの点だけを取っても
    それは確かだということです
  • 7:19 - 7:22
    スタンフォードやMITの
  • 7:22 - 7:25
    平均的な研究者並みの
    知能を持つ
  • 7:25 - 7:30
    超知的AIができたとしましょう
  • 7:30 - 7:33
    電子回路は
    生化学的回路より
  • 7:33 - 7:35
    100万倍も高速に稼働します
  • 7:35 - 7:37
    その機械は
    それを作り出した頭脳よりも
  • 7:37 - 7:39
    100万倍速く
    働くということです
  • 7:39 - 7:42
    だから1週間稼働させておくと
  • 7:42 - 7:46
    人間並みの知的作業を
    2万年分こなすことになります
  • 7:46 - 7:48
    毎週毎週です
  • 7:50 - 7:52
    そのような進歩をする頭脳は
  • 7:52 - 7:56
    抑えるどころか理解することすら
    おぼつかないでしょう
  • 7:56 - 8:00
    正直言って 心配なことが
    他にもあります
  • 8:00 - 8:04
    それなら最良のシナリオは
    どんなものでしょう?
  • 8:04 - 8:08
    安全性について心配のない
    超知的AIのデザインを
  • 8:08 - 8:10
    思い付いたとします
  • 8:10 - 8:13
    完璧なデザインを
    最初に手にすることができた
  • 8:13 - 8:15
    神のお告げで
    与えられたかのように
  • 8:15 - 8:17
    まったく意図したとおりに
    振る舞います
  • 8:17 - 8:22
    その機械は人間の労働を不要にする
    完璧な装置になります
  • 8:22 - 8:24
    どんな肉体労働もこなす
    機械を作るための
  • 8:24 - 8:26
    機械をデザインでき
  • 8:26 - 8:27
    太陽光で稼働し
  • 8:27 - 8:30
    原材料費くらいしか
    かかりません
  • 8:30 - 8:33
    人間は苦役から
    解放されます
  • 8:33 - 8:37
    知的な仕事の多くすら
    不要になります
  • 8:37 - 8:40
    そのような状況で 我々のようなサルは
    何をするのでしょう?
  • 8:40 - 8:45
    気ままにフリスビーしたり
    マッサージし合ったりでしょうか
  • 8:46 - 8:49
    それにLSDと
    奇抜な服を加えるなら
  • 8:49 - 8:52
    世界中がバーニングマンの
    お祭りのようになるかもしれません
  • 8:52 - 8:53
    (笑)
  • 8:54 - 8:57
    それも結構かもしれませんが
  • 8:57 - 9:00
    現在の政治経済状況の元で
  • 9:00 - 9:03
    どんなことが起きるだろうか
    考えてみてください
  • 9:03 - 9:05
    経済格差や失業が
  • 9:05 - 9:08
    かつてない規模で生じる
  • 9:08 - 9:11
    可能性が高いでしょう
  • 9:11 - 9:12
    この新しい富を即座に
  • 9:12 - 9:15
    全人類に進んで
    提供する気がなければ
  • 9:16 - 9:19
    一握りの兆万長者が
    ビジネス誌の表紙を飾る一方で
  • 9:19 - 9:22
    残りの人々は
    飢えることになるでしょう
  • 9:22 - 9:25
    シリコンバレーの会社が
  • 9:25 - 9:28
    超知的AIを展開しようと
    していると聞いたら
  • 9:28 - 9:30
    ロシアや中国は
    どうするでしょう?
  • 9:30 - 9:32
    その機械は 地上戦であれ
    サイバー戦であれ
  • 9:32 - 9:34
    かつてない力でもって
  • 9:34 - 9:38
    戦争を遂行する
    能力があります
  • 9:38 - 9:40
    勝者がすべてを
    手にするシナリオです
  • 9:40 - 9:43
    競争で半年
    先んじることで
  • 9:43 - 9:45
    少なくとも50万年分
  • 9:45 - 9:47
    先を行くことが
    できるのです
  • 9:47 - 9:52
    そのような技術革新の
    噂だけでも
  • 9:52 - 9:55
    世界中が大騒ぎに
    なるでしょう
  • 9:55 - 9:57
    今の時点で私が
  • 9:57 - 10:00
    いちばんゾッとするのは
  • 10:00 - 10:04
    AI研究者が
    安心させようとして
  • 10:04 - 10:07
    言うたぐいのことです
  • 10:07 - 10:10
    心配すべきでない理由として
    よく言われるのは 時間です
  • 10:10 - 10:13
    そんなのは ずっと先の話で
  • 10:13 - 10:15
    50年とか100年も先の話だと
  • 10:16 - 10:17
    ある研究者は
  • 10:17 - 10:19
    「AIの安全性を懸念するのは
  • 10:19 - 10:22
    火星の人口過剰を心配するようなものだ」と
    言っています
  • 10:22 - 10:25
    これは「あなたの小さな頭を
    そんなことで悩ませないで」というやつの
  • 10:25 - 10:26
    シリコンバレー版です
  • 10:26 - 10:27
    (笑)
  • 10:27 - 10:30
    誰も気付いていない
    ように見えるのは
  • 10:30 - 10:32
    時間的スケールは
  • 10:32 - 10:35
    この際 無関係だと
    いうことです
  • 10:35 - 10:38
    知性の実体が
    情報処理にすぎず
  • 10:38 - 10:41
    人類が 機械の改良を
    続けていくなら
  • 10:41 - 10:44
    いずれ何らかの形の
    超知性を生み出すことになるでしょう
  • 10:44 - 10:48
    それを安全に行える
    条件を作り出すのに
  • 10:48 - 10:51
    どれくらい時間がかかるのか
    我々には 見当も付きません
  • 10:52 - 10:53
    もう一度言いましょう
  • 10:54 - 10:57
    それを安全に行える
    条件を作り出すのに
  • 10:57 - 11:01
    どれくらい時間がかかるのか
    我々には 見当も付きません
  • 11:01 - 11:04
    今の50年というのは
    かつての50年とは違っています
  • 11:04 - 11:07
    これは 50年を月の数で
    表したものです
  • 11:07 - 11:09
    これはiPhoneが
    登場してからの時間
  • 11:09 - 11:13
    これは『シンプソンズ』の放送が
    始まってからの時間
  • 11:13 - 11:15
    人類最大の難問に
    取り組む時間としては
  • 11:15 - 11:19
    50年というのは
    そんなに 長いものではありません
  • 11:20 - 11:23
    繰り返しになりますが
    必ずやってくると思われるものに対して
  • 11:23 - 11:27
    我々は感情的に適切な反応を
    できずにいるようです
  • 11:27 - 11:31
    コンピューター科学者のスチュワート・
    ラッセルが うまい例えをしています
  • 11:31 - 11:33
    異星の文明から
  • 11:33 - 11:37
    こんなメッセージを受け取ったと
    想像してください
  • 11:37 - 11:39
    「地球の諸君
  • 11:39 - 11:42
    あと50年で
    我々はそちらに着く
  • 11:42 - 11:43
    準備されたし」
  • 11:43 - 11:48
    我々は 彼らの母船が着陸する時を
    ただ指折り数えて待つのでしょうか?
  • 11:48 - 11:52
    もう少し 切迫感を抱くのでは
    ないかと思います
  • 11:52 - 11:55
    心配無用だとされる
    別の理由は
  • 11:55 - 11:58
    そういった機械は
    人間の延長であり
  • 11:58 - 12:00
    人間と同じ価値観を
    持つはずだというものです
  • 12:00 - 12:02
    我々の脳に接続され
  • 12:02 - 12:05
    人間はその辺縁系のような
    存在になるのだと
  • 12:05 - 12:07
    ちょっと考えてほしいんですが
  • 12:07 - 12:08
    最も安全で
  • 12:08 - 12:11
    唯一分別のあるやり方として
    勧められているのは
  • 12:11 - 12:15
    その技術を直接自分の脳に
    埋め込むことだと言うのです
  • 12:15 - 12:18
    それは実際に 最も安全で
    唯一分別のあるやり方なのかもしれませんが
  • 12:18 - 12:21
    テクノロジーに対する安全性の懸念は
    ふつうであれば—
  • 12:21 - 12:25
    頭に埋め込む前に解消されている
    べきではないでしょうか
  • 12:25 - 12:27
    (笑)
  • 12:27 - 12:32
    より根深い問題点は
    超知的AIを作ること自体は
  • 12:32 - 12:34
    超知的AIを作り
  • 12:34 - 12:36
    かつ それを人間の脳に
    統合するための
  • 12:36 - 12:39
    神経科学を
    完成させることよりは
  • 12:39 - 12:41
    簡単だろうことです
  • 12:41 - 12:44
    これに取り組む国や企業は
  • 12:44 - 12:47
    他の国や企業と競争を
    していると認識しており
  • 12:47 - 12:51
    勝者が全世界を
    手に入れられるのだとすれば—
  • 12:51 - 12:54
    次の瞬間に破滅させて
    いたら別ですが—
  • 12:54 - 12:55
    そのような状況においては
  • 12:55 - 12:58
    何にせよ簡単な方が
    先に成し遂げられることでしょう
  • 12:58 - 13:01
    あいにく 私はこの問題への答えを
    持ち合わせてはおらず
  • 13:01 - 13:04
    ただもっと考えてみるように
    お勧めするだけです
  • 13:04 - 13:07
    人工知能のための
    「マンハッタン計画」のようなものが
  • 13:07 - 13:08
    必要なのでは
    ないかと思います
  • 13:08 - 13:11
    作るためではありません
    それは不可避でしょうから
  • 13:11 - 13:14
    軍拡競争のようになるのを
    いかに避けられるか探り
  • 13:14 - 13:18
    人類の利益にかなうように
    それが作られるようにするためです
  • 13:18 - 13:20
    超知的AIが
  • 13:20 - 13:23
    自身を変えていけることを
    考えると
  • 13:23 - 13:27
    それを正しく作れるチャンスは
    1度しかないでしょう
  • 13:27 - 13:30
    しかもその上で
    それを正しくやるための
  • 13:30 - 13:33
    政治的・経済的な帰結を
    受け入れる必要があります
  • 13:34 - 13:37
    知性の源は情報処理だと—
  • 13:37 - 13:41
    知性の基礎をなしているのは
  • 13:41 - 13:46
    ある種の計算システムである
    ということを認め
  • 13:46 - 13:51
    人類がそういうシステムを継続的に
    改良していくだろうことを認め
  • 13:51 - 13:55
    そして認知の地平は
    我々に今分かっているよりも
  • 13:55 - 13:58
    はるか遠くまで
    続いているであろうことを認めるとき
  • 13:58 - 14:01
    我々はある種の神を
    作ろうとしていることを
  • 14:01 - 14:03
    認めないわけには
    いかないでしょう
  • 14:03 - 14:06
    その神が一緒にやっていける相手か
    確認したいなら
  • 14:06 - 14:08
    今がその時です
  • 14:08 - 14:10
    ありがとうございました
  • 14:10 - 14:15
    (拍手)
Title:
人間より優れた人工知能を作って制御を失わずにいることは可能か?
Speaker:
サム・ハリス
Description:

高度な知性を持つAI(人工知能)を怖いと感じますか? 神経科学者であり思想家であるサム・ハリスは、単に理論的な可能性としてでなく、実際に怖れるべきだと警告します。人間を超える知力を持つAIがやがて作られることになるが、人間がアリを扱うように人間を扱うAIを作ることの問題に、我々はきちんと向き合っていないと、彼は指摘します。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Japanese subtitles

Revisions