Return to Video

Можем ли мы создать ИИ и сохранить над ним контроль?

  • 0:01 - 0:03
    Я хочу поговорить
    о неспособности к интуиции,
  • 0:03 - 0:05
    от которой страдают многие из нас.
  • 0:05 - 0:09
    Фактически, это неспособность
    распознавать определённую опасность.
  • 0:09 - 0:11
    Я опишу сценарий,
  • 0:11 - 0:14
    который назвал бы
    одновременно пугающим
  • 0:14 - 0:16
    и вполне вероятным,
  • 0:17 - 0:18
    и это не хорошее сочетание,
  • 0:19 - 0:19
    как выясняется.
  • 0:20 - 0:23
    Всё же вместо того, чтобы пугаться,
    многие подумают,
  • 0:23 - 0:25
    что то, о чём я говорю, здóрово.
  • 0:25 - 0:28
    Я расскажу, как наши достижения
  • 0:28 - 0:30
    в развитии искусственного интеллекта
  • 0:30 - 0:32
    могут в итоге нас уничтожить.
  • 0:32 - 0:35
    По-моему, вообще трудно понять,
    как они могут нас не уничтожить
  • 0:35 - 0:37
    или не побудить к самоуничтожению.
  • 0:37 - 0:39
    Всё же, если вы в чём-то схожи со мной,
  • 0:39 - 0:42
    то вам нравится думать о таких вещах.
  • 0:42 - 0:45
    И эта реакция — часть проблемы.
  • 0:45 - 0:47
    Эта реакция должна вас беспокоить.
  • 0:48 - 0:51
    И если бы мне надо было убедить вас,
  • 0:51 - 0:54
    что нам грозит всемирный голод
  • 0:54 - 0:57
    из-за изменения климата
    или некой другой катастрофы
  • 0:57 - 1:01
    и что ваши внуки или их внуки,
  • 1:01 - 1:02
    вероятно, будут жить вот так,
  • 1:03 - 1:04
    вы бы не подумали:
  • 1:05 - 1:07
    «Интересно.
  • 1:07 - 1:08
    Хорошее выступление».
  • 1:09 - 1:11
    В голоде нет ничего забавного.
  • 1:12 - 1:15
    Смерть от научной фантастики,
    с другой стороны, — это круто,
  • 1:15 - 1:19
    и меня очень сильно беспокоит
    на данном этапе развития ИИ
  • 1:19 - 1:23
    наша неспособность к выстраиванию
    подобающей эмоциональной реакции
  • 1:23 - 1:25
    на ожидающие нас опасности.
  • 1:25 - 1:28
    Я сам не могу выстроить эту реакцию,
    потому и говорю об этом.
  • 1:30 - 1:33
    Как будто мы стои́м перед двумя дверьми.
  • 1:33 - 1:34
    За первой дверью
  • 1:34 - 1:37
    у нас останавливается прогресс
    в создании интеллектуальных устройств.
  • 1:37 - 1:41
    Аппаратное и программное обеспечение
    почему-то больше не становится лучше.
  • 1:41 - 1:44
    Теперь на секунду задумайтесь,
    почему это может произойти.
  • 1:45 - 1:49
    Ведь учитывая, насколько ценны
    интеллект и автоматизация,
  • 1:49 - 1:52
    мы продолжим совершенствовать
    технологии, пока способны на это.
  • 1:53 - 1:55
    Что может нас остановить?
  • 1:56 - 1:58
    Полномасштабная ядерная война?
  • 1:59 - 2:01
    Глобальная пандемия?
  • 2:02 - 2:04
    Падение астероида?
  • 2:06 - 2:08
    Избрание Джастина Бибера президентом США?
  • 2:08 - 2:11
    (Смех)
  • 2:13 - 2:17
    Суть в том, что что-то должно будет
    уничтожить цивилизацию в нашем понимании.
  • 2:17 - 2:22
    Только представьте себе,
    насколько всё должно быть плохо,
  • 2:22 - 2:25
    чтобы мы перестали
    совершенствовать технологии
  • 2:25 - 2:26
    навсегда,
  • 2:26 - 2:28
    на все грядущие поколения.
  • 2:28 - 2:30
    Практически по определению
    это худшее,
  • 2:30 - 2:32
    что может случиться с человечеством.
  • 2:33 - 2:34
    Единственная альтернатива,
  • 2:34 - 2:36
    которая и находится за второй дверью, —
  • 2:36 - 2:39
    продолжение совершенствования
    интеллектуальных устройств
  • 2:39 - 2:41
    из года в год.
  • 2:42 - 2:45
    В какой-то момент мы создадим
    устройства, которые будут умнее нас,
  • 2:46 - 2:49
    и когда такие устройства появятся,
  • 2:49 - 2:51
    они начнут улучшать себя сами.
  • 2:51 - 2:53
    И тогда появится риск того,
    что математик И. Д. Гуд называл
  • 2:53 - 2:55
    «взрывом интеллекта» —
  • 2:55 - 2:57
    риск утраты нами контроля над процессом.
  • 2:58 - 3:01
    Это часто изображают
    в виде подобных картинок,
  • 3:01 - 3:04
    пугающих армиями злых роботов,
  • 3:04 - 3:05
    которые нападут на нас.
  • 3:05 - 3:08
    Но это не самый вероятный сценарий.
  • 3:08 - 3:13
    Проблема не в том, что наша техника
    внезапно рассвирепеет.
  • 3:13 - 3:16
    Беспокоит на самом деле то,
    что мы создаём устройства,
  • 3:16 - 3:18
    которые настолько нас превосходят,
  • 3:18 - 3:22
    что малейшее расхождение
    между их целями и нашими
  • 3:22 - 3:23
    может нас уничтожить.
  • 3:24 - 3:26
    Подумайте о том, как мы
    относимся к муравьям.
  • 3:27 - 3:28
    Мы не ненавидим их.
  • 3:28 - 3:30
    Мы не лезем из кожи вон,
    чтобы навредить им.
  • 3:30 - 3:33
    На самом деле, иногда мы
    стараемся не навредить им.
  • 3:33 - 3:35
    Мы перешагиваем их на тротуаре.
  • 3:35 - 3:37
    Но если вдруг их присутствие
  • 3:37 - 3:39
    серьёзно мешает нашим целям,
  • 3:39 - 3:42
    например, если мы
    строим здание вроде этого,
  • 3:42 - 3:44
    мы без колебаний их истребляем.
  • 3:44 - 3:47
    Беспокоит то, что однажды
    мы создадим устройства,
  • 3:47 - 3:50
    которые независимо
    от наличия у них сознания
  • 3:50 - 3:52
    могут так же пренебречь нами.
  • 3:54 - 3:57
    Я подозреваю, многим из вас
    это кажется надуманным.
  • 3:57 - 4:03
    Уверен, среди вас есть сомневающиеся
    в возможности сверхразумного ИИ,
  • 4:03 - 4:05
    не говоря уж о его неизбежности.
  • 4:05 - 4:09
    Значит, вы не согласны
    с одним из следующих допущений.
  • 4:09 - 4:11
    Их всего три.
  • 4:12 - 4:17
    Интеллект — это результат обработки
    информации в физической системе.
  • 4:17 - 4:20
    На самом деле это немного больше,
    чем допущение.
  • 4:20 - 4:23
    Мы заложили ограниченный интеллект
    в свои технологии,
  • 4:23 - 4:25
    и многие из них уже работают
  • 4:25 - 4:28
    на уровне сверхчеловеческого интеллекта.
  • 4:29 - 4:31
    И мы знаем, что из одной лишь материи
  • 4:31 - 4:34
    возможно развитие так называемого
    «общего интеллекта» —
  • 4:34 - 4:38
    способности к гибкому мышлению
    в разных сферах,
  • 4:38 - 4:41
    потому что на это способен наш мозг.
    Так?
  • 4:41 - 4:45
    Я имею в виду: здесь всего лишь атомы,
  • 4:45 - 4:49
    и покуда мы продолжаем
    создавать системы из атомов,
  • 4:49 - 4:52
    проявляющие всё более разумное поведение,
  • 4:52 - 4:55
    в итоге мы — если ничто не помешает —
  • 4:55 - 4:58
    в итоге мы наделим общим интеллектом
  • 4:58 - 4:59
    свои устройства.
  • 4:59 - 5:03
    Очень важно осознавать,
    что темп прогресса не важен,
  • 5:03 - 5:06
    потому что любой прогресс
    может привести нас к конечному итогу.
  • 5:06 - 5:10
    Нам не нужно, чтобы закон Мура работал.
    Нам не нужен экспоненциальный прогресс.
  • 5:10 - 5:12
    Нам просто нужно не останавливаться.
  • 5:13 - 5:16
    Второе предположение —
    что мы не остановимся.
  • 5:17 - 5:20
    Мы продолжим улучшать
    свои интеллектуальные устройства.
  • 5:21 - 5:25
    И, учитывая ценность интеллекта —
  • 5:25 - 5:29
    ведь интеллект либо порождает всё,
    что мы ценим,
  • 5:29 - 5:32
    либо нужен нам для защиты всего,
    что мы ценим, —
  • 5:32 - 5:34
    это наш ценнейший ресурс.
  • 5:34 - 5:36
    Поэтому мы хотим этим заниматься.
  • 5:36 - 5:39
    У нас есть проблемы,
    которые непременно нужно решить.
  • 5:39 - 5:42
    Мы хотим излечить болезни
    вроде Альцгеймера и рака.
  • 5:43 - 5:47
    Мы хотим понимать экономические системы.
    Мы хотим больше знать о климате.
  • 5:47 - 5:49
    Так что мы это сделаем, если сможем.
  • 5:49 - 5:52
    Поезд уже тронулся, и тóрмоза нет.
  • 5:54 - 5:59
    Наконец, мы не на пике интеллекта
  • 5:59 - 6:01
    и даже не близко к нему, вероятно.
  • 6:02 - 6:04
    И это действительно важно понимать.
  • 6:04 - 6:06
    Именно из-за этого
    наша система так уязвима,
  • 6:06 - 6:10
    а наши интуитивные оценки риска
    так ненадёжны.
  • 6:11 - 6:14
    Теперь представьте умнейшего
    из когда-либо живших людей.
  • 6:15 - 6:18
    Почти все среди прочих называют
    Джона фон Неймана.
  • 6:18 - 6:21
    Ведь впечатление, которое фон Нейман
    производил на окружающих,
  • 6:21 - 6:25
    в том числе величайших математиков
    и физиков своего времени,
  • 6:26 - 6:27
    очень хорошо задокументировано.
  • 6:27 - 6:31
    Если половина историй о нём
    хотя бы наполовину правдивы,
  • 6:31 - 6:32
    сомнений нет:
  • 6:33 - 6:35
    он один из умнейших людей,
    когда-либо живших.
  • 6:35 - 6:38
    Подумайте о диапазоне
    интеллектуальных способностей.
  • 6:38 - 6:40
    Здесь у нас Джон фон Нейман.
  • 6:42 - 6:43
    Здесь мы с вами.
  • 6:44 - 6:45
    А здесь курица.
  • 6:45 - 6:47
    (Смех)
  • 6:47 - 6:49
    Прошу прощения.
    Курица.
  • 6:49 - 6:50
    (Смех)
  • 6:50 - 6:54
    Ни к чему делать эту лекцию
    более депрессивной, чем надо.
  • 6:54 - 6:55
    (Смех)
  • 6:56 - 7:00
    Однако кажется чрезвычайно вероятным,
    что интеллект варьируется
  • 7:00 - 7:03
    в куда бóльших масштабах,
    чем мы себе сейчас представляем,
  • 7:04 - 7:07
    и если мы создадим устройства,
    которые будут умнее нас,
  • 7:07 - 7:09
    они, очень вероятно,
    будут осваивать эти масштабы
  • 7:09 - 7:11
    невообразимыми для нас способами
  • 7:11 - 7:14
    и превзойдут нас невообразимыми способами.
  • 7:15 - 7:19
    И важно признавать, что это верно
    в силу одной только скорости.
  • 7:19 - 7:24
    Так? Представьте, что мы построили
    сверхразумный ИИ,
  • 7:24 - 7:28
    который не умнее
    среднестатистической группы учёных
  • 7:28 - 7:30
    из Стэнфорда или МТИ.
  • 7:30 - 7:33
    Электронные схемы примерно
    в миллион раз быстрее
  • 7:33 - 7:34
    биохимических,
  • 7:35 - 7:38
    поэтому машина будет думать
    в миллион раз быстрее,
  • 7:38 - 7:39
    чем создавший её разум.
  • 7:40 - 7:41
    Вы запускаете её на неделю,
  • 7:41 - 7:46
    и она выполняет 20 000-летнюю
    работу интеллекта человеческого уровня
  • 7:46 - 7:48
    неделю за неделей.
  • 7:50 - 7:53
    Как мы только можем понять,
    не говоря о том, чтобы сдержать,
  • 7:53 - 7:55
    ум, работающий с подобной скоростью?
  • 7:57 - 7:59
    Ещё беспокоит, если честно,
  • 7:59 - 8:04
    вот что: представьте себе
    наилучший сценарий.
  • 8:04 - 8:08
    Представьте, что у нас в распоряжении
    проект сверхразумного ИИ,
  • 8:08 - 8:10
    не угрожающего безопасности.
  • 8:10 - 8:13
    У нас сразу оказывается
    идеальная разработка.
  • 8:13 - 8:15
    Как будто она дана нам свыше
  • 8:15 - 8:17
    и работает точно так, как задумано.
  • 8:17 - 8:21
    Это устройство было бы идеально
    для снижения трудозатрат.
  • 8:22 - 8:24
    Оно может придумать машину,
    которая построит машину,
  • 8:24 - 8:26
    которая сможет делать физическую работу,
  • 8:26 - 8:27
    питаясь энергией солнца
  • 8:27 - 8:30
    приблизительно по цене сырья.
  • 8:30 - 8:33
    Это означает конец
    изматывающей работы для людей.
  • 8:33 - 8:36
    Это также означает конец
    большей части умственной работы.
  • 8:37 - 8:40
    А что такие приматы, как мы,
    делают в такой ситуации?
  • 8:40 - 8:44
    Ну, мы сможем играть во фрисби
    и делать друг другу массаж.
  • 8:46 - 8:49
    Добавьте немного ЛСД
    и немного смелых нарядов,
  • 8:49 - 8:51
    и мир будет похож
    на фестиваль «Burning Man».
  • 8:51 - 8:53
    (Смех)
  • 8:54 - 8:56
    Возможно, звучит неплохо,
  • 8:57 - 9:00
    но спроси́те себя, что бы случилось
  • 9:00 - 9:02
    при нынешнем
    экономико-политическом устройстве?
  • 9:02 - 9:05
    Кажется вероятным,
    что мы станем свидетелями
  • 9:05 - 9:09
    такого уровня имущественного неравенства
    и безработицы,
  • 9:09 - 9:11
    какого не наблюдали раньше.
  • 9:11 - 9:13
    В отсутствие желания
    сразу поставить новые блага
  • 9:13 - 9:15
    на службу человечеству
  • 9:16 - 9:19
    несколько магнатов смогут
    украшать обложки деловых журналов,
  • 9:19 - 9:22
    пока остальные будут голодать.
  • 9:22 - 9:24
    Что бы сделали русские или китайцы,
  • 9:24 - 9:27
    узнав, что некая компания
    в Силиконовой долине
  • 9:27 - 9:30
    на грани внедрения сверхразумного ИИ?
  • 9:30 - 9:33
    Такое устройство могло бы
    спровоцировать войну,
  • 9:33 - 9:35
    наземную или кибер-войну
  • 9:35 - 9:37
    беспрецедентного размаха.
  • 9:38 - 9:40
    Это сценарий, в котором
    победитель получает всё.
  • 9:40 - 9:43
    Полугодовое преимущество
    в такой конкуренции —
  • 9:43 - 9:46
    всё равно что преимущество в 500 000 лет
  • 9:46 - 9:47
    как минимум.
  • 9:47 - 9:52
    Поэтому представляется,
    что даже слухи о такого рода прорыве
  • 9:52 - 9:55
    могут привести человечество в неистовство.
  • 9:55 - 9:58
    Одна из самых пугающих вещей,
  • 9:58 - 10:00
    как мне кажется, на данный момент —
  • 10:00 - 10:05
    это те слова, которые твердят
    все исследователи ИИ,
  • 10:05 - 10:06
    когда хотят звучать обнадёживающе.
  • 10:07 - 10:10
    И чаще всего нас просят
    не беспокоиться по причине времени.
  • 10:10 - 10:13
    До этого ещё далеко, если вы не знали.
  • 10:13 - 10:15
    До этого, вероятно, ещё лет 50 или 100.
  • 10:16 - 10:17
    Один исследователь сказал:
  • 10:17 - 10:19
    «Волноваться о безопасности ИИ —
  • 10:19 - 10:21
    всё равно что волноваться
    о перенаселении Марса».
  • 10:22 - 10:24
    В Силиконовой долине это означает:
  • 10:24 - 10:26
    «не морочь этим свою милую головку».
  • 10:26 - 10:27
    (Смех)
  • 10:28 - 10:29
    Кажется, что никто не замечает,
  • 10:29 - 10:32
    что ссылаться на отдалённость во времени —
  • 10:32 - 10:35
    нарушение всякой логики.
  • 10:35 - 10:38
    Если интеллект — лишь результат
    обработки информации
  • 10:38 - 10:41
    и мы продолжим совершенствовать технику,
  • 10:41 - 10:44
    мы создадим некую форму сверхинтеллекта.
  • 10:44 - 10:48
    И мы не имеем понятия,
    сколько времени займёт
  • 10:48 - 10:50
    создание для этого безопасных условий.
  • 10:52 - 10:53
    Позвольте повторить.
  • 10:54 - 10:57
    Мы не имеем понятия,
    сколько времени займёт
  • 10:57 - 11:00
    создание для этого безопасных условий.
  • 11:01 - 11:04
    И если вы не заметили,
    50 лет — не те 50 лет, что раньше.
  • 11:04 - 11:07
    Вот 50 лет по месяцам.
  • 11:07 - 11:09
    Вот так давно у нас есть iPhone.
  • 11:09 - 11:12
    Так долго «Симпсонов» показывают по ТВ.
  • 11:13 - 11:15
    Пятьдесят лет — не так много
  • 11:15 - 11:18
    для решения одной из важнейших
    для нашего вида задач.
  • 11:20 - 11:24
    Опять же, нам не удаётся выстроить
    подобающую эмоциональную реакцию
  • 11:24 - 11:26
    на то, что по всем признакам
    нам предстоит.
  • 11:26 - 11:30
    Специалист в области информатики
    Стюарт Рассел провёл хорошую аналогию.
  • 11:30 - 11:35
    Он предложил представить, что мы получили
    послание от внеземной цивилизации,
  • 11:35 - 11:37
    в котором говорится:
  • 11:37 - 11:39
    «Земляне,
  • 11:39 - 11:41
    мы прибудем на вашу планету через 50 лет.
  • 11:42 - 11:43
    Готовьтесь».
  • 11:43 - 11:48
    И теперь мы просто считаем месяцы
    до посадки их корабля-носителя?
  • 11:48 - 11:51
    Мы бы немножко больше суетились.
  • 11:53 - 11:55
    Ещё мы якобы не должны
    волноваться потому,
  • 11:55 - 11:58
    что эти машины
    не могут не разделять наши ценности,
  • 11:58 - 12:00
    так как будут буквально
    дополнениями к нам самим.
  • 12:00 - 12:02
    Они будут присоединены к нашему мозгу,
  • 12:02 - 12:04
    и мы по сути станем
    их лимбической системой.
  • 12:05 - 12:07
    Теперь на миг задумайтесь,
  • 12:07 - 12:10
    что самый безопасный и единственно
    благоразумный путь,
  • 12:10 - 12:11
    по рекомендациям, —
  • 12:11 - 12:14
    имплантация этой технологии прямо в мозг.
  • 12:15 - 12:18
    Это действительно может быть самым
    безопасным и благоразумным путём,
  • 12:18 - 12:21
    но обычно озабоченность
    безопасностью технологии
  • 12:21 - 12:25
    нужно развеивать до того,
    как запихивать её себе в голову.
  • 12:25 - 12:27
    (Смех)
  • 12:27 - 12:32
    Более глубокая проблема в том, что
    создание сверхразумного ИИ как такового
  • 12:32 - 12:34
    кажется намного легче,
  • 12:34 - 12:36
    чем создание сверхразумного ИИ
  • 12:36 - 12:38
    и всех нейротехнологий,
  • 12:38 - 12:40
    необходимых для их бесшовной
    интеграции с нашим разумом.
  • 12:41 - 12:44
    Учитывая, что компании и правительства,
    ведущие эту работу,
  • 12:44 - 12:48
    могут представлять себя участниками
    гонки против всех остальных
  • 12:48 - 12:51
    и для них выиграть гонку
    значит выиграть весь мир,
  • 12:51 - 12:53
    учитывая, что вы не уничтожите его
    через секунду,
  • 12:53 - 12:56
    тогда вероятным кажется,
    что самое простое
  • 12:56 - 12:58
    будет сделано в первую очередь.
  • 12:59 - 13:01
    К сожалению, у меня нет решения
    этой проблемы,
  • 13:01 - 13:04
    кроме рекомендации, чтобы больше людей
    задумывались о ней.
  • 13:04 - 13:06
    Я думаю, нам нужно что-то вроде
    проекта «Манхэттен»
  • 13:06 - 13:08
    в области искусственного интеллекта.
  • 13:09 - 13:11
    Не чтобы его создать —
    я думаю, это неизбежно случится, —
  • 13:11 - 13:15
    а чтобы понять, как избежать
    гонки вооружений
  • 13:15 - 13:18
    и создать его так,
    чтобы это совпало с нашими интересами.
  • 13:18 - 13:20
    Когда говоришь о сверхразумном ИИ,
  • 13:20 - 13:23
    который может менять себя сам,
  • 13:23 - 13:27
    кажется, что есть только одна попытка
    для создания правильных начальных условий,
  • 13:27 - 13:29
    и даже тогда нам нужно совладать
  • 13:29 - 13:32
    с экономико-политическими
    последствиями их правильного создания.
  • 13:34 - 13:36
    Но как только мы признаем,
  • 13:36 - 13:40
    что источник интеллекта —
    обработка информации,
  • 13:41 - 13:46
    что интеллект основан на некой
    подходящей вычислительной системе,
  • 13:46 - 13:50
    и признаем, что будем совершенствовать
    эти системы непрерывно
  • 13:51 - 13:56
    и что предел сознания, весьма вероятно,
    намного дальше,
  • 13:56 - 13:57
    чем мы сейчас представляем,
  • 13:58 - 13:59
    тогда мы должны признать,
  • 13:59 - 14:02
    что мы в процессе создания
    своего рода бога.
  • 14:03 - 14:05
    Теперь самое время
  • 14:05 - 14:07
    убедиться, что мы сможем с ним ужиться.
  • 14:08 - 14:10
    Большое спасибо.
  • 14:10 - 14:15
    (Аплодисменты)
Title:
Можем ли мы создать ИИ и сохранить над ним контроль?
Speaker:
Сэм Харрис
Description:

Сверхразумный искусственный интеллект внушает страх? Так и должно быть, говорит нейробиолог и философ Сэм Харрис, и не только в гипотетической перспективе. Мы неминуемо создадим машины со сверхчеловеческими способностями, говорит Харрис, но мы ещё не решили проблемы, связанные с созданием того, что, возможно, станет обращаться с нами так же, как мы обращаемся с муравьями.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Russian subtitles

Revisions Compare revisions