Return to Video

Не бойтесь сверхразумного искусственного интеллекта

  • 0:01 - 0:05
    В детстве я был типичным ботаником.
  • 0:05 - 0:07
    Думаю, некоторые из вас тоже.
  • 0:08 - 0:09
    (Смех)
  • 0:09 - 0:12
    А вы, смеётесь громче всех,
    наверняка таким и остались.
  • 0:12 - 0:14
    (Смех)
  • 0:14 - 0:18
    Я вырос в маленьком городке
    среди равнин Северного Техаса.
  • 0:18 - 0:21
    Мой отец был шерифом, а дед — пастором.
  • 0:21 - 0:24
    Никаких вариантов бедокурить.
  • 0:24 - 0:27
    Поэтому ради забавы я начал читать
    книги по математическому анализу.
  • 0:28 - 0:29
    (Смех)
  • 0:29 - 0:31
    И вы — тоже!
  • 0:31 - 0:34
    Благодаря этому я сконструировал
    в своей комнате лазер,
  • 0:34 - 0:38
    компьютер и модель,
    а потом и топливо для ракеты.
  • 0:39 - 0:41
    Научный термин для этого —
  • 0:42 - 0:45
    очень плохая идея.
  • 0:45 - 0:46
    (Смех)
  • 0:46 - 0:48
    Как раз в то время
  • 0:48 - 0:51
    вышел фильм Стенли Кубрика
    «Космическая одиссея 2001 года»,
  • 0:52 - 0:54
    он кардинально изменил мою жизнь.
  • 0:54 - 0:57
    Мне нравилось в этом фильме
    абсолютно всё,
  • 0:57 - 0:59
    особенно HAL 9000.
  • 0:59 - 1:01
    HAL был разумным компьютером,
  • 1:01 - 1:03
    управляющим космическим
    кораблём Discovery,
  • 1:04 - 1:06
    направляющимся от Земли к Юпитеру.
  • 1:06 - 1:08
    У него был небезупречный характер,
  • 1:09 - 1:12
    и в итоге человеческой жизни
    он предпочёл миссию.
  • 1:13 - 1:15
    HAL был вымышленным персонажем,
  • 1:15 - 1:17
    но тем не менее, он вызывает страх,
  • 1:18 - 1:20
    страх быть порабощённым
  • 1:20 - 1:23
    бесчувственным искусственным интеллектом,
  • 1:23 - 1:25
    равнодушным к человеку.
  • 1:26 - 1:28
    Я считаю, такие страхи безосновательны.
  • 1:29 - 1:31
    В самом деле, мы живём
    в удивительное время
  • 1:31 - 1:33
    в человеческой истории,
  • 1:33 - 1:38
    когда, не принимая ограничения
    наших тел и нашего разума,
  • 1:38 - 1:39
    мы создаём механизмы
  • 1:39 - 1:43
    изумительной, невероятной
    сложности и тонкости,
  • 1:43 - 1:45
    которые расширят способности человека
  • 1:45 - 1:47
    за грани нашего воображения.
  • 1:48 - 1:50
    Начав карьеру в Академии ВВС,
  • 1:50 - 1:52
    продолжив в Космическом
    командовании ВС США,
  • 1:52 - 1:54
    я стал инженером-системотехником.
  • 1:54 - 1:57
    А в настоящее время занимаюсь
    инженерными разработками,
  • 1:57 - 1:59
    связанными с миссией НАСА на Марсе.
  • 1:59 - 2:02
    Сейчас в полётах на Луну
  • 2:02 - 2:05
    мы можем полагаться
    на управление полётами в Хьюстоне,
  • 2:05 - 2:07
    чтобы следить за всеми аспектами полёта.
  • 2:07 - 2:10
    Однако Марс в 200 раз дальше Луны,
  • 2:11 - 2:14
    и поэтому сигнал от Земли к Марсу
  • 2:14 - 2:17
    идёт в среднем 13 минут.
  • 2:17 - 2:20
    Случись какая-то неполадка,
    времени не хватит.
  • 2:21 - 2:23
    Поэтому разумное инженерное решение —
  • 2:23 - 2:26
    разместить центр управления полётами
  • 2:26 - 2:29
    внутри космического корабля Orion.
  • 2:29 - 2:32
    Другая увлекательная идея для миссии —
  • 2:32 - 2:35
    отправить роботов-гуманоидов на Марс
  • 2:35 - 2:37
    до прилёта людей:
  • 2:37 - 2:38
    сначала они построят базы,
  • 2:38 - 2:42
    а потом будут помогать научной команде.
  • 2:43 - 2:46
    Когда я посмотрел на это как инженер,
  • 2:46 - 2:49
    стало ясно, что нужно спроектировать
  • 2:49 - 2:51
    умный, способный к сотрудничеству,
  • 2:52 - 2:54
    социально-сознательный
    искусственный интеллект.
  • 2:54 - 2:58
    Другими словами, нужно было создать
    что-то очень похожее на HAL,
  • 2:58 - 3:01
    но без склонности к убийствам.
  • 3:01 - 3:02
    (Смех)
  • 3:03 - 3:05
    Давайте на минуту остановимся.
  • 3:05 - 3:09
    Реально ли сделать такой
    искусственный интеллект?
  • 3:09 - 3:10
    Вполне.
  • 3:10 - 3:11
    Во многом
  • 3:11 - 3:13
    это сложная инженерная задача
  • 3:13 - 3:15
    с использованием ИИ,
  • 3:15 - 3:19
    а не запутанный клубок проблем ИИ,
    который нужно распутать.
  • 3:20 - 3:22
    Перефразируя Алана Туринга,
  • 3:22 - 3:25
    я не собираюсь создавать разумного робота.
  • 3:25 - 3:26
    Я не собираюсь создавать HAL.
  • 3:26 - 3:29
    Мне всего лишь нужен простой разум
  • 3:29 - 3:32
    с иллюзией интеллекта.
  • 3:33 - 3:36
    Искусство и наука о вычислительной
    технике прошли долгий путь
  • 3:36 - 3:38
    с появления HAL на экранах,
  • 3:38 - 3:41
    и я представляю, сколько вопросов
    возникло бы у его изобретателя
  • 3:41 - 3:43
    д-ра Чандра, будь он сейчас здесь.
  • 3:43 - 3:45
    Возможно ли на самом деле
  • 3:45 - 3:49
    взять систему из миллионов устройств,
  • 3:49 - 3:51
    прочитать их потоки данных,
  • 3:51 - 3:53
    предугадать их ошибки и заранее исправить?
  • 3:53 - 3:54
    Да.
  • 3:54 - 3:57
    Можно ли создать механизмы,
    которые говорят на человеческом языке?
  • 3:58 - 3:59
    Да.
  • 3:59 - 4:02
    Создать механизмы, способные
    распознавать объекты, эмоции,
  • 4:02 - 4:05
    выражать свои эмоции,
    играть и даже читать по губам?
  • 4:05 - 4:06
    Да.
  • 4:06 - 4:09
    Механизмы, которые смогут
    формулировать цели,
  • 4:09 - 4:12
    составлять планы для их достижения
    и учиться в процессе их выполнения?
  • 4:12 - 4:13
    Да.
  • 4:14 - 4:17
    Можем ли мы создать механизмы,
    способные понимать чужое сознание?
  • 4:17 - 4:18
    Мы работаем над этим.
  • 4:19 - 4:22
    Можем ли мы создать механизмы
    с этическими и нравственными основами?
  • 4:22 - 4:25
    Это задача для нас на будущее.
  • 4:25 - 4:27
    Давайте на минуту представим
  • 4:27 - 4:29
    возможность создания
    такого искусственного разума
  • 4:30 - 4:32
    именно для таких целей, и не только.
  • 4:32 - 4:34
    Следующий вопрос, который вы
    должны себе задать:
  • 4:34 - 4:36
    а следует ли нам его бояться?
  • 4:36 - 4:38
    Любая новая технология
  • 4:38 - 4:41
    вызывает некоторое беспокойство.
  • 4:41 - 4:42
    Когда впервые появились автомобили,
  • 4:43 - 4:46
    люди переживали, что это разрушит семьи.
  • 4:47 - 4:49
    Когда появились телефоны,
  • 4:49 - 4:52
    люди боялись, что перестанут
    общаться вживую.
  • 4:52 - 4:56
    В какой-то момент мы увидели,
    что распространилась письменность,
  • 4:56 - 4:59
    и подумали, что потеряем
    способность к запоминанию.
  • 4:59 - 5:01
    В этом есть доля истины,
  • 5:01 - 5:03
    но также правда и то, что эти технологии
  • 5:03 - 5:06
    привели нас к огромнейшему расширению
  • 5:07 - 5:08
    сознания и возможностей человека.
  • 5:10 - 5:12
    Давайте пойдём дальше.
  • 5:13 - 5:18
    Я не боюсь появления ИИ
    с такими возможностями,
  • 5:18 - 5:22
    потому что со временем он
    вберёт в себя наши ценности.
  • 5:22 - 5:25
    Подумайте, создание мыслящей
    системы принципиально отличается
  • 5:25 - 5:29
    от создания традиционных систем,
    требующих множества программ.
  • 5:29 - 5:31
    Мы не программируем ИИ. Мы его обучаем.
  • 5:31 - 5:34
    Чтобы научить систему распознать цветок,
  • 5:34 - 5:37
    я показываю ей тысячи цветов,
    которые нравятся мне.
  • 5:37 - 5:39
    Чтобы научить систему, как играть...
  • 5:39 - 5:41
    Ну, я бы научил. Вы бы тоже.
  • 5:43 - 5:45
    Ну же! Я люблю цветы.
  • 5:45 - 5:48
    Чтобы научить систему играть,
    например, в игру го,
  • 5:48 - 5:50
    ей нужно сыграть в неё тысячи раз,
  • 5:50 - 5:52
    но в процессе я буду обучать её
  • 5:52 - 5:54
    отличать хорошую игру от плохой.
  • 5:55 - 5:58
    Если я захочу создать
    помощника юриста с ИИ,
  • 5:58 - 6:00
    я познакомлю его с законодательством,
  • 6:00 - 6:03
    при этом обучая его
  • 6:03 - 6:06
    милосердию и справедливости,
    которые являются частью закона.
  • 6:07 - 6:09
    Специалисты называют это
    контрольными данными,
  • 6:10 - 6:11
    и вот что самое важное:
  • 6:12 - 6:13
    создавая эти машины,
  • 6:13 - 6:16
    мы прививаем им наши ценности.
  • 6:17 - 6:20
    И с этой точки зрения
    я доверяю ИИ столь же,
  • 6:20 - 6:23
    если не больше, чем человеку
    с хорошим воспитанием.
  • 6:24 - 6:25
    Но вы можете спросить:
  • 6:25 - 6:28
    а как насчёт неконтролируемых лиц,
  • 6:28 - 6:31
    например, хорошо финансируемых
    неправительственных организаций?
  • 6:31 - 6:35
    Я не боюсь ИИ в руках таких одиночек.
  • 6:35 - 6:39
    Очевидно, мы не можем защитить себя
    от всех случайных актов насилия,
  • 6:40 - 6:42
    но на деле такая система требует
  • 6:42 - 6:45
    значительной подготовки
    и тщательного обучения,
  • 6:45 - 6:47
    что далеко за пределами частных ресурсов.
  • 6:47 - 6:48
    Более того,
  • 6:49 - 6:52
    это сложнее, чем распространить
    интернет-вирус по всему миру,
  • 6:52 - 6:55
    когда достаточно нажать кнопку —
    и он повсюду,
  • 6:55 - 6:57
    везде начинают взрываться компьютеры.
  • 6:57 - 7:00
    Эти вещи гораздо глобальнее,
  • 7:00 - 7:02
    и мы обязательно их увидим.
  • 7:03 - 7:05
    Боюсь ли я, что такой
    искусственный интеллект
  • 7:06 - 7:08
    станет угрозой для человечества?
  • 7:08 - 7:12
    Если вспомнить фильмы
    «Матрица», «Метрополь»,
  • 7:13 - 7:16
    «Терминатор», сериал «Западный мир»,
  • 7:16 - 7:18
    во всех говорится о подобном страхе.
  • 7:18 - 7:22
    Философ Ник Бостром
    в книге «Искусственный интеллект»
  • 7:22 - 7:24
    поднимает эту проблему
  • 7:24 - 7:28
    и пишет, что ИИ может
    быть не только опасен,
  • 7:28 - 7:32
    он может быть угрозой
    существованию человечества.
  • 7:32 - 7:34
    Главный аргумент Бострома:
  • 7:34 - 7:37
    со временем у этих машин появится
  • 7:37 - 7:40
    ненасытная жажда информации,
  • 7:40 - 7:43
    они, возможно, научатся
    учиться самостоятельно
  • 7:43 - 7:46
    и в конце концов обнаружат,
    что у них могут быть цели,
  • 7:46 - 7:48
    которые противоречат
    потребностям человека.
  • 7:48 - 7:50
    У Бострома есть последователи.
  • 7:50 - 7:54
    Его поддерживают такие люди,
    как Элон Маск и Стивен Хокинг.
  • 7:55 - 7:57
    При всём уважении
  • 7:58 - 8:00
    к этим выдающимся умам,
  • 8:00 - 8:02
    я всё-таки полагаю, что они ошибаются.
  • 8:02 - 8:06
    Можно поспорить со многими
    аргументами Бострома,
  • 8:06 - 8:08
    и у меня нет на это времени,
  • 8:08 - 8:10
    но вкратце, знайте,
  • 8:11 - 8:14
    что сверхзнание — не то же самое,
    что сверхвозможности.
  • 8:14 - 8:16
    HAL был угрозой для экипажа Discovery
  • 8:16 - 8:20
    только пока он контролировал
    управление Discovery.
  • 8:21 - 8:23
    То же и с суперинтеллектом.
  • 8:23 - 8:26
    Он должен будет господствовать над миром.
  • 8:26 - 8:28
    Как Скайнет из фильма «Терминатор»,
  • 8:29 - 8:30
    где суперинтеллект
  • 8:30 - 8:32
    командовал человеком,
  • 8:32 - 8:36
    который управлял каждым устройством
    в любой части мира.
  • 8:36 - 8:37
    На практике
  • 8:37 - 8:39
    такого не произойдёт.
  • 8:39 - 8:42
    Мы не создаём ИИ,
    который контролирует погоду,
  • 8:42 - 8:44
    управляет приливами,
  • 8:44 - 8:47
    командует нами, непредсказуемыми людьми.
  • 8:47 - 8:51
    И даже если такой ИИ и появился бы,
  • 8:51 - 8:54
    ему пришлось бы иметь дело
    с нашей экономикой
  • 8:54 - 8:57
    и конкурировать с нами
    за владение ресурсами.
  • 8:57 - 8:58
    И наконец,
  • 8:58 - 9:00
    не говорите об этом Siri.
  • 9:00 - 9:02
    Всегда можно их отключить.
  • 9:02 - 9:04
    (Смех)
  • 9:05 - 9:08
    Мы эволюционируем с нашими машинами,
  • 9:08 - 9:10
    и это — невероятное путешествие.
  • 9:10 - 9:13
    Человек станет
  • 9:13 - 9:15
    совершенно другим в будущем.
  • 9:15 - 9:18
    Беспокоиться из-за суперинтеллекта —
  • 9:19 - 9:22
    во многом опасная трата времени,
  • 9:22 - 9:24
    потому что сама компьютеризация
  • 9:24 - 9:27
    поднимает общечеловеческие
    и социальные проблемы,
  • 9:27 - 9:29
    которые мы должны разрешить.
  • 9:29 - 9:32
    Как лучше организовать общество,
  • 9:32 - 9:35
    когда уменьшается необходимость
    в человеческом труде?
  • 9:35 - 9:38
    Как добиться взаимопонимания
    и дать образование всему миру,
  • 9:38 - 9:40
    при этом учитывая различия?
  • 9:40 - 9:44
    Как продлить и улучшить жизнь
    через разумное здравоохранение?
  • 9:44 - 9:47
    Как с помощью компьютеров
  • 9:47 - 9:49
    достичь звёзд?
  • 9:50 - 9:52
    И вот это вдохновляет.
  • 9:52 - 9:55
    Возможность использовать компьютеры
  • 9:55 - 9:56
    для расширения опыта человека
  • 9:56 - 9:58
    вполне достижима
  • 9:58 - 9:59
    здесь и сейчас.
  • 10:00 - 10:01
    Мы стоим в самом начале пути.
  • 10:02 - 10:04
    Большое спасибо.
  • 10:04 - 10:08
    (Аплодисменты)
Title:
Не бойтесь сверхразумного искусственного интеллекта
Speaker:
Грэйди Буч
Description:

«Новые технологии порождают тревогу, — говорит учёный и философ Грэйди Буч. — Но не нужно бояться всемогущего, бесчувственного ИИ». Буч разоблачает наши худшие страхи о сверхразумных компьютерах, основанные на научной фантастике. Он объясняет, как мы обучим их нашим ценностям (а не запрограммируем). Вместо того, чтобы беспокоиться о маловероятной угрозе нашему существованию, он призывает задуматься о том, как искусственный интеллект поспособствует улучшению человеческой жизни.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Russian subtitles

Revisions