Return to Video

Не бійтеся надрозумного штучного інтелекту

  • 0:01 - 0:05
    Коли я був малим,
    я був еталонним "ботаніком".
  • 0:05 - 0:07
    Думаю, деякі з вас
    теж такими були.
  • 0:08 - 0:09
    (Сміх)
  • 0:09 - 0:12
    А ви, пане, що сміявся найголосніше,
    ним, мабуть, і залишились.
  • 0:12 - 0:14
    (Сміх)
  • 0:14 - 0:18
    Я ріс у маленькому містечку
    на запиленій рівнині північного Техасу,
  • 0:18 - 0:21
    син шерифа, який був сином пастора.
  • 0:21 - 0:23
    Вскочити в якусь халепу
    було не варіант.
  • 0:24 - 0:27
    І тому заради розваги
    я почав читати книжки з обчислення.
  • 0:27 - 0:29
    (Сміх)
  • 0:29 - 0:31
    Ви також це робили?
  • 0:31 - 0:34
    Це призвело до того, що я зробив лазер,
    і комп'ютер, і модель ракети,
  • 0:34 - 0:37
    і це призвело до того, що я зробив
    ракетне паливо в спальні.
  • 0:38 - 0:42
    Науковою мовою
  • 0:42 - 0:45
    ми називаємо це
    дуже поганою ідеєю.
  • 0:45 - 0:46
    (Сміх)
  • 0:46 - 0:48
    Приблизно в той самий час
  • 0:48 - 0:52
    "2001: Космічна Одісея" Стенлі Кубрика
    з'явилась в кінотеатрах,
  • 0:52 - 0:54
    і моє життя назавжди змінилось.
  • 0:54 - 0:56
    Мені все подобалось у тому фільмі,
  • 0:56 - 0:59
    особливо ХАЛ 9000.
  • 0:59 - 1:01
    ХАЛ був кмітливим комп'ютером,
  • 1:01 - 1:04
    призаченим направляти
    космічний корабель Дискавері
  • 1:04 - 1:06
    з Землі на Юпітер.
  • 1:06 - 1:08
    ХАЛ також був персонажем з недоліками,
  • 1:08 - 1:12
    бо врешті вирішив, що місія
    важливіша за людське життя.
  • 1:13 - 1:15
    ХАЛ був вигаданим персонажем,
  • 1:15 - 1:18
    проте він говорить з нашими страхами,
  • 1:18 - 1:20
    зі страхом бути підкореним
  • 1:20 - 1:23
    позбавленим почуттів штучним інтелектом,
  • 1:23 - 1:25
    що є байдужим до людства.
  • 1:26 - 1:28
    Я вважаю, що такі страхи безпідставні.
  • 1:28 - 1:31
    Насправді ми живемо в неймовірний час
  • 1:31 - 1:33
    людської історії,
  • 1:33 - 1:38
    де, відмовляючись визнати
    обмеження свого тіла і розуму,
  • 1:38 - 1:39
    ми будуємо машини
  • 1:39 - 1:43
    фантастичної, немислимої
    складності та величі,
  • 1:43 - 1:45
    які розширять досвід людини так,
  • 1:45 - 1:47
    що зараз і не уявити.
  • 1:47 - 1:50
    Після кар'єри, яка привела мене
    з Академії повітряних сил
  • 1:50 - 1:52
    до Космічного командування,
  • 1:52 - 1:54
    я обійняв посаду
    системного інженера
  • 1:54 - 1:57
    і нещодавно мене залучили до
    інженерної проблеми,
  • 1:57 - 1:59
    пов'язаною з місією на Марс НАСА.
  • 1:59 - 2:02
    Під час польотів на Місяць
  • 2:02 - 2:05
    ми можемо покладатись
    на керування місією в Хьюстоні,
  • 2:05 - 2:07
    що спостерігатиме
    за всіма особливостями польоту.
  • 2:07 - 2:11
    Однак Марс у 200 разів
    віддаленіший,
  • 2:11 - 2:14
    і тому потрібно в середньому
    13 хвилин,
  • 2:14 - 2:17
    щоб сигнал подолав відстань
    від Землі до Марсу.
  • 2:17 - 2:20
    Якщо виникне проблема,
    часу забракне.
  • 2:21 - 2:23
    І тому розумним інженерним рішенням
  • 2:23 - 2:26
    є розмістити контроль над місією
  • 2:26 - 2:29
    всередині космічного корабля Оріон.
  • 2:29 - 2:32
    Ще одна чудова ідея
    в організації місії -
  • 2:32 - 2:35
    помістити робота-гуманоїда
    на поверхню Марсу
  • 2:35 - 2:37
    перед тим, як туди прибуде людина, -
  • 2:37 - 2:38
    спочатку
    побудувати споруди,
  • 2:38 - 2:42
    а згодом служити одним із членів
    наукової команди.
  • 2:43 - 2:46
    Коли я подивився на це
    з точки зору інженерії,
  • 2:46 - 2:49
    мені стало зрозуміло,
    що мені потрібно створити
  • 2:49 - 2:52
    розумний, здатний до співпраці,
  • 2:52 - 2:54
    соціально розумний
    штучний інтелект.
  • 2:54 - 2:58
    Іншими словами, мені потрібно побудувати
    щось дуже схоже на ХАЛа,
  • 2:58 - 3:01
    але без схильності до вбивств.
  • 3:01 - 3:02
    (Сміх)
  • 3:03 - 3:05
    Зупинімося на хвилину.
  • 3:05 - 3:09
    Чи можливо ось так просто
    створити штучний інтелект?
  • 3:09 - 3:10
    Власне, так.
  • 3:10 - 3:11
    З багатьох міркувань
  • 3:11 - 3:13
    це складне інженерне завдання
  • 3:13 - 3:15
    стосовно штучного інтелекту,
  • 3:15 - 3:20
    не якась скажена кулька,
    що має бути спроектована.
  • 3:20 - 3:22
    Якщо перефразувати Алана Тюрінґа,
  • 3:22 - 3:25
    я не зацікавлений в будуванні
    кмітливої машини.
  • 3:25 - 3:26
    Я не будую ХАЛА.
  • 3:26 - 3:29
    Все, що я хочу, - простий мозок,
  • 3:29 - 3:32
    що може створювати
    відчуття інтелекту.
  • 3:33 - 3:36
    Мистецтво і наука програмування
    пройшли довгий шлях
  • 3:36 - 3:38
    з того часу, як ХАЛ
    з'явився на екрані
  • 3:38 - 3:41
    і я можу уявити, якщо б його винахідник
    доктор Чандра був тут сьогодні,
  • 3:41 - 3:43
    скільки він мав би до нас питань.
  • 3:43 - 3:45
    Чи дійсно ми можемо
  • 3:45 - 3:49
    змусити мільйони і мільйони
    приладів
  • 3:49 - 3:51
    зчитувати потоки даних,
  • 3:51 - 3:53
    передбачувати власні помилки
    і діяти заздалегідь?
  • 3:53 - 3:54
    Так.
  • 3:54 - 3:58
    Чи вміємо ми будувати системи,
    які спілкуються природною мовою?
  • 3:58 - 3:59
    Так.
  • 3:59 - 4:02
    Чи ми вміємо будувати системи,
    які розрізняють об'єкти, емоції,
  • 4:02 - 4:05
    відчувають емоції самі,
    грають в ігри чи навіть читають по губах?
  • 4:05 - 4:06
    Так.
  • 4:06 - 4:09
    Чи можемо збудувати систему, яка
    ставить перед собою цілі,
  • 4:09 - 4:12
    яка будує плани відносно цих цілей
    і навчається одночасно?
  • 4:12 - 4:14
    Так.
  • 4:14 - 4:17
    Чи вміємо будувати системи,
    що моделюють психіку людини?
  • 4:17 - 4:18
    Ми вчимося це робити.
  • 4:18 - 4:22
    Чи вміємо будувати системи,
    які мають етичні та моральні засади?
  • 4:22 - 4:25
    Ми маємо цього навчитись.
  • 4:25 - 4:27
    Тож припустімо на мить,
  • 4:27 - 4:30
    що можна побудувати
    штучний інтелект
  • 4:30 - 4:32
    для цього типу місії та подібних.
  • 4:32 - 4:34
    Наступне питання,
    яке ви маєте поставити:
  • 4:34 - 4:36
    чи слід його боятися?
  • 4:36 - 4:38
    Кожна нова технологія
  • 4:38 - 4:41
    тягне за собою
    певне занепокоєння.
  • 4:41 - 4:42
    Коли ми вперше побачили авто,
  • 4:43 - 4:47
    люди галасували, що з цього почнеться
    руйнування сім'ї.
  • 4:47 - 4:49
    Коли ми вперше побачили телефони,
  • 4:49 - 4:52
    люди були стурбовані, що вони зруйнують
    всі повсякденні розмови.
  • 4:52 - 4:56
    Коли ми побачили, що
    письмове слово стало поширеним,
  • 4:56 - 4:59
    люди думали, що ми втратимо
    вміння запам'ятовувати.
  • 4:59 - 5:01
    Усі ці речі до певної міри правдиві,
  • 5:01 - 5:03
    але водночас ці технології
  • 5:03 - 5:07
    принесли нам винаходи,
    які якісно поглибили людський досвід -
  • 5:07 - 5:08
    до нового рівня.
  • 5:10 - 5:12
    Тому міркуймо далі.
  • 5:13 - 5:18
    Я не боюсь створення
    подібного штучного інтелекту,
  • 5:18 - 5:22
    оскільки, зрештою,
    він вбере в себе деякі наші цінності.
  • 5:22 - 5:25
    Задумайтесь: побудова когнітивної
    системи фундаментально відрізняється
  • 5:25 - 5:29
    від побудови традиційного
    програмного забезпечення минулого.
  • 5:29 - 5:31
    Ми не програмуємо їх.
    Ми їх вчимо.
  • 5:31 - 5:34
    Щоб навчити систему
    розпізнавати квіти,
  • 5:34 - 5:37
    я показую їй тисячу квітів,
    які мені подобаються.
  • 5:37 - 5:39
    Щоб навчити систему
    грати у гру --
  • 5:39 - 5:41
    Ну, я б показував. Ви б теж.
  • 5:43 - 5:45
    Я люблю квіти. Ну справді.
  • 5:45 - 5:48
    Щоб навчити систему, як
    грати у гру - наприклад, го -
  • 5:48 - 5:50
    мені б довелося зіграти
    тисячі партій в го,
  • 5:50 - 5:52
    але в процесі я також навчаю її,
  • 5:52 - 5:54
    як відрізнити
    хорошу партію від поганої.
  • 5:55 - 5:58
    Якщо я хочу створити штучний інтелект,
    який допомагає в правових питаннях,
  • 5:58 - 6:00
    мені потрібно навчити його законам,
  • 6:00 - 6:03
    але водночас я вливаю туди
  • 6:03 - 6:06
    почуття милосердя і справедливості,
    що є частиною закону.
  • 6:07 - 6:10
    Науковці називають це
    фундаментальною правдою,
  • 6:10 - 6:12
    і тут є важливий момент:
  • 6:12 - 6:13
    створюючи ці машини,
  • 6:13 - 6:16
    ми водночас вчимо їх
    нашим цінностям.
  • 6:17 - 6:20
    І через це я довіряю
    штучному інтелекту
  • 6:20 - 6:23
    так само, якщо не більше,
    ніж добре навченій людині.
  • 6:24 - 6:25
    Але ви можете запитати,
  • 6:25 - 6:28
    а що ж щодо шахраїв,
  • 6:28 - 6:31
    якихось добре фінансованих
    неурядових організацій?
  • 6:31 - 6:35
    Я не боюсь штучного інтелекту
    в руках самотнього вовка.
  • 6:35 - 6:40
    Зрозуміло, ми не можемо захистити себе
    від всіх актів насильства,
  • 6:40 - 6:42
    але реальність є такою системою,
  • 6:42 - 6:45
    яка вимагає суттєвої підготовки
    і тонкого навчання,
  • 6:45 - 6:47
    для яких окремій людині
    забракне ресурсів.
  • 6:47 - 6:49
    І більше того,
  • 6:49 - 6:52
    це набагато складніше, ніж просто
    пустити інтернет-вірус у світ,
  • 6:52 - 6:55
    де ти натискаєш кнопку -
    і ось він у мільйоні місць,
  • 6:55 - 6:57
    і ноутбуки починають вибухати усюди.
  • 6:57 - 7:00
    Але такі події
    є значно масштабнішими,
  • 7:00 - 7:02
    і ми обов'язково зможемо їх помітити.
  • 7:03 - 7:06
    Чи я боюсь, що
    такий штучний інтелект
  • 7:06 - 7:08
    може загрожувати всьому людству?
  • 7:08 - 7:13
    Якщо ви подивитесь такі фільми,
    як "Матриця", "Метрополіс",
  • 7:13 - 7:16
    "Термінатор", серіал
    "Західний світ",
  • 7:16 - 7:18
    вони всі розповідають про такий страх.
  • 7:18 - 7:22
    Насправді, у своїй книжці "Суперрозум"
    філософ Нік Бостром
  • 7:22 - 7:24
    порушує цю тему
  • 7:24 - 7:28
    і стверджує, що суперрозум може
    не тільки бути небезпечним,
  • 7:28 - 7:32
    він може становити екзистенційну
    загрозу людству.
  • 7:32 - 7:34
    Головним аргументом доктора Бострома
  • 7:34 - 7:37
    є те, що така система одного разу
  • 7:37 - 7:40
    матиме таку ненаситну спрагу
    до інформації,
  • 7:40 - 7:43
    що вона, можливо, навчиться вчитися -
  • 7:43 - 7:46
    і врешті зрозуміє,
    що вона може ставити цілі,
  • 7:46 - 7:48
    які суперечать потребам людства.
  • 7:48 - 7:50
    У доктора Бострома
    є багато прихильників.
  • 7:50 - 7:54
    Його підтримують такі люди,
    як Ілон Маск і Стівен Гокінґ.
  • 7:55 - 7:57
    З усією повагою
  • 7:58 - 8:00
    до цих блискучих розумів,
  • 8:00 - 8:02
    я думаю, що вони
    серйозно помиляються.
  • 8:02 - 8:06
    Є багато аргументів доктора Бострома,
    що варто обговорити,
  • 8:06 - 8:08
    і в мене немає часу розглядати їх усі,
  • 8:08 - 8:11
    але дуже стисло:
  • 8:11 - 8:14
    неймовірне знання дуже відрізняється
    від неймовірних дій.
  • 8:14 - 8:16
    ХАЛ був загрозою для команди Дискавері,
  • 8:16 - 8:21
    оскільки ХАЛ керував усіма
    аспектами Дискавері.
  • 8:21 - 8:23
    Тому йому потрібно було мати
    суперрозум.
  • 8:23 - 8:26
    Йому довелось би панувати в усьому світі.
  • 8:26 - 8:29
    Це випадок Скайнет
    з фільму "Термінатор",
  • 8:29 - 8:30
    в якому був суперрозум,
  • 8:30 - 8:32
    який контролював людську волю,
  • 8:32 - 8:36
    направляв кожен пристрій
    в будь-якому куточку світу.
  • 8:36 - 8:37
    З практичної точки зору,
  • 8:37 - 8:39
    цього ніколи не станеться.
  • 8:39 - 8:42
    Ми не будуємо штучних інтелектів,
    які контролюють погоду,
  • 8:42 - 8:44
    які направляють хвилі,
  • 8:44 - 8:47
    які командують нами -
    примхливими, хаотичними людьми.
  • 8:47 - 8:51
    І більше того, якщо б такий
    штучний інтелект справді існував,
  • 8:51 - 8:54
    йому б доводилось конкурувати
    з людською економікою,
  • 8:54 - 8:57
    а значить, конкурувати з нами за ресурси.
  • 8:57 - 8:58
    І зрештою -
  • 8:58 - 9:00
    не кажіть Сірі цього -
  • 9:00 - 9:02
    ми завжди можемо їх вимкнути.
  • 9:02 - 9:04
    (Сміх)
  • 9:05 - 9:08
    Ми в неймовірній подорожі
  • 9:08 - 9:10
    співеволюції з нашими машинами.
  • 9:10 - 9:13
    Люди, якими ми є сьогодні,
  • 9:13 - 9:15
    відрізняються від людей,
    якими ми станемо завтра.
  • 9:15 - 9:19
    Хвилюватися тепер
    про розвиток суперрозуму -
  • 9:19 - 9:22
    досить небезпечне відволікання,
  • 9:22 - 9:24
    бо розвиток комп'ютерів як такий
  • 9:24 - 9:27
    порушує багато
    гуманітарних і суспільних проблем,
  • 9:27 - 9:29
    на які нам треба звернути увагу.
  • 9:29 - 9:32
    Як краще організувати суспільство,
  • 9:32 - 9:35
    коли потреба в людській праці
    зменшується?
  • 9:35 - 9:38
    Як донести порозуміння й освіту
    до всіх куточків планети
  • 9:38 - 9:40
    і поважати при цьому наші відмінності?
  • 9:40 - 9:44
    Як поліпшити і продовжити людське життя
    за допомогою охорони когнітивного здоров'я?
  • 9:44 - 9:47
    Як використати комп'ютери,
  • 9:47 - 9:49
    щоб привели нас до зірок?
  • 9:50 - 9:52
    Ось що цікаво.
  • 9:52 - 9:55
    Можливості використати обчислювання
  • 9:55 - 9:56
    для поліпшення людського досвіду
  • 9:56 - 9:58
    доступні нам
  • 9:58 - 10:00
    тут і тепер,
  • 10:00 - 10:01
    і це тільки початок.
  • 10:02 - 10:03
    Дуже дякую.
  • 10:04 - 10:08
    (Оплески)
Title:
Не бійтеся надрозумного штучного інтелекту
Speaker:
Ґраді Буч
Description:

Нові технології породжують нові страхи, каже науковець і філософ Ґраді Буч, але не треба боятися всемогутнього позбавленого почуттів штучного інтелекту. Буч заспокоює наш найбільший (спровокований науковою фантастикою) страх надрозумних комп'ютерів, пояснюючи, як ми не програмуватимемо їх, а навчатимемо - і навчимо поділяти наші цінності. Замість того, щоб перейматися малоймовірною екзистенційною загрозою, він закликає замислитися, як саме штучний інтелект покращить людське життя.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Ukrainian subtitles

Revisions