Не бійтеся надрозумного штучного інтелекту
-
0:01 - 0:05Коли я був малим,
я був еталонним "ботаніком". -
0:05 - 0:07Думаю, деякі з вас
теж такими були. -
0:08 - 0:09(Сміх)
-
0:09 - 0:12А ви, пане, що сміявся найголосніше,
ним, мабуть, і залишились. -
0:12 - 0:14(Сміх)
-
0:14 - 0:18Я ріс у маленькому містечку
на запиленій рівнині північного Техасу, -
0:18 - 0:21син шерифа, який був сином пастора.
-
0:21 - 0:23Вскочити в якусь халепу
було не варіант. -
0:24 - 0:27І тому заради розваги
я почав читати книжки з обчислення. -
0:27 - 0:29(Сміх)
-
0:29 - 0:31Ви також це робили?
-
0:31 - 0:34Це призвело до того, що я зробив лазер,
і комп'ютер, і модель ракети, -
0:34 - 0:37і це призвело до того, що я зробив
ракетне паливо в спальні. -
0:38 - 0:42Науковою мовою
-
0:42 - 0:45ми називаємо це
дуже поганою ідеєю. -
0:45 - 0:46(Сміх)
-
0:46 - 0:48Приблизно в той самий час
-
0:48 - 0:52"2001: Космічна Одісея" Стенлі Кубрика
з'явилась в кінотеатрах, -
0:52 - 0:54і моє життя назавжди змінилось.
-
0:54 - 0:56Мені все подобалось у тому фільмі,
-
0:56 - 0:59особливо ХАЛ 9000.
-
0:59 - 1:01ХАЛ був кмітливим комп'ютером,
-
1:01 - 1:04призаченим направляти
космічний корабель Дискавері -
1:04 - 1:06з Землі на Юпітер.
-
1:06 - 1:08ХАЛ також був персонажем з недоліками,
-
1:08 - 1:12бо врешті вирішив, що місія
важливіша за людське життя. -
1:13 - 1:15ХАЛ був вигаданим персонажем,
-
1:15 - 1:18проте він говорить з нашими страхами,
-
1:18 - 1:20зі страхом бути підкореним
-
1:20 - 1:23позбавленим почуттів штучним інтелектом,
-
1:23 - 1:25що є байдужим до людства.
-
1:26 - 1:28Я вважаю, що такі страхи безпідставні.
-
1:28 - 1:31Насправді ми живемо в неймовірний час
-
1:31 - 1:33людської історії,
-
1:33 - 1:38де, відмовляючись визнати
обмеження свого тіла і розуму, -
1:38 - 1:39ми будуємо машини
-
1:39 - 1:43фантастичної, немислимої
складності та величі, -
1:43 - 1:45які розширять досвід людини так,
-
1:45 - 1:47що зараз і не уявити.
-
1:47 - 1:50Після кар'єри, яка привела мене
з Академії повітряних сил -
1:50 - 1:52до Космічного командування,
-
1:52 - 1:54я обійняв посаду
системного інженера -
1:54 - 1:57і нещодавно мене залучили до
інженерної проблеми, -
1:57 - 1:59пов'язаною з місією на Марс НАСА.
-
1:59 - 2:02Під час польотів на Місяць
-
2:02 - 2:05ми можемо покладатись
на керування місією в Хьюстоні, -
2:05 - 2:07що спостерігатиме
за всіма особливостями польоту. -
2:07 - 2:11Однак Марс у 200 разів
віддаленіший, -
2:11 - 2:14і тому потрібно в середньому
13 хвилин, -
2:14 - 2:17щоб сигнал подолав відстань
від Землі до Марсу. -
2:17 - 2:20Якщо виникне проблема,
часу забракне. -
2:21 - 2:23І тому розумним інженерним рішенням
-
2:23 - 2:26є розмістити контроль над місією
-
2:26 - 2:29всередині космічного корабля Оріон.
-
2:29 - 2:32Ще одна чудова ідея
в організації місії - -
2:32 - 2:35помістити робота-гуманоїда
на поверхню Марсу -
2:35 - 2:37перед тим, як туди прибуде людина, -
-
2:37 - 2:38спочатку
побудувати споруди, -
2:38 - 2:42а згодом служити одним із членів
наукової команди. -
2:43 - 2:46Коли я подивився на це
з точки зору інженерії, -
2:46 - 2:49мені стало зрозуміло,
що мені потрібно створити -
2:49 - 2:52розумний, здатний до співпраці,
-
2:52 - 2:54соціально розумний
штучний інтелект. -
2:54 - 2:58Іншими словами, мені потрібно побудувати
щось дуже схоже на ХАЛа, -
2:58 - 3:01але без схильності до вбивств.
-
3:01 - 3:02(Сміх)
-
3:03 - 3:05Зупинімося на хвилину.
-
3:05 - 3:09Чи можливо ось так просто
створити штучний інтелект? -
3:09 - 3:10Власне, так.
-
3:10 - 3:11З багатьох міркувань
-
3:11 - 3:13це складне інженерне завдання
-
3:13 - 3:15стосовно штучного інтелекту,
-
3:15 - 3:20не якась скажена кулька,
що має бути спроектована. -
3:20 - 3:22Якщо перефразувати Алана Тюрінґа,
-
3:22 - 3:25я не зацікавлений в будуванні
кмітливої машини. -
3:25 - 3:26Я не будую ХАЛА.
-
3:26 - 3:29Все, що я хочу, - простий мозок,
-
3:29 - 3:32що може створювати
відчуття інтелекту. -
3:33 - 3:36Мистецтво і наука програмування
пройшли довгий шлях -
3:36 - 3:38з того часу, як ХАЛ
з'явився на екрані -
3:38 - 3:41і я можу уявити, якщо б його винахідник
доктор Чандра був тут сьогодні, -
3:41 - 3:43скільки він мав би до нас питань.
-
3:43 - 3:45Чи дійсно ми можемо
-
3:45 - 3:49змусити мільйони і мільйони
приладів -
3:49 - 3:51зчитувати потоки даних,
-
3:51 - 3:53передбачувати власні помилки
і діяти заздалегідь? -
3:53 - 3:54Так.
-
3:54 - 3:58Чи вміємо ми будувати системи,
які спілкуються природною мовою? -
3:58 - 3:59Так.
-
3:59 - 4:02Чи ми вміємо будувати системи,
які розрізняють об'єкти, емоції, -
4:02 - 4:05відчувають емоції самі,
грають в ігри чи навіть читають по губах? -
4:05 - 4:06Так.
-
4:06 - 4:09Чи можемо збудувати систему, яка
ставить перед собою цілі, -
4:09 - 4:12яка будує плани відносно цих цілей
і навчається одночасно? -
4:12 - 4:14Так.
-
4:14 - 4:17Чи вміємо будувати системи,
що моделюють психіку людини? -
4:17 - 4:18Ми вчимося це робити.
-
4:18 - 4:22Чи вміємо будувати системи,
які мають етичні та моральні засади? -
4:22 - 4:25Ми маємо цього навчитись.
-
4:25 - 4:27Тож припустімо на мить,
-
4:27 - 4:30що можна побудувати
штучний інтелект -
4:30 - 4:32для цього типу місії та подібних.
-
4:32 - 4:34Наступне питання,
яке ви маєте поставити: -
4:34 - 4:36чи слід його боятися?
-
4:36 - 4:38Кожна нова технологія
-
4:38 - 4:41тягне за собою
певне занепокоєння. -
4:41 - 4:42Коли ми вперше побачили авто,
-
4:43 - 4:47люди галасували, що з цього почнеться
руйнування сім'ї. -
4:47 - 4:49Коли ми вперше побачили телефони,
-
4:49 - 4:52люди були стурбовані, що вони зруйнують
всі повсякденні розмови. -
4:52 - 4:56Коли ми побачили, що
письмове слово стало поширеним, -
4:56 - 4:59люди думали, що ми втратимо
вміння запам'ятовувати. -
4:59 - 5:01Усі ці речі до певної міри правдиві,
-
5:01 - 5:03але водночас ці технології
-
5:03 - 5:07принесли нам винаходи,
які якісно поглибили людський досвід - -
5:07 - 5:08до нового рівня.
-
5:10 - 5:12Тому міркуймо далі.
-
5:13 - 5:18Я не боюсь створення
подібного штучного інтелекту, -
5:18 - 5:22оскільки, зрештою,
він вбере в себе деякі наші цінності. -
5:22 - 5:25Задумайтесь: побудова когнітивної
системи фундаментально відрізняється -
5:25 - 5:29від побудови традиційного
програмного забезпечення минулого. -
5:29 - 5:31Ми не програмуємо їх.
Ми їх вчимо. -
5:31 - 5:34Щоб навчити систему
розпізнавати квіти, -
5:34 - 5:37я показую їй тисячу квітів,
які мені подобаються. -
5:37 - 5:39Щоб навчити систему
грати у гру -- -
5:39 - 5:41Ну, я б показував. Ви б теж.
-
5:43 - 5:45Я люблю квіти. Ну справді.
-
5:45 - 5:48Щоб навчити систему, як
грати у гру - наприклад, го - -
5:48 - 5:50мені б довелося зіграти
тисячі партій в го, -
5:50 - 5:52але в процесі я також навчаю її,
-
5:52 - 5:54як відрізнити
хорошу партію від поганої. -
5:55 - 5:58Якщо я хочу створити штучний інтелект,
який допомагає в правових питаннях, -
5:58 - 6:00мені потрібно навчити його законам,
-
6:00 - 6:03але водночас я вливаю туди
-
6:03 - 6:06почуття милосердя і справедливості,
що є частиною закону. -
6:07 - 6:10Науковці називають це
фундаментальною правдою, -
6:10 - 6:12і тут є важливий момент:
-
6:12 - 6:13створюючи ці машини,
-
6:13 - 6:16ми водночас вчимо їх
нашим цінностям. -
6:17 - 6:20І через це я довіряю
штучному інтелекту -
6:20 - 6:23так само, якщо не більше,
ніж добре навченій людині. -
6:24 - 6:25Але ви можете запитати,
-
6:25 - 6:28а що ж щодо шахраїв,
-
6:28 - 6:31якихось добре фінансованих
неурядових організацій? -
6:31 - 6:35Я не боюсь штучного інтелекту
в руках самотнього вовка. -
6:35 - 6:40Зрозуміло, ми не можемо захистити себе
від всіх актів насильства, -
6:40 - 6:42але реальність є такою системою,
-
6:42 - 6:45яка вимагає суттєвої підготовки
і тонкого навчання, -
6:45 - 6:47для яких окремій людині
забракне ресурсів. -
6:47 - 6:49І більше того,
-
6:49 - 6:52це набагато складніше, ніж просто
пустити інтернет-вірус у світ, -
6:52 - 6:55де ти натискаєш кнопку -
і ось він у мільйоні місць, -
6:55 - 6:57і ноутбуки починають вибухати усюди.
-
6:57 - 7:00Але такі події
є значно масштабнішими, -
7:00 - 7:02і ми обов'язково зможемо їх помітити.
-
7:03 - 7:06Чи я боюсь, що
такий штучний інтелект -
7:06 - 7:08може загрожувати всьому людству?
-
7:08 - 7:13Якщо ви подивитесь такі фільми,
як "Матриця", "Метрополіс", -
7:13 - 7:16"Термінатор", серіал
"Західний світ", -
7:16 - 7:18вони всі розповідають про такий страх.
-
7:18 - 7:22Насправді, у своїй книжці "Суперрозум"
філософ Нік Бостром -
7:22 - 7:24порушує цю тему
-
7:24 - 7:28і стверджує, що суперрозум може
не тільки бути небезпечним, -
7:28 - 7:32він може становити екзистенційну
загрозу людству. -
7:32 - 7:34Головним аргументом доктора Бострома
-
7:34 - 7:37є те, що така система одного разу
-
7:37 - 7:40матиме таку ненаситну спрагу
до інформації, -
7:40 - 7:43що вона, можливо, навчиться вчитися -
-
7:43 - 7:46і врешті зрозуміє,
що вона може ставити цілі, -
7:46 - 7:48які суперечать потребам людства.
-
7:48 - 7:50У доктора Бострома
є багато прихильників. -
7:50 - 7:54Його підтримують такі люди,
як Ілон Маск і Стівен Гокінґ. -
7:55 - 7:57З усією повагою
-
7:58 - 8:00до цих блискучих розумів,
-
8:00 - 8:02я думаю, що вони
серйозно помиляються. -
8:02 - 8:06Є багато аргументів доктора Бострома,
що варто обговорити, -
8:06 - 8:08і в мене немає часу розглядати їх усі,
-
8:08 - 8:11але дуже стисло:
-
8:11 - 8:14неймовірне знання дуже відрізняється
від неймовірних дій. -
8:14 - 8:16ХАЛ був загрозою для команди Дискавері,
-
8:16 - 8:21оскільки ХАЛ керував усіма
аспектами Дискавері. -
8:21 - 8:23Тому йому потрібно було мати
суперрозум. -
8:23 - 8:26Йому довелось би панувати в усьому світі.
-
8:26 - 8:29Це випадок Скайнет
з фільму "Термінатор", -
8:29 - 8:30в якому був суперрозум,
-
8:30 - 8:32який контролював людську волю,
-
8:32 - 8:36направляв кожен пристрій
в будь-якому куточку світу. -
8:36 - 8:37З практичної точки зору,
-
8:37 - 8:39цього ніколи не станеться.
-
8:39 - 8:42Ми не будуємо штучних інтелектів,
які контролюють погоду, -
8:42 - 8:44які направляють хвилі,
-
8:44 - 8:47які командують нами -
примхливими, хаотичними людьми. -
8:47 - 8:51І більше того, якщо б такий
штучний інтелект справді існував, -
8:51 - 8:54йому б доводилось конкурувати
з людською економікою, -
8:54 - 8:57а значить, конкурувати з нами за ресурси.
-
8:57 - 8:58І зрештою -
-
8:58 - 9:00не кажіть Сірі цього -
-
9:00 - 9:02ми завжди можемо їх вимкнути.
-
9:02 - 9:04(Сміх)
-
9:05 - 9:08Ми в неймовірній подорожі
-
9:08 - 9:10співеволюції з нашими машинами.
-
9:10 - 9:13Люди, якими ми є сьогодні,
-
9:13 - 9:15відрізняються від людей,
якими ми станемо завтра. -
9:15 - 9:19Хвилюватися тепер
про розвиток суперрозуму - -
9:19 - 9:22досить небезпечне відволікання,
-
9:22 - 9:24бо розвиток комп'ютерів як такий
-
9:24 - 9:27порушує багато
гуманітарних і суспільних проблем, -
9:27 - 9:29на які нам треба звернути увагу.
-
9:29 - 9:32Як краще організувати суспільство,
-
9:32 - 9:35коли потреба в людській праці
зменшується? -
9:35 - 9:38Як донести порозуміння й освіту
до всіх куточків планети -
9:38 - 9:40і поважати при цьому наші відмінності?
-
9:40 - 9:44Як поліпшити і продовжити людське життя
за допомогою охорони когнітивного здоров'я? -
9:44 - 9:47Як використати комп'ютери,
-
9:47 - 9:49щоб привели нас до зірок?
-
9:50 - 9:52Ось що цікаво.
-
9:52 - 9:55Можливості використати обчислювання
-
9:55 - 9:56для поліпшення людського досвіду
-
9:56 - 9:58доступні нам
-
9:58 - 10:00тут і тепер,
-
10:00 - 10:01і це тільки початок.
-
10:02 - 10:03Дуже дякую.
-
10:04 - 10:08(Оплески)
- Title:
- Не бійтеся надрозумного штучного інтелекту
- Speaker:
- Ґраді Буч
- Description:
-
Нові технології породжують нові страхи, каже науковець і філософ Ґраді Буч, але не треба боятися всемогутнього позбавленого почуттів штучного інтелекту. Буч заспокоює наш найбільший (спровокований науковою фантастикою) страх надрозумних комп'ютерів, пояснюючи, як ми не програмуватимемо їх, а навчатимемо - і навчимо поділяти наші цінності. Замість того, щоб перейматися малоймовірною екзистенційною загрозою, він закликає замислитися, як саме штучний інтелект покращить людське життя.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Khrystyna Romashko approved Ukrainian subtitles for Don't fear superintelligent AI | ||
Hanna Leliv accepted Ukrainian subtitles for Don't fear superintelligent AI | ||
Hanna Leliv edited Ukrainian subtitles for Don't fear superintelligent AI | ||
Olena Gapak edited Ukrainian subtitles for Don't fear superintelligent AI | ||
Olena Gapak edited Ukrainian subtitles for Don't fear superintelligent AI | ||
Olena Gapak edited Ukrainian subtitles for Don't fear superintelligent AI | ||
Olena Gapak edited Ukrainian subtitles for Don't fear superintelligent AI | ||
Hanna Leliv declined Ukrainian subtitles for Don't fear superintelligent AI |