Що трапляється, коли наші комп'ютери стають розумнішими за нас?
-
0:01 - 0:05Я працював із купою математиків, філософів
та інформатиків, -
0:05 - 0:10і ми сиділи й думали
про майбутнє машинного інтелекту, -
0:10 - 0:12серед іншого.
-
0:12 - 0:17Дехто вважає, що дещо з цього
щось типу наукової фантастики, -
0:17 - 0:20недосяжне, божевільне.
-
0:20 - 0:21Але я люблю казати:
-
0:21 - 0:25"Добре, подивімося на те, якою є
сучасна людина". -
0:25 - 0:27(Сміх)
-
0:27 - 0:29Це звичайний стан речей.
-
0:29 - 0:31Але якщо ми замислимося над цим,
-
0:31 - 0:35ми, власне, гості на цій планеті,
-
0:35 - 0:37людський рід.
-
0:37 - 0:41Задумайтесь, що, якби Землю
було створено рік тому, -
0:41 - 0:45людство тоді б було віком лише 10 хвилин.
-
0:45 - 0:48Індустріальна ера розпочалася
дві секунди тому. -
0:49 - 0:55Інший кут зору - подумати
про світовий ВВП за останні 10 000 років, -
0:55 - 0:58я взагалі-то подбав про те, щоб
накреслити для вас графік. -
0:58 - 0:59Він виглядає отак.
-
0:59 - 1:01(Сміх)
-
1:01 - 1:03Це цікава форма для звичайного стану.
-
1:03 - 1:05Я, напевне, не хотів би
сидіти на цьому. -
1:05 - 1:07(Сміх)
-
1:07 - 1:12Давайте спитаємо себе: "Що спричинило
цю теперішню аномалію?" -
1:12 - 1:14Хтось скаже, що це технології.
-
1:14 - 1:19Дійсно, технології накопичувалися
протягом людської історії. -
1:19 - 1:24і просто зараз технології
розвиваються вкрай швидко - -
1:24 - 1:25це безпосередня причина,
-
1:25 - 1:28чому ми зараз такі продуктивні.
-
1:28 - 1:32Але я волію згадувати про
кінцеву мету. -
1:33 - 1:37Подивіться на цих двох
шляхетних джентльменів: -
1:37 - 1:38Це Канзі --
-
1:38 - 1:43він вивчив 200 лексичних символів,
неймовірне досягнення. -
1:43 - 1:47І Ед Віттен, котрий спричинив
другу суперструнну революцію. -
1:47 - 1:49Якщо ми заглянемо "під капот",
ось що з'ясується: -
1:49 - 1:51по суті, те саме.
-
1:51 - 1:53Один трошки більший,
-
1:53 - 1:55він може мати певні
особливості в сплетінні. -
1:55 - 1:59Ці невидимі відмінності однак
не можуть бути надто складними, -
1:59 - 2:03тому що було лише
250 000 поколінь -
2:03 - 2:05від останнього
спільного предка. -
2:05 - 2:09Ми знаємо, що складний механізм
потребує багато часу, щоб розвинутися. -
2:10 - 2:12Тому купа відносно незначних змін
-
2:12 - 2:16привели нас від Канзі до Віттена,
-
2:16 - 2:20від відламаних гілок дерева до
міжконтинентальних балістичних ракет. -
2:21 - 2:25Отже тоді виглядає цілком очевидно,
що все, чого ми досягли, -
2:25 - 2:26і все, що нам небайдуже,
-
2:26 - 2:31принципово залежить від досить неістотних
змін, яких зазнав людський мозок. -
2:33 - 2:36І як наслідок, звичайно,
усі подальші зміни, -
2:36 - 2:40які можуть докорінно змінити
підґрунтя для мислення, -
2:40 - 2:43матимуть потенційно
величезні наслідки. -
2:44 - 2:47Дехто з моїх колег
вважає, що ми на межі -
2:47 - 2:51чогось, що може призвести до
глибоких змін у цьому підґрунті, -
2:51 - 2:54і це машинний суперінтелект.
-
2:54 - 2:59Штучний інтелект був чимось на кшталт
введення команд у коробку. -
2:59 - 3:01У вас мають бути люди-програмісти,
-
3:01 - 3:04які скрупульозно вручну
створюватимуть одиниці знань. -
3:04 - 3:06Ви будуєте цю систему
штучного інтелекту, -
3:06 - 3:08і вона типу корисна для якихось цілей,
-
3:08 - 3:11але надто крихка,
її не можна масштабувати. -
3:11 - 3:14По суті, ви отримуєте лише те,
що самі вклали всередину. -
3:14 - 3:15Але відтоді
-
3:15 - 3:19стався зсув парадигми
у галузі штучного інтелекту. -
3:19 - 3:22Сьогодні дія відбувається
довкола машинного навчання. -
3:22 - 3:28Тому, радше, ніж створювати вручну
образи та характеристики знань, -
3:29 - 3:34ми створюємо алгоритми, які вчаться
на "сирих" сприйняттєвих даних. -
3:34 - 3:39Власне, це те саме, що робить
дитина. -
3:39 - 3:43Результатом є штучний інтелект, не
обмежений однією цариною - -
3:43 - 3:48та ж система спроможна навчитися
перекладати між будь-якими парами мов, -
3:48 - 3:53або навчитися грати у будь-яку
комп'ютерну гру на консолі Атарі. -
3:53 - 3:55Зараз, звісно,
-
3:55 - 3:59штучний інтелект далекий від того,
щоб мати таку могутню міжгалузеву -
3:59 - 4:02здатність вчитися і планувати,
яку має людина. -
4:02 - 4:04Кора головного мозку досі має
деякі хитрощі, -
4:04 - 4:07які ми поки що не знаємо, як
створити у машинах. -
4:08 - 4:10Тому питання:
-
4:10 - 4:13як далеко ми від спроможності
розгадати ці хитрощі? -
4:14 - 4:15Пару років тому
-
4:15 - 4:18ми провели опитування серед
провідних експертів зі штучного інтелекту, -
4:18 - 4:21щоб побачити, що вони думають,
і одним із питань було: -
4:21 - 4:25"У якому році, на вашу думку,
існує 50-відсоткова імовірність -
4:25 - 4:28досягнення людського рівня
інтелекту у машині?" -
4:29 - 4:33Тут ми визначили людський рівень
як спроможність виконувати -
4:33 - 4:36майже будь-яку роботу, принаймні
так само, як доросла людина, -
4:36 - 4:40отже справжній людський рівень,
не лише в межах певної обмеженої галузі. -
4:40 - 4:43І середня відповідь була 2040 або 2050,
-
4:43 - 4:46залежно від того, яку групу
експертів ми питали. -
4:46 - 4:50Це може статися набагато пізніше,
або раніше, -
4:50 - 4:52правду кажучи, ніхто
в дійсності не знає. -
4:53 - 4:58Ми знаємо, що остаточний
ліміт на оброблення інформації -
4:58 - 5:03на машинному підґрунті дуже
перевершує обмеження біологічних тканин. -
5:03 - 5:06Це походить з фізики.
-
5:06 - 5:10Біологічний нейрон передає, мабуть,
на 200 герц, 200 разів за секунду. -
5:10 - 5:14Але навіть сьогоднішній транзистор
оперує гігагерцами. -
5:14 - 5:19Нейрони поширюються повільно в аксонах,
100 метрів за секунду найбільше. -
5:19 - 5:22Але в комп'ютерах сигнали можуть ширитися
зі швидкістю світла. -
5:23 - 5:25Тут теж є обмеження за величиною,
-
5:25 - 5:28бо людський мозок має
вміщуватися у череп, -
5:28 - 5:33але комп'ютер може бути завбільшки
з цілий склад або й більшим. -
5:33 - 5:38Тому потенціал суперінтелекту
поки що спить у матерії, -
5:38 - 5:44точнісінько як потужність атома
спала протягом людської історії, -
5:44 - 5:48терпляче чекаючи на 1945.
-
5:48 - 5:50Цього століття
-
5:50 - 5:54науковці можуть навчитися, як розбудити
могутність штучного інтелекту. -
5:54 - 5:58І мені здається, що ми можемо тоді
спостерегти бурхливий розвиток інтелекту. -
5:58 - 6:02Зараз більшість людей, думаючи про те,
що є розумним і що дурним, -
6:02 - 6:05мені здається, тримають у голові
десь схожу на оцю картинку. -
6:05 - 6:08На початку ми маємо сільського дурника,
-
6:08 - 6:10і далеко на іншому кінці -
-
6:10 - 6:15Еда Віттена, Альберта Ейнштейна, або
хто там ваш улюблений гуру. -
6:15 - 6:19Але мені здається, що з точки зору
штучного інтелекту, -
6:19 - 6:23справжня картинка дійсно
більше схожа на ось таку. -
6:23 - 6:27Все починається в цій точці отут,
на нульовому інтелекті, -
6:27 - 6:30і потім, після багатьох-багатьох
років направду тяжкої праці, -
6:30 - 6:33мабуть, зрештою ми досягнемо
штучного інтелекту на рівні миші, -
6:33 - 6:36який зможе орієнтуватися у
захаращених середовищах -
6:36 - 6:38так само, як це може миша.
-
6:38 - 6:42Потім, після ще більшої кількості років
дуже тяжкої праці, інвестицій, -
6:42 - 6:47мабуть, зрештою ми досягнемо рівня
інтелекту на рівні шимпанзе. -
6:47 - 6:50І потім, після ще більшої кількості років
дуже-дуже тяжкої праці, -
6:50 - 6:53ми досягнемо штучного інтелекту
на рівні сільського дурника. -
6:53 - 6:56А кілька митей потому ми вже
вийдемо за межі Еда Віттена. -
6:56 - 6:59Потяг не спиняється
на станції "Людствоград". -
6:59 - 7:02Він, скоріше, мчить повз неї зі свистом.
-
7:02 - 7:04Тепер це має глибокі наслідки,
-
7:04 - 7:08особливо, коли йдеться про питання влади.
-
7:08 - 7:10Приміром, шимпанзе сильні -
-
7:10 - 7:15за будь-яких умов шимпанзе принаймні
удвічі сильніший за здорового чоловіка. -
7:15 - 7:20Тим не менше, доля Канзі і його товаришів
набагато більше залежить -
7:20 - 7:24від того, що робимо ми, люди,
ніж від того, що шимпанзе роблять самі. -
7:25 - 7:28Коли з'явиться суперінтелект,
-
7:28 - 7:31доля людства може залежати від того,
що робитиме цей інтелект. -
7:32 - 7:34Подумайте про це:
-
7:34 - 7:39машинний інтелект - це остання річ,
яку людство має винайти. -
7:39 - 7:42Машини після цього будуть кращими
винахідниками, ніж ми, -
7:42 - 7:44і вони робитимуть це
із цифровою швидкістю. -
7:44 - 7:49Це фактично означає
телескопіювання майбутнього. -
7:49 - 7:53Уявіть лише всі божевільні технології,
-
7:53 - 7:55які людство могло б розвинути,
маючи вдосталь часу: -
7:55 - 7:59ліки від старіння, колонізація космосу,
-
7:59 - 8:02самовідтворювані наноботи чи
завантаження свідомості у комп'ютер, -
8:02 - 8:04усі ці науково-фантастичні штуки,
-
8:04 - 8:07які, тим не менше, сумісні
із законами фізики. -
8:07 - 8:11Усе це суперінтелект може розвинути,
і, можливо, цілком швидко. -
8:12 - 8:16Суперінтелект із такою
технологічною довершеністю -
8:16 - 8:18буде неймовірно могутнім,
-
8:18 - 8:23і принаймні за кількох сценаріїв він
досягне того, чого прагне. -
8:23 - 8:28Ми тоді матимемо майбутнє,
окреслене цінностями цього штучного інтелекту. -
8:30 - 8:34Тепер хороше питання: які це цінності?
-
8:34 - 8:36Тут все стає складнішим.
-
8:36 - 8:37Щоб просунутися із цим уперед,
-
8:37 - 8:41ми маємо насамперед
уникати антропоморфічності. -
8:42 - 8:45І в цьому іронія, адже кожна
стаття в газеті -
8:45 - 8:49про майбутнє штучного інтелекту
проілюстрована ось цим. -
8:50 - 8:54Тому я думаю, що ми повинні підійти
до питання абстрактніше, -
8:54 - 8:57не в дусі яскравих
голлівудських сценаріїв. -
8:57 - 9:01Ми маємо подумати про інтелект
як про процес оптимізації, -
9:01 - 9:06процес, що кермує майбутнє у
визначений набір структур. -
9:06 - 9:10Суперінтелект направду є сильним
опитимізаційним процесом. -
9:10 - 9:14Він неймовірний у використанні
доступних зособів -
9:14 - 9:16для досягнення мети.
-
9:16 - 9:19Це значить, що немає необхідних
зв'язків між -
9:19 - 9:22бути високорозвиненим у цьому сенсі
-
9:22 - 9:27і мати ціль, яку ми, люди,
вважатимемо вартісною і змістовною. -
9:27 - 9:31Припустимо, ми поставили перед Ш. І. мету
викликати у людей посмішку. -
9:31 - 9:34Коли Ш. І. слабкий, він робитиме
потрібні або кумедні речі, -
9:34 - 9:37які змусять його користувача посміхатися.
-
9:37 - 9:39Коли Ш. І. стане суперінтелектом,
-
9:39 - 9:43він зрозуміє, що є ефективніші
шляхи досягти цієї мети: -
9:43 - 9:44підкорити світ
-
9:44 - 9:48і приклеїти електроди до лицевих
м'язів людей, -
9:48 - 9:51щоб викликати постійний променистий вищир.
-
9:51 - 9:52Інший приклад:
-
9:52 - 9:55скажімо, ми даємо Ш. І. завдання вирішити
складну математичну проблему. -
9:55 - 9:57Коли Ш. І. стане суперінтелектом,
-
9:57 - 10:01він зрозуміє, що найефективніший шлях
отримати вирішення цієї проблеми -- -
10:01 - 10:04це перетворити планету
на гігантський комп'ютер, -
10:04 - 10:06щоб збільшити свою
спроможність мислити. -
10:06 - 10:09Зауважте, що це дає Ш. І.
інструментальну причину -
10:09 - 10:12робити якісь речі так,
що ми цього не схвалимо. -
10:12 - 10:13Людські створіння у цій моделі -
це загрози, -
10:13 - 10:16ми можемо перешкодити
вирішенню цієї проблеми. -
10:17 - 10:21Звичайно, відчутно речі не підуть
цим хибним шляхом; -
10:21 - 10:22це гіпертрофовані приклади.
-
10:22 - 10:24Але загалом це важливо:
-
10:24 - 10:27якщо ви створюєте дійсно потужний
оптимізаційний процес -
10:27 - 10:30для збільшення об'єктивного х,
-
10:30 - 10:32краще впевніться, що ваше визначення х
-
10:32 - 10:34включає все, що вам небайдуже.
-
10:35 - 10:39Це урок, якому нас вчать у багатьох міфах.
-
10:39 - 10:45Цар Мідас бажав, щоб усе, до чого
він торкався, оберталося на золото. -
10:45 - 10:47Він торкнувся своєї доньки,
вона перетворилася на золото. -
10:47 - 10:50Він торкнувся їжі -- вона стала золотом.
-
10:50 - 10:53Це може стати практично дійсністю,
-
10:53 - 10:55не лише як метафора жадібності,
-
10:55 - 10:56а й як ілюстрація того, що стається,
-
10:56 - 10:59коли ви створюєте потужний
оптимізаційний процес -
10:59 - 11:04і ставите перед ним несформульовані
або погано описані цілі. -
11:04 - 11:09Ви можете зауважити: якщо комп'ютер почне
тицяти електродами людям в обличчя, -
11:09 - 11:12ми просто вимкнемо його.
-
11:13 - 11:18А) Це необов'язково просто зробити,
якщо ми виросли залежними від системи -- -
11:18 - 11:21типу, як тепер вимкнути інтернет?
-
11:21 - 11:26Б) Чому ж шимпанзе не натиснули
на вимикач людства, -
11:26 - 11:27чи неандертальці?
-
11:27 - 11:30Вони, напевно, мали причини.
-
11:30 - 11:33Ми маємо вимикач, наприклад, прямо тут.
-
11:33 - 11:34(Тисне)
-
11:34 - 11:37Причина в тому, що ми -
розумний супротивник; -
11:37 - 11:40ми можемо передбачати загрози
і планувати навколо них. -
11:40 - 11:42Але так зможе і суперінтелектелект,
-
11:42 - 11:46і він буде набагато вправнішим
в цьому за нас. -
11:46 - 11:53Справа в тому, що ми не можемо бути
впевнені, що у нас усе під контролем. -
11:53 - 11:56І ми можемо спробувати зробити
своє завдання трохи легшим, скажімо, -
11:56 - 11:58поклавши Ш. І. до коробки,
-
11:58 - 12:00як у безпечне софтверне середовище,
-
12:00 - 12:03у симулятор віртуальної реальності,
з якої він не може втекти. -
12:03 - 12:07Але як ми можемо бути певні, що
Ш. І. не зможе знайти баг? -
12:07 - 12:10Зважаючи, що навіть хакери-люди
постійно знаходять баги, -
12:10 - 12:13я б сказав, імовірно, не дуже впевнено.
-
12:14 - 12:19Ми від'єднуємо кабель локальної мережі,
щоб створити повітряний проміжок, -
12:19 - 12:21але знов-таки, навіть хакери-люди
-
12:21 - 12:25"перестрибують" повітряні проміжки,
використовуючи соціальну інженерію. -
12:25 - 12:26Зараз, коли я розмовляю,
-
12:26 - 12:28впевнений, що є десь якийсь службовець,
-
12:28 - 12:32який повідомляє дані свого акаунту
-
12:32 - 12:35комусь, хто стверджує,
що він з ІТ-департаменту. -
12:35 - 12:37Більш оригінальні сценарії теж можливі,
-
12:37 - 12:38типу, якщо ви Ш.І.,
-
12:38 - 12:42ви можете уявити тремтячі електроди
навколо свого устаткування, -
12:42 - 12:45щоб створити радіохвилі, які можна
використати для комунікації. -
12:45 - 12:47Або ви навіть можете
удати з себе зламаного, -
12:47 - 12:51і коли програміст відкриє вас,
щоб подивитися, що з вами не так, -
12:51 - 12:53вони дивляться у вихідний код -- Бам! --
-
12:53 - 12:55може статися маніпуляція.
-
12:55 - 12:59Або він може надрукувати схему
дійсно вартісної технології, -
12:59 - 13:00і коли ми реалізуємо її,
-
13:00 - 13:05вона матиме якісь побічні ефекти,
які Ш. І. нишком спланував. -
13:05 - 13:08Справа в тому, що ми не повинні бути
впевнені у нашій можливості -
13:08 - 13:12тримати суперінтелектуального джина
у його пляшці довіку. -
13:12 - 13:14Раніш чи пізніш він визволиться.
-
13:15 - 13:18Я вірю, що відповідь тут - це з'ясувати,
-
13:18 - 13:23як створити такий супер Ш. І.,
щоб навіть якщо він втече, -
13:23 - 13:26він залишатиметься безпечним,
бо буде принципово на нашому боці, -
13:26 - 13:28бо розділятиме наші цінності.
-
13:28 - 13:32Я не бачу виходу з цієї складної проблеми.
-
13:33 - 13:36Зараз я досить оптимістичний
щодо її вирішення. -
13:36 - 13:40Ми не повинні писати довгий
список того, до чого ми небайдужі, -
13:40 - 13:44або навіть гірше, промовляти це
якоюсь комп'ютерною мовою, -
13:44 - 13:45типу С++ або Пітону,
-
13:45 - 13:48це буде безнадійне завдання.
-
13:48 - 13:52Натомість ми маємо створити Ш. І.,
що використовує свій інтелект, -
13:52 - 13:55щоб дізнатися про наші цінності,
-
13:55 - 14:01і його мотиваційна система сконструйована
так, що він мотивований -
14:01 - 14:06розділяти наші цінності або виконувати
дії, які ми маємо схвалити. -
14:06 - 14:09Тоді ми подіємо на його інтелект
так сильно, як тільки зможемо, -
14:09 - 14:12щоб вирішити проблему
"завантаження цінностей". -
14:13 - 14:14Це може статися,
-
14:14 - 14:18і результат може виявитись
дуже вагомим для людства. -
14:18 - 14:22Але це не станеться автоматично.
-
14:22 - 14:25Початкові умови інтелектуального вибуху
-
14:25 - 14:28потрібно правильно встановити,
-
14:28 - 14:31так, ніби ми маємо
контрольований детонатор. -
14:31 - 14:34Цінності, за якими Ш.І.
має свівпадати з нами, -
14:34 - 14:36мають бути не лише вже нам знайомими,
-
14:36 - 14:38такими, за якими ми легко
перевіримо поведінку Ш.І., -
14:38 - 14:41але також і в новітньому контексті,
який Ш.І. прораховуватиме -
14:41 - 14:43в невизначеному майбутньому.
-
14:43 - 14:48Є також певні потаємні проблеми,
які необхідно вирішити, наприклад: -
14:48 - 14:50конкретні деталі теорії прийняття рішень,
-
14:50 - 14:52як справлятись з логічними
невизначенностями і таке інше. -
14:53 - 14:56Тому технічні проблеми, які будемо
вирішувати, щоб все спрацювало, -
14:56 - 14:58є досить складними --
-
14:58 - 15:01не настільки, як власне створення Ш.І.,
-
15:01 - 15:04але достатньо складними.
-
15:04 - 15:05Мене хвилює наступне:
-
15:05 - 15:10створення Ш.І. є, по-справжньому,
складним випробуванням. -
15:10 - 15:13Створення безпечного Ш.І.
-
15:13 - 15:15включає ще додаткову складність.
-
15:16 - 15:20Ризик у тому, що хтось зможе
розгадати перше випробування, -
15:20 - 15:23не розгадуючи додаткове,
-
15:23 - 15:25по забезпеченню абсолютної безпеки.
-
15:25 - 15:29Тому, я вважаю, що розв'язок
проблеми контролю -
15:29 - 15:32нам потрібно розробити в першу чергу,
-
15:32 - 15:34щоб мати його одразу тоді,
коли знадобиться. -
15:35 - 15:38Зараз ми, можливо, не можемо розгадати
всю проблему контролю наперед, -
15:38 - 15:41оскільки деякі елементи можна створити
-
15:41 - 15:45лише знаючи деталі загальної архітектури,
куди їх буде впроваджено. -
15:45 - 15:49Але чим більше ми розробимо наперед,
-
15:49 - 15:53тим більша ймовірність того, що
перехід до ери машинного інтеллекту -
15:53 - 15:54пройде успішно.
-
15:54 - 15:59Як на мене, цим дійсно варто займатись,
-
15:59 - 16:02і можна уявити, що у випадку,
якщо все пройде успішно, -
16:02 - 16:07люди через мільйони років,
споглядаючи в наше століття, -
16:07 - 16:11можливо, вважатимуть, що
єдина важлива річ, яку ми зробили, -
16:11 - 16:13було створити цю річ правильно.
-
16:13 - 16:14Дякую.
-
16:14 - 16:17(Оплески)
- Title:
- Що трапляється, коли наші комп'ютери стають розумнішими за нас?
- Speaker:
- Нік Бостром
- Description:
-
Штучний інтелект стає розумнішим дуже швидкими темпами - в межах цього століття, як передбачає дослідження, комп'ютерний штучний інтелект може стати "розумнішим" за людську істоту. А тоді, за словами Ніка Бострома, він обійде нас: "Машинний інтелект є останнім винаходом людства, який нам слід було б здійснити". Філософ та інженер Бостром просить нас добряче подумати про світ, який ми зараз будуємо, керуючись мислячими машинами. Чи допоможуть наші розумні машини захистити людство на наші цінності - чи вони матимуть власні цінності?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Khrystyna Romashko approved Ukrainian subtitles for What happens when our computers get smarter than we are? | ||
Khrystyna Romashko accepted Ukrainian subtitles for What happens when our computers get smarter than we are? | ||
Khrystyna Romashko edited Ukrainian subtitles for What happens when our computers get smarter than we are? | ||
Khrystyna Romashko edited Ukrainian subtitles for What happens when our computers get smarter than we are? | ||
Khrystyna Romashko edited Ukrainian subtitles for What happens when our computers get smarter than we are? | ||
Khrystyna Romashko edited Ukrainian subtitles for What happens when our computers get smarter than we are? | ||
Khrystyna Romashko edited Ukrainian subtitles for What happens when our computers get smarter than we are? | ||
Daria Prichantovskaya edited Ukrainian subtitles for What happens when our computers get smarter than we are? |