Return to Video

Що трапляється, коли наші комп'ютери стають розумнішими за нас?

  • 0:01 - 0:05
    Я працював із купою математиків, філософів
    та інформатиків,
  • 0:05 - 0:10
    і ми сиділи й думали
    про майбутнє машинного інтелекту,
  • 0:10 - 0:12
    серед іншого.
  • 0:12 - 0:17
    Дехто вважає, що дещо з цього
    щось типу наукової фантастики,
  • 0:17 - 0:20
    недосяжне, божевільне.
  • 0:20 - 0:21
    Але я люблю казати:
  • 0:21 - 0:25
    "Добре, подивімося на те, якою є
    сучасна людина".
  • 0:25 - 0:27
    (Сміх)
  • 0:27 - 0:29
    Це звичайний стан речей.
  • 0:29 - 0:31
    Але якщо ми замислимося над цим,
  • 0:31 - 0:35
    ми, власне, гості на цій планеті,
  • 0:35 - 0:37
    людський рід.
  • 0:37 - 0:41
    Задумайтесь, що, якби Землю
    було створено рік тому,
  • 0:41 - 0:45
    людство тоді б було віком лише 10 хвилин.
  • 0:45 - 0:48
    Індустріальна ера розпочалася
    дві секунди тому.
  • 0:49 - 0:55
    Інший кут зору - подумати
    про світовий ВВП за останні 10 000 років,
  • 0:55 - 0:58
    я взагалі-то подбав про те, щоб
    накреслити для вас графік.
  • 0:58 - 0:59
    Він виглядає отак.
  • 0:59 - 1:01
    (Сміх)
  • 1:01 - 1:03
    Це цікава форма для звичайного стану.
  • 1:03 - 1:05
    Я, напевне, не хотів би
    сидіти на цьому.
  • 1:05 - 1:07
    (Сміх)
  • 1:07 - 1:12
    Давайте спитаємо себе: "Що спричинило
    цю теперішню аномалію?"
  • 1:12 - 1:14
    Хтось скаже, що це технології.
  • 1:14 - 1:19
    Дійсно, технології накопичувалися
    протягом людської історії.
  • 1:19 - 1:24
    і просто зараз технології
    розвиваються вкрай швидко -
  • 1:24 - 1:25
    це безпосередня причина,
  • 1:25 - 1:28
    чому ми зараз такі продуктивні.
  • 1:28 - 1:32
    Але я волію згадувати про
    кінцеву мету.
  • 1:33 - 1:37
    Подивіться на цих двох
    шляхетних джентльменів:
  • 1:37 - 1:38
    Це Канзі --
  • 1:38 - 1:43
    він вивчив 200 лексичних символів,
    неймовірне досягнення.
  • 1:43 - 1:47
    І Ед Віттен, котрий спричинив
    другу суперструнну революцію.
  • 1:47 - 1:49
    Якщо ми заглянемо "під капот",
    ось що з'ясується:
  • 1:49 - 1:51
    по суті, те саме.
  • 1:51 - 1:53
    Один трошки більший,
  • 1:53 - 1:55
    він може мати певні
    особливості в сплетінні.
  • 1:55 - 1:59
    Ці невидимі відмінності однак
    не можуть бути надто складними,
  • 1:59 - 2:03
    тому що було лише
    250 000 поколінь
  • 2:03 - 2:05
    від останнього
    спільного предка.
  • 2:05 - 2:09
    Ми знаємо, що складний механізм
    потребує багато часу, щоб розвинутися.
  • 2:10 - 2:12
    Тому купа відносно незначних змін
  • 2:12 - 2:16
    привели нас від Канзі до Віттена,
  • 2:16 - 2:20
    від відламаних гілок дерева до
    міжконтинентальних балістичних ракет.
  • 2:21 - 2:25
    Отже тоді виглядає цілком очевидно,
    що все, чого ми досягли,
  • 2:25 - 2:26
    і все, що нам небайдуже,
  • 2:26 - 2:31
    принципово залежить від досить неістотних
    змін, яких зазнав людський мозок.
  • 2:33 - 2:36
    І як наслідок, звичайно,
    усі подальші зміни,
  • 2:36 - 2:40
    які можуть докорінно змінити
    підґрунтя для мислення,
  • 2:40 - 2:43
    матимуть потенційно
    величезні наслідки.
  • 2:44 - 2:47
    Дехто з моїх колег
    вважає, що ми на межі
  • 2:47 - 2:51
    чогось, що може призвести до
    глибоких змін у цьому підґрунті,
  • 2:51 - 2:54
    і це машинний суперінтелект.
  • 2:54 - 2:59
    Штучний інтелект був чимось на кшталт
    введення команд у коробку.
  • 2:59 - 3:01
    У вас мають бути люди-програмісти,
  • 3:01 - 3:04
    які скрупульозно вручну
    створюватимуть одиниці знань.
  • 3:04 - 3:06
    Ви будуєте цю систему
    штучного інтелекту,
  • 3:06 - 3:08
    і вона типу корисна для якихось цілей,
  • 3:08 - 3:11
    але надто крихка,
    її не можна масштабувати.
  • 3:11 - 3:14
    По суті, ви отримуєте лише те,
    що самі вклали всередину.
  • 3:14 - 3:15
    Але відтоді
  • 3:15 - 3:19
    стався зсув парадигми
    у галузі штучного інтелекту.
  • 3:19 - 3:22
    Сьогодні дія відбувається
    довкола машинного навчання.
  • 3:22 - 3:28
    Тому, радше, ніж створювати вручну
    образи та характеристики знань,
  • 3:29 - 3:34
    ми створюємо алгоритми, які вчаться
    на "сирих" сприйняттєвих даних.
  • 3:34 - 3:39
    Власне, це те саме, що робить
    дитина.
  • 3:39 - 3:43
    Результатом є штучний інтелект, не
    обмежений однією цариною -
  • 3:43 - 3:48
    та ж система спроможна навчитися
    перекладати між будь-якими парами мов,
  • 3:48 - 3:53
    або навчитися грати у будь-яку
    комп'ютерну гру на консолі Атарі.
  • 3:53 - 3:55
    Зараз, звісно,
  • 3:55 - 3:59
    штучний інтелект далекий від того,
    щоб мати таку могутню міжгалузеву
  • 3:59 - 4:02
    здатність вчитися і планувати,
    яку має людина.
  • 4:02 - 4:04
    Кора головного мозку досі має
    деякі хитрощі,
  • 4:04 - 4:07
    які ми поки що не знаємо, як
    створити у машинах.
  • 4:08 - 4:10
    Тому питання:
  • 4:10 - 4:13
    як далеко ми від спроможності
    розгадати ці хитрощі?
  • 4:14 - 4:15
    Пару років тому
  • 4:15 - 4:18
    ми провели опитування серед
    провідних експертів зі штучного інтелекту,
  • 4:18 - 4:21
    щоб побачити, що вони думають,
    і одним із питань було:
  • 4:21 - 4:25
    "У якому році, на вашу думку,
    існує 50-відсоткова імовірність
  • 4:25 - 4:28
    досягнення людського рівня
    інтелекту у машині?"
  • 4:29 - 4:33
    Тут ми визначили людський рівень
    як спроможність виконувати
  • 4:33 - 4:36
    майже будь-яку роботу, принаймні
    так само, як доросла людина,
  • 4:36 - 4:40
    отже справжній людський рівень,
    не лише в межах певної обмеженої галузі.
  • 4:40 - 4:43
    І середня відповідь була 2040 або 2050,
  • 4:43 - 4:46
    залежно від того, яку групу
    експертів ми питали.
  • 4:46 - 4:50
    Це може статися набагато пізніше,
    або раніше,
  • 4:50 - 4:52
    правду кажучи, ніхто
    в дійсності не знає.
  • 4:53 - 4:58
    Ми знаємо, що остаточний
    ліміт на оброблення інформації
  • 4:58 - 5:03
    на машинному підґрунті дуже
    перевершує обмеження біологічних тканин.
  • 5:03 - 5:06
    Це походить з фізики.
  • 5:06 - 5:10
    Біологічний нейрон передає, мабуть,
    на 200 герц, 200 разів за секунду.
  • 5:10 - 5:14
    Але навіть сьогоднішній транзистор
    оперує гігагерцами.
  • 5:14 - 5:19
    Нейрони поширюються повільно в аксонах,
    100 метрів за секунду найбільше.
  • 5:19 - 5:22
    Але в комп'ютерах сигнали можуть ширитися
    зі швидкістю світла.
  • 5:23 - 5:25
    Тут теж є обмеження за величиною,
  • 5:25 - 5:28
    бо людський мозок має
    вміщуватися у череп,
  • 5:28 - 5:33
    але комп'ютер може бути завбільшки
    з цілий склад або й більшим.
  • 5:33 - 5:38
    Тому потенціал суперінтелекту
    поки що спить у матерії,
  • 5:38 - 5:44
    точнісінько як потужність атома
    спала протягом людської історії,
  • 5:44 - 5:48
    терпляче чекаючи на 1945.
  • 5:48 - 5:50
    Цього століття
  • 5:50 - 5:54
    науковці можуть навчитися, як розбудити
    могутність штучного інтелекту.
  • 5:54 - 5:58
    І мені здається, що ми можемо тоді
    спостерегти бурхливий розвиток інтелекту.
  • 5:58 - 6:02
    Зараз більшість людей, думаючи про те,
    що є розумним і що дурним,
  • 6:02 - 6:05
    мені здається, тримають у голові
    десь схожу на оцю картинку.
  • 6:05 - 6:08
    На початку ми маємо сільського дурника,
  • 6:08 - 6:10
    і далеко на іншому кінці -
  • 6:10 - 6:15
    Еда Віттена, Альберта Ейнштейна, або
    хто там ваш улюблений гуру.
  • 6:15 - 6:19
    Але мені здається, що з точки зору
    штучного інтелекту,
  • 6:19 - 6:23
    справжня картинка дійсно
    більше схожа на ось таку.
  • 6:23 - 6:27
    Все починається в цій точці отут,
    на нульовому інтелекті,
  • 6:27 - 6:30
    і потім, після багатьох-багатьох
    років направду тяжкої праці,
  • 6:30 - 6:33
    мабуть, зрештою ми досягнемо
    штучного інтелекту на рівні миші,
  • 6:33 - 6:36
    який зможе орієнтуватися у
    захаращених середовищах
  • 6:36 - 6:38
    так само, як це може миша.
  • 6:38 - 6:42
    Потім, після ще більшої кількості років
    дуже тяжкої праці, інвестицій,
  • 6:42 - 6:47
    мабуть, зрештою ми досягнемо рівня
    інтелекту на рівні шимпанзе.
  • 6:47 - 6:50
    І потім, після ще більшої кількості років
    дуже-дуже тяжкої праці,
  • 6:50 - 6:53
    ми досягнемо штучного інтелекту
    на рівні сільського дурника.
  • 6:53 - 6:56
    А кілька митей потому ми вже
    вийдемо за межі Еда Віттена.
  • 6:56 - 6:59
    Потяг не спиняється
    на станції "Людствоград".
  • 6:59 - 7:02
    Він, скоріше, мчить повз неї зі свистом.
  • 7:02 - 7:04
    Тепер це має глибокі наслідки,
  • 7:04 - 7:08
    особливо, коли йдеться про питання влади.
  • 7:08 - 7:10
    Приміром, шимпанзе сильні -
  • 7:10 - 7:15
    за будь-яких умов шимпанзе принаймні
    удвічі сильніший за здорового чоловіка.
  • 7:15 - 7:20
    Тим не менше, доля Канзі і його товаришів
    набагато більше залежить
  • 7:20 - 7:24
    від того, що робимо ми, люди,
    ніж від того, що шимпанзе роблять самі.
  • 7:25 - 7:28
    Коли з'явиться суперінтелект,
  • 7:28 - 7:31
    доля людства може залежати від того,
    що робитиме цей інтелект.
  • 7:32 - 7:34
    Подумайте про це:
  • 7:34 - 7:39
    машинний інтелект - це остання річ,
    яку людство має винайти.
  • 7:39 - 7:42
    Машини після цього будуть кращими
    винахідниками, ніж ми,
  • 7:42 - 7:44
    і вони робитимуть це
    із цифровою швидкістю.
  • 7:44 - 7:49
    Це фактично означає
    телескопіювання майбутнього.
  • 7:49 - 7:53
    Уявіть лише всі божевільні технології,
  • 7:53 - 7:55
    які людство могло б розвинути,
    маючи вдосталь часу:
  • 7:55 - 7:59
    ліки від старіння, колонізація космосу,
  • 7:59 - 8:02
    самовідтворювані наноботи чи
    завантаження свідомості у комп'ютер,
  • 8:02 - 8:04
    усі ці науково-фантастичні штуки,
  • 8:04 - 8:07
    які, тим не менше, сумісні
    із законами фізики.
  • 8:07 - 8:11
    Усе це суперінтелект може розвинути,
    і, можливо, цілком швидко.
  • 8:12 - 8:16
    Суперінтелект із такою
    технологічною довершеністю
  • 8:16 - 8:18
    буде неймовірно могутнім,
  • 8:18 - 8:23
    і принаймні за кількох сценаріїв він
    досягне того, чого прагне.
  • 8:23 - 8:28
    Ми тоді матимемо майбутнє,
    окреслене цінностями цього штучного інтелекту.
  • 8:30 - 8:34
    Тепер хороше питання: які це цінності?
  • 8:34 - 8:36
    Тут все стає складнішим.
  • 8:36 - 8:37
    Щоб просунутися із цим уперед,
  • 8:37 - 8:41
    ми маємо насамперед
    уникати антропоморфічності.
  • 8:42 - 8:45
    І в цьому іронія, адже кожна
    стаття в газеті
  • 8:45 - 8:49
    про майбутнє штучного інтелекту
    проілюстрована ось цим.
  • 8:50 - 8:54
    Тому я думаю, що ми повинні підійти
    до питання абстрактніше,
  • 8:54 - 8:57
    не в дусі яскравих
    голлівудських сценаріїв.
  • 8:57 - 9:01
    Ми маємо подумати про інтелект
    як про процес оптимізації,
  • 9:01 - 9:06
    процес, що кермує майбутнє у
    визначений набір структур.
  • 9:06 - 9:10
    Суперінтелект направду є сильним
    опитимізаційним процесом.
  • 9:10 - 9:14
    Він неймовірний у використанні
    доступних зособів
  • 9:14 - 9:16
    для досягнення мети.
  • 9:16 - 9:19
    Це значить, що немає необхідних
    зв'язків між
  • 9:19 - 9:22
    бути високорозвиненим у цьому сенсі
  • 9:22 - 9:27
    і мати ціль, яку ми, люди,
    вважатимемо вартісною і змістовною.
  • 9:27 - 9:31
    Припустимо, ми поставили перед Ш. І. мету
    викликати у людей посмішку.
  • 9:31 - 9:34
    Коли Ш. І. слабкий, він робитиме
    потрібні або кумедні речі,
  • 9:34 - 9:37
    які змусять його користувача посміхатися.
  • 9:37 - 9:39
    Коли Ш. І. стане суперінтелектом,
  • 9:39 - 9:43
    він зрозуміє, що є ефективніші
    шляхи досягти цієї мети:
  • 9:43 - 9:44
    підкорити світ
  • 9:44 - 9:48
    і приклеїти електроди до лицевих
    м'язів людей,
  • 9:48 - 9:51
    щоб викликати постійний променистий вищир.
  • 9:51 - 9:52
    Інший приклад:
  • 9:52 - 9:55
    скажімо, ми даємо Ш. І. завдання вирішити
    складну математичну проблему.
  • 9:55 - 9:57
    Коли Ш. І. стане суперінтелектом,
  • 9:57 - 10:01
    він зрозуміє, що найефективніший шлях
    отримати вирішення цієї проблеми --
  • 10:01 - 10:04
    це перетворити планету
    на гігантський комп'ютер,
  • 10:04 - 10:06
    щоб збільшити свою
    спроможність мислити.
  • 10:06 - 10:09
    Зауважте, що це дає Ш. І.
    інструментальну причину
  • 10:09 - 10:12
    робити якісь речі так,
    що ми цього не схвалимо.
  • 10:12 - 10:13
    Людські створіння у цій моделі -
    це загрози,
  • 10:13 - 10:16
    ми можемо перешкодити
    вирішенню цієї проблеми.
  • 10:17 - 10:21
    Звичайно, відчутно речі не підуть
    цим хибним шляхом;
  • 10:21 - 10:22
    це гіпертрофовані приклади.
  • 10:22 - 10:24
    Але загалом це важливо:
  • 10:24 - 10:27
    якщо ви створюєте дійсно потужний
    оптимізаційний процес
  • 10:27 - 10:30
    для збільшення об'єктивного х,
  • 10:30 - 10:32
    краще впевніться, що ваше визначення х
  • 10:32 - 10:34
    включає все, що вам небайдуже.
  • 10:35 - 10:39
    Це урок, якому нас вчать у багатьох міфах.
  • 10:39 - 10:45
    Цар Мідас бажав, щоб усе, до чого
    він торкався, оберталося на золото.
  • 10:45 - 10:47
    Він торкнувся своєї доньки,
    вона перетворилася на золото.
  • 10:47 - 10:50
    Він торкнувся їжі -- вона стала золотом.
  • 10:50 - 10:53
    Це може стати практично дійсністю,
  • 10:53 - 10:55
    не лише як метафора жадібності,
  • 10:55 - 10:56
    а й як ілюстрація того, що стається,
  • 10:56 - 10:59
    коли ви створюєте потужний
    оптимізаційний процес
  • 10:59 - 11:04
    і ставите перед ним несформульовані
    або погано описані цілі.
  • 11:04 - 11:09
    Ви можете зауважити: якщо комп'ютер почне
    тицяти електродами людям в обличчя,
  • 11:09 - 11:12
    ми просто вимкнемо його.
  • 11:13 - 11:18
    А) Це необов'язково просто зробити,
    якщо ми виросли залежними від системи --
  • 11:18 - 11:21
    типу, як тепер вимкнути інтернет?
  • 11:21 - 11:26
    Б) Чому ж шимпанзе не натиснули
    на вимикач людства,
  • 11:26 - 11:27
    чи неандертальці?
  • 11:27 - 11:30
    Вони, напевно, мали причини.
  • 11:30 - 11:33
    Ми маємо вимикач, наприклад, прямо тут.
  • 11:33 - 11:34
    (Тисне)
  • 11:34 - 11:37
    Причина в тому, що ми -
    розумний супротивник;
  • 11:37 - 11:40
    ми можемо передбачати загрози
    і планувати навколо них.
  • 11:40 - 11:42
    Але так зможе і суперінтелектелект,
  • 11:42 - 11:46
    і він буде набагато вправнішим
    в цьому за нас.
  • 11:46 - 11:53
    Справа в тому, що ми не можемо бути
    впевнені, що у нас усе під контролем.
  • 11:53 - 11:56
    І ми можемо спробувати зробити
    своє завдання трохи легшим, скажімо,
  • 11:56 - 11:58
    поклавши Ш. І. до коробки,
  • 11:58 - 12:00
    як у безпечне софтверне середовище,
  • 12:00 - 12:03
    у симулятор віртуальної реальності,
    з якої він не може втекти.
  • 12:03 - 12:07
    Але як ми можемо бути певні, що
    Ш. І. не зможе знайти баг?
  • 12:07 - 12:10
    Зважаючи, що навіть хакери-люди
    постійно знаходять баги,
  • 12:10 - 12:13
    я б сказав, імовірно, не дуже впевнено.
  • 12:14 - 12:19
    Ми від'єднуємо кабель локальної мережі,
    щоб створити повітряний проміжок,
  • 12:19 - 12:21
    але знов-таки, навіть хакери-люди
  • 12:21 - 12:25
    "перестрибують" повітряні проміжки,
    використовуючи соціальну інженерію.
  • 12:25 - 12:26
    Зараз, коли я розмовляю,
  • 12:26 - 12:28
    впевнений, що є десь якийсь службовець,
  • 12:28 - 12:32
    який повідомляє дані свого акаунту
  • 12:32 - 12:35
    комусь, хто стверджує,
    що він з ІТ-департаменту.
  • 12:35 - 12:37
    Більш оригінальні сценарії теж можливі,
  • 12:37 - 12:38
    типу, якщо ви Ш.І.,
  • 12:38 - 12:42
    ви можете уявити тремтячі електроди
    навколо свого устаткування,
  • 12:42 - 12:45
    щоб створити радіохвилі, які можна
    використати для комунікації.
  • 12:45 - 12:47
    Або ви навіть можете
    удати з себе зламаного,
  • 12:47 - 12:51
    і коли програміст відкриє вас,
    щоб подивитися, що з вами не так,
  • 12:51 - 12:53
    вони дивляться у вихідний код -- Бам! --
  • 12:53 - 12:55
    може статися маніпуляція.
  • 12:55 - 12:59
    Або він може надрукувати схему
    дійсно вартісної технології,
  • 12:59 - 13:00
    і коли ми реалізуємо її,
  • 13:00 - 13:05
    вона матиме якісь побічні ефекти,
    які Ш. І. нишком спланував.
  • 13:05 - 13:08
    Справа в тому, що ми не повинні бути
    впевнені у нашій можливості
  • 13:08 - 13:12
    тримати суперінтелектуального джина
    у його пляшці довіку.
  • 13:12 - 13:14
    Раніш чи пізніш він визволиться.
  • 13:15 - 13:18
    Я вірю, що відповідь тут - це з'ясувати,
  • 13:18 - 13:23
    як створити такий супер Ш. І.,
    щоб навіть якщо він втече,
  • 13:23 - 13:26
    він залишатиметься безпечним,
    бо буде принципово на нашому боці,
  • 13:26 - 13:28
    бо розділятиме наші цінності.
  • 13:28 - 13:32
    Я не бачу виходу з цієї складної проблеми.
  • 13:33 - 13:36
    Зараз я досить оптимістичний
    щодо її вирішення.
  • 13:36 - 13:40
    Ми не повинні писати довгий
    список того, до чого ми небайдужі,
  • 13:40 - 13:44
    або навіть гірше, промовляти це
    якоюсь комп'ютерною мовою,
  • 13:44 - 13:45
    типу С++ або Пітону,
  • 13:45 - 13:48
    це буде безнадійне завдання.
  • 13:48 - 13:52
    Натомість ми маємо створити Ш. І.,
    що використовує свій інтелект,
  • 13:52 - 13:55
    щоб дізнатися про наші цінності,
  • 13:55 - 14:01
    і його мотиваційна система сконструйована
    так, що він мотивований
  • 14:01 - 14:06
    розділяти наші цінності або виконувати
    дії, які ми маємо схвалити.
  • 14:06 - 14:09
    Тоді ми подіємо на його інтелект
    так сильно, як тільки зможемо,
  • 14:09 - 14:12
    щоб вирішити проблему
    "завантаження цінностей".
  • 14:13 - 14:14
    Це може статися,
  • 14:14 - 14:18
    і результат може виявитись
    дуже вагомим для людства.
  • 14:18 - 14:22
    Але це не станеться автоматично.
  • 14:22 - 14:25
    Початкові умови інтелектуального вибуху
  • 14:25 - 14:28
    потрібно правильно встановити,
  • 14:28 - 14:31
    так, ніби ми маємо
    контрольований детонатор.
  • 14:31 - 14:34
    Цінності, за якими Ш.І.
    має свівпадати з нами,
  • 14:34 - 14:36
    мають бути не лише вже нам знайомими,
  • 14:36 - 14:38
    такими, за якими ми легко
    перевіримо поведінку Ш.І.,
  • 14:38 - 14:41
    але також і в новітньому контексті,
    який Ш.І. прораховуватиме
  • 14:41 - 14:43
    в невизначеному майбутньому.
  • 14:43 - 14:48
    Є також певні потаємні проблеми,
    які необхідно вирішити, наприклад:
  • 14:48 - 14:50
    конкретні деталі теорії прийняття рішень,
  • 14:50 - 14:52
    як справлятись з логічними
    невизначенностями і таке інше.
  • 14:53 - 14:56
    Тому технічні проблеми, які будемо
    вирішувати, щоб все спрацювало,
  • 14:56 - 14:58
    є досить складними --
  • 14:58 - 15:01
    не настільки, як власне створення Ш.І.,
  • 15:01 - 15:04
    але достатньо складними.
  • 15:04 - 15:05
    Мене хвилює наступне:
  • 15:05 - 15:10
    створення Ш.І. є, по-справжньому,
    складним випробуванням.
  • 15:10 - 15:13
    Створення безпечного Ш.І.
  • 15:13 - 15:15
    включає ще додаткову складність.
  • 15:16 - 15:20
    Ризик у тому, що хтось зможе
    розгадати перше випробування,
  • 15:20 - 15:23
    не розгадуючи додаткове,
  • 15:23 - 15:25
    по забезпеченню абсолютної безпеки.
  • 15:25 - 15:29
    Тому, я вважаю, що розв'язок
    проблеми контролю
  • 15:29 - 15:32
    нам потрібно розробити в першу чергу,
  • 15:32 - 15:34
    щоб мати його одразу тоді,
    коли знадобиться.
  • 15:35 - 15:38
    Зараз ми, можливо, не можемо розгадати
    всю проблему контролю наперед,
  • 15:38 - 15:41
    оскільки деякі елементи можна створити
  • 15:41 - 15:45
    лише знаючи деталі загальної архітектури,
    куди їх буде впроваджено.
  • 15:45 - 15:49
    Але чим більше ми розробимо наперед,
  • 15:49 - 15:53
    тим більша ймовірність того, що
    перехід до ери машинного інтеллекту
  • 15:53 - 15:54
    пройде успішно.
  • 15:54 - 15:59
    Як на мене, цим дійсно варто займатись,
  • 15:59 - 16:02
    і можна уявити, що у випадку,
    якщо все пройде успішно,
  • 16:02 - 16:07
    люди через мільйони років,
    споглядаючи в наше століття,
  • 16:07 - 16:11
    можливо, вважатимуть, що
    єдина важлива річ, яку ми зробили,
  • 16:11 - 16:13
    було створити цю річ правильно.
  • 16:13 - 16:14
    Дякую.
  • 16:14 - 16:17
    (Оплески)
Title:
Що трапляється, коли наші комп'ютери стають розумнішими за нас?
Speaker:
Нік Бостром
Description:

Штучний інтелект стає розумнішим дуже швидкими темпами - в межах цього століття, як передбачає дослідження, комп'ютерний штучний інтелект може стати "розумнішим" за людську істоту. А тоді, за словами Ніка Бострома, він обійде нас: "Машинний інтелект є останнім винаходом людства, який нам слід було б здійснити". Філософ та інженер Бостром просить нас добряче подумати про світ, який ми зараз будуємо, керуючись мислячими машинами. Чи допоможуть наші розумні машини захистити людство на наші цінності - чи вони матимуть власні цінності?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Ukrainian subtitles

Revisions