Return to Video

Як комп'ютери вчаться творчості

  • 0:01 - 0:04
    Я керую групою в Ґуґлі,
    яка працює над машинним інтелектом;
  • 0:04 - 0:09
    іншими словами, над дисципліною,
    що робить комп'ютери і пристрої
  • 0:09 - 0:11
    здатними робити деякі речі,
    які робить мозок.
  • 0:11 - 0:15
    Тому ми цікавимось реальним мозком
  • 0:15 - 0:16
    і неврологією також,
  • 0:16 - 0:20
    і зокрема речами, які робить наш мозок,
  • 0:20 - 0:24
    які досі перевершують
    продуктивність комп'ютера.
  • 0:25 - 0:29
    Історично, одна з таких галузей -
    це сприйняття,
  • 0:29 - 0:32
    процес, який дає змогу перетворити
    речі з реального світу --
  • 0:32 - 0:33
    звуки й зображення --
  • 0:34 - 0:36
    у концепції в свідомості.
  • 0:36 - 0:39
    Це важливо для нашого власного мозку
  • 0:39 - 0:41
    і це також дуже корисно для комп'ютера.
  • 0:42 - 0:45
    Алгоритми машинного сприйняття,
    наприклад, ті, які створює наша група, --
  • 0:45 - 0:49
    це те, що уможливлює пошук ваших
    світлин на Google Photos
  • 0:49 - 0:50
    за змістом світлин.
  • 0:52 - 0:55
    Інший бік сприйняття --
    це творча здатність:
  • 0:55 - 0:58
    перетворення концепції у
    щось реальне.
  • 0:58 - 1:02
    Отже, протягом останнього року,
    наша робота над машинним сприйняттям
  • 1:02 - 1:07
    також несподівано пов'язалася
    зі світом машинної творчої здібності
  • 1:07 - 1:08
    і машинного мистецтва.
  • 1:09 - 1:12
    Я гадаю, Мікеланджело
    проник у сутність
  • 1:12 - 1:16
    взаємовідносин між
    сприйняттям і творчою здібністю.
  • 1:16 - 1:18
    Ось його відома цитата:
  • 1:18 - 1:21
    "У кожному куску каменя
    схована скульптура,
  • 1:22 - 1:25
    і завдання скульптора --
    її відкрити".
  • 1:26 - 1:29
    Отже, я гадаю,
    Мікеланджело мав на увазі,
  • 1:29 - 1:32
    що творчість здійснюється
    через сприйняття,
  • 1:32 - 1:35
    і що сприйняття само по собі --
    це акт уяви,
  • 1:36 - 1:38
    що є сутністю творчості.
  • 1:39 - 1:43
    Орган, який думає,
    сприймає і уявляє,
  • 1:43 - 1:44
    це, звичайно, мозок.
  • 1:45 - 1:48
    І я би хотів почати з короткої історії
  • 1:48 - 1:50
    того, що ми знаємо про мозок.
  • 1:50 - 1:53
    Тому що на відміну від,
    скажімо, серця чи кишечника,
  • 1:53 - 1:56
    дуже мало можна сказати про мозок
    просто дивлячись на нього,
  • 1:56 - 1:58
    принаймні неозброєним оком.
  • 1:58 - 2:00
    Ранні анатомісти, які дивилися на мозок,
  • 2:00 - 2:04
    давали його поверхневим структурам
    різні примхливі імена,
  • 2:04 - 2:07
    як-от "гіпокамп", що означає
    "маленька креветка".
  • 2:07 - 2:09
    Але, звичайно, ці імена нам
    дуже мало говорять
  • 2:09 - 2:12
    про те, що відбувається всередині.
  • 2:13 - 2:16
    Першою людиною, яка, на мою думку,
    справді зазирнула у суть
  • 2:16 - 2:18
    того, що відбувається в мозку
  • 2:18 - 2:22
    був великий іспанський нейроанатом
    Сантьяґо Рамон-і-Кахаль
  • 2:22 - 2:24
    у 19-му сторіччі,
  • 2:24 - 2:28
    який використовував мікроскопію
    і спеціальні забарвники,
  • 2:28 - 2:32
    що могли вибірково заповнювати
    чи надавати дуже високого контрасту
  • 2:32 - 2:34
    індивідуальним клітинам в мозку,
  • 2:34 - 2:37
    щоб зрозуміти їхню морфологію.
  • 2:38 - 2:41
    Ось які він зробив малюнки нейронів
  • 2:41 - 2:42
    у 19-му сторіччі.
  • 2:42 - 2:44
    Це зроблено з мозку пташки.
  • 2:44 - 2:47
    І ви бачите величезне розмаїття
    різних видів клітин,
  • 2:47 - 2:51
    навіть сама клітинна теорія
    була ще дуже новою.
  • 2:51 - 2:52
    І ці структури,
  • 2:52 - 2:54
    ці клітини, що мають ці розгалуження,
  • 2:54 - 2:57
    ці гілки, що можуть іти
    дуже, дуже далеко --
  • 2:57 - 2:58
    це було дуже новим у той час.
  • 2:59 - 3:02
    Вони, звичайно, нагадують дроти.
  • 3:02 - 3:05
    Це, можливо, було очевидним
    для декого у 19-му сторіччі;
  • 3:05 - 3:10
    революція поширення дротів і електрики
    якраз починалася.
  • 3:10 - 3:11
    Але у багатьох змістах,
  • 3:11 - 3:14
    ці мікроанатомічні малюнки
    Рамона-і-Кахаля, як оцей,
  • 3:15 - 3:17
    досі неперевершені у багатьох речах.
  • 3:17 - 3:19
    Досі, більш як сторіччя пізніше,
  • 3:19 - 3:22
    ми намагаємося завершити роботу,
    яку почав Рамон-і-Кахаль.
  • 3:22 - 3:25
    Це - необроблені дані наших колег
  • 3:25 - 3:28
    з Неврологічного інституту
    імені Макса Планка.
  • 3:28 - 3:29
    Наші колеги створили
  • 3:29 - 3:34
    зображення малих шматочків
    мозкової тканини.
  • 3:34 - 3:38
    Весь зразок тут завбільшки
    в один кубічний міліметр,
  • 3:38 - 3:40
    і я показую вам тут його
    дуже, дуже малу частину.
  • 3:40 - 3:43
    Ця риска зліва - один мікрон.
  • 3:43 - 3:45
    Структури, які ви бачите --
    це мітохондрії
  • 3:45 - 3:47
    завбільшки з бактерію.
  • 3:47 - 3:49
    І це -- послідовні перерізи
  • 3:49 - 3:52
    цього малесенького
    шматочка тканини.
  • 3:52 - 3:55
    Лише для порівняння,
  • 3:55 - 3:58
    діаметр середньої волосини --
    приблизно 100 мікронів.
  • 3:58 - 4:01
    Отже, ми дивимось на щось
    набагато менше
  • 4:01 - 4:02
    ніж переріз однієї волосини.
  • 4:02 - 4:06
    І з такого ряду електронно-
    мікроскопічних перерізів
  • 4:06 - 4:11
    можна почати відтворювати
    трьохмірні зображення нейронів, як оці.
  • 4:11 - 4:14
    Ці зображення дуже подібні до
    зображень Рамона-і-Кахаля.
  • 4:14 - 4:16
    Лише кілька нейронів показано,
  • 4:16 - 4:19
    тому що інкаше ми би
    не змогли побачити нічого.
  • 4:19 - 4:20
    Було б перенасичення
  • 4:20 - 4:21
    деталями структури
  • 4:21 - 4:24
    і зв'язків між нейронами.
  • 4:25 - 4:28
    Отже, Рамон-і-Кахаль
    дещо випереджав свій час,
  • 4:28 - 4:31
    і прогрес розуміння мозку
  • 4:31 - 4:33
    просувався повільно
    у наступні десятиліття.
  • 4:33 - 4:36
    Але ми знали, що нейрони
    використовують електрику,
  • 4:36 - 4:39
    і до Другої світової наша технологія
    просунулася достатньо,
  • 4:39 - 4:42
    щоб робити електричні
    експерименти над живими нейронами
  • 4:42 - 4:44
    для кращого розуміння, як вони працюють.
  • 4:45 - 4:49
    Це був той самий час, коли було
    винайдено комп'ютери,
  • 4:49 - 4:52
    здебільшого, на основі ідеї
    моделювання мозку --
  • 4:52 - 4:55
    "інтелектуальної техніки",
    як назвав її Алан Тюринґ,
  • 4:55 - 4:57
    один із засновників комп'ютерної науки.
  • 4:58 - 5:03
    Воррен МакКалок і Волтер Пітс
    подивилися на зроблений Рамоном-і-Кахалєм
  • 5:03 - 5:04
    малюнок зорової кори,
  • 5:04 - 5:05
    показаний тут.
  • 5:06 - 5:10
    Це кора, що обробляє зображення,
    які надходять від очей.
  • 5:10 - 5:14
    І для них він виглядав як
    електрична схема.
  • 5:14 - 5:18
    В електричній схемі МакКалока і Пітса
    багато деталей,
  • 5:18 - 5:20
    що не є цілком правильними.
  • 5:20 - 5:21
    Але основна ідея
  • 5:21 - 5:25
    що зорова кора працює як ряд
    обчислювальних елементів,
  • 5:25 - 5:28
    які передають інформацію
    один до одного каскадом,
  • 5:28 - 5:29
    є, в принципі, правильною.
  • 5:29 - 5:32
    Давайте трохи поговоримо про те,
  • 5:32 - 5:36
    що повинна робити модель для обробки
    візуальної інформації.
  • 5:36 - 5:39
    Головна задача сприйняття --
  • 5:39 - 5:43
    це взяти зображення, як оце, і сказати:
  • 5:43 - 5:44
    "Це птах",
  • 5:44 - 5:47
    що є дуже просто для нас
    з нашим мозком.
  • 5:47 - 5:51
    Але всім варто розуміти,
    що для комп'ютера
  • 5:51 - 5:54
    це було практично неможливо
    лише кілька років тому.
  • 5:54 - 5:56
    В класичній обчислювальній парадигмі
  • 5:56 - 5:58
    це завдання нелегко виконати.
  • 5:59 - 6:02
    Отже, що відбувається між пікселями,
  • 6:02 - 6:06
    між зображенням птаха,
    і словом "птах" --
  • 6:06 - 6:09
    це, по суті, ряд нейронів пов'язаних
    один з одним
  • 6:09 - 6:10
    у нейронну мережу,
  • 6:10 - 6:11
    як на цій діаграмі.
  • 6:11 - 6:15
    Ця нейронна мережа може бути
    біологічною всередині зорової кори,
  • 6:15 - 6:17
    або ж сьогодні ми
    отримуємо здатність
  • 6:17 - 6:19
    моделювати ці нейронні мережі
    на комп'ютері.
  • 6:20 - 6:22
    І я зараз покажу, як це
    насправді виглядає.
  • 6:22 - 6:26
    Отже, можна вважати пікселі
    першим шаром нейронів,
  • 6:26 - 6:28
    як це фактично і є в оці --
  • 6:28 - 6:30
    це нейрони сітківки.
  • 6:30 - 6:31
    Вони передають інформацію
  • 6:31 - 6:35
    від шару до шару
    і до іншого шару нейронів,
  • 6:35 - 6:38
    які усі пов'язані синапсами
    різної ваги.
  • 6:38 - 6:39
    Поведінка цієї мережі
  • 6:39 - 6:42
    характеризується силою усіх цих синапсів.
  • 6:42 - 6:46
    Вони характеризують обчислювальні
    властивості мережі.
  • 6:46 - 6:47
    Наприкінці,
  • 6:47 - 6:50
    у вас є нейрон
    або мала група нейронів,
  • 6:50 - 6:51
    що висвітлюється словом "птах".
  • 6:52 - 6:55
    Тепер я представлю ці три речі --
  • 6:55 - 7:00
    пікселі на вході, синапси
    в нейронній мережі,
  • 7:00 - 7:01
    і птаха, що на виході,
  • 7:01 - 7:04
    трьома змінними: x, w і y.
  • 7:05 - 7:07
    Існують, напевно, мільйони x-ів --
  • 7:07 - 7:09
    у цьому зображенні мільйон пікселів.
  • 7:09 - 7:11
    Є мільярди чи трильйони w,
  • 7:11 - 7:15
    що представляють вагу усіх синапсів
    в нейронній мережі.
  • 7:15 - 7:16
    І є мала кількість y,
  • 7:16 - 7:18
    виходів, що має мережа.
  • 7:18 - 7:20
    "Птах" має лише чотири літери.
  • 7:21 - 7:25
    Отже, уявімо просту формулу,
  • 7:25 - 7:27
    X "x" W = Y.
  • 7:27 - 7:29
    Я взяв "помножити" в лапки,
  • 7:29 - 7:31
    тому що те, що тут відбувається,
    звичайно,
  • 7:31 - 7:34
    є дуже складним рядом
    математичних операцій.
  • 7:35 - 7:36
    Це одне рівняння.
  • 7:36 - 7:38
    Є три змінні.
  • 7:38 - 7:41
    Ми знаємо, що коли ми
    маємо одне рівняння,
  • 7:41 - 7:45
    можна знайти одну змінну,
    якщо знати дві інші.
  • 7:45 - 7:49
    Отже, проблема висновку,
  • 7:49 - 7:51
    тобто, з'ясування, що
    зображення птаха - це птах,
  • 7:51 - 7:53
    полягає ось у чому:
  • 7:53 - 7:56
    y є невідомим, тоді як
    w і x відомі.
  • 7:56 - 7:59
    Нейронна мережа і пікселі є відомими.
  • 7:59 - 8:02
    Як бачите, проблема
    відносно проста.
  • 8:02 - 8:04
    Ви помножуєте два на три -- і готово.
  • 8:05 - 8:07
    Я покажу вам штучну нейронну мережу,
  • 8:07 - 8:09
    яку ми нещодавно створили
    якраз у такий спосіб.
  • 8:10 - 8:12
    Це працює в реальному часі
    на мобільному телефоні,
  • 8:13 - 8:16
    і це неймовірно само по собі,
  • 8:16 - 8:19
    що мобільні телефони можуть
    здійснювати мільярди і трильйони операцій
  • 8:19 - 8:21
    за секунду.
  • 8:21 - 8:22
    Ви бачите телефон,
  • 8:22 - 8:26
    який дивиться на одне зображення
    птаха за іншим
  • 8:26 - 8:29
    і не лише говорить:
    "Так, це птах,"
  • 8:29 - 8:32
    а й визначає вид птаха
    за допомогою цієї мережі.
  • 8:33 - 8:35
    Отже, в цьому зображенні
  • 8:35 - 8:39
    x і w відомі,
    а y - невідома.
  • 8:39 - 8:41
    Звичайно, я пропускаю
    дуже складну частину:
  • 8:41 - 8:45
    яким чином ми визначаємо w,
  • 8:45 - 8:47
    тобто мозок, що це робить.
  • 8:47 - 8:49
    Як можна навчитися такій моделі?
  • 8:49 - 8:53
    Цей процес навчання,
    тобто розв'язку по w,
  • 8:53 - 8:55
    якщо робити це з простим рівнянням,
  • 8:55 - 8:57
    в якому ми вважаємо ці змінні числами,
  • 8:57 - 9:00
    ми точно знаємо, як це зробити: 6 = 2 x w,
  • 9:00 - 9:03
    отже ми ділимо на два -- і все.
  • 9:04 - 9:06
    Проблема -- з цим оператором.
  • 9:07 - 9:08
    Отже, ділення --
  • 9:08 - 9:11
    ми використали ділення,
    бо ділення є зворотнім до множення,
  • 9:11 - 9:13
    але, як я щойно сказав,
  • 9:13 - 9:15
    "множення" тут трохи брехлива назва.
  • 9:15 - 9:18
    Це дуже, дуже складна нелінійна операція;
  • 9:18 - 9:20
    у неї нема зворотньої операції.
  • 9:20 - 9:23
    Отже, нам треба з'ясувати, як
    розв'язати це рівняння
  • 9:23 - 9:25
    без оператора ділення.
  • 9:25 - 9:28
    І це можна зробити досить просто.
  • 9:28 - 9:30
    Можна сказати:
    "давайте зробимо алгебраїчний фокус
  • 9:30 - 9:33
    і перенесемо шість у правий
    бік рівняння".
  • 9:33 - 9:35
    Ми все ще використовуємо множення.
  • 9:36 - 9:39
    А цей нуль -- вважаймо його помилкою.
  • 9:39 - 9:42
    Іншими словами, якщо ми знайдемо
    w правильно,
  • 9:42 - 9:43
    помилка буде нульовою.
  • 9:43 - 9:45
    А якщо не зовсім правильно,
  • 9:45 - 9:47
    помилка буде ненульовою.
  • 9:47 - 9:51
    Отже тепер ми можемо просто
    вгадувати, намагаючись зменшити помилку,
  • 9:51 - 9:53
    і комп'ютери роблять це чудово.
  • 9:53 - 9:55
    Ви робите початкову спробу:
  • 9:55 - 9:56
    що як w = 0?
  • 9:56 - 9:57
    Тоді помилка - 6.
  • 9:57 - 9:59
    Що як w = 1?
    Тоді помилка - 4.
  • 9:59 - 10:01
    Тоді комп'ютер грає в Марко Поло,
  • 10:01 - 10:04
    наближуючи помилку до нуля.
  • 10:04 - 10:07
    Роблячи це, комп'ютер послідовно
    наближається до w.
  • 10:07 - 10:11
    Зазвичай, він ніколи не доходить до нього,
    але після десятка спроб,
  • 10:11 - 10:15
    ми отримуємо w = 2,999,
    що достатньо близько.
  • 10:16 - 10:18
    Це і є процесом навчання.
  • 10:18 - 10:21
    Отже, запам'ятайте, що ми тут робили.
  • 10:21 - 10:25
    Ми брали багато відомих x і відомих y
  • 10:25 - 10:29
    і розв'язували рівняння по w
    за допомогою ітерацій.
  • 10:29 - 10:32
    Точно так само ми самі навчаємося.
  • 10:32 - 10:35
    В дитинстві ми переглядаємо
    багато картинок,
  • 10:35 - 10:37
    і нам говорять: "Це - птах; це - не птах".
  • 10:38 - 10:40
    З часом, через ітерації,
  • 10:40 - 10:43
    ми розв'язуємо w, ми отримуємо
    ці нейронні зв'язки.
  • 10:43 - 10:48
    Отже, тепер ми маємо
    відомі x і w, щоб розв'язати y;
  • 10:48 - 10:49
    це -- щоденне, швидке сприйняття.
  • 10:49 - 10:51
    Ми знаємо, як визначити w,
  • 10:51 - 10:53
    тобто навчання, що є набагато складніше,
  • 10:53 - 10:55
    оскільки ми повинні зменшувати помилку
  • 10:55 - 10:57
    багатьма навчальними прикладами.
  • 10:57 - 11:00
    Приблизно рік тому
    Алекс Мордвінцев з нашої групи
  • 11:00 - 11:04
    вирішив подивитися, що станеться,
    якщо спробувати розв'язати по x,
  • 11:04 - 11:06
    знаючи w і y.
  • 11:06 - 11:07
    Іншими словами,
  • 11:07 - 11:09
    ви знаєте, що таке птах,
  • 11:09 - 11:12
    і у вас уже є нейронна мережа,
    натренована на птахів,
  • 11:12 - 11:14
    але що є зображенням птаха?
  • 11:15 - 11:20
    Виявляється, за допомогою
    цієї процедури зменшення помилки
  • 11:20 - 11:24
    можна це зробити з мережею,
    натренованою на розпізнавання птахів,
  • 11:24 - 11:27
    і результатом буде...
  • 11:30 - 11:32
    зображення птахів.
  • 11:33 - 11:37
    Отже, це -- зображення птахів,
    цілком створене нейронною мережею,
  • 11:37 - 11:38
    натренованою на розпізнавання птахів,
  • 11:38 - 11:42
    просто розв'язанням рівняння по x
    замість розв'язання по y,
  • 11:42 - 11:43
    за допомогою ітерацій.
  • 11:44 - 11:46
    Ось ще один приклад.
  • 11:46 - 11:49
    Це робота Майка Тайки з нашої групи,
  • 11:49 - 11:51
    яку він називає "парадом тварин".
  • 11:51 - 11:54
    Це трохи нагадує мені мистецтво
    Вільяма Кентріджа,
  • 11:54 - 11:57
    де він робить нариси, витирає їх,
  • 11:57 - 11:58
    робить нариси, витирає їх,
  • 11:58 - 12:00
    і таким чином створює фільм.
  • 12:00 - 12:01
    У цьому випадку
  • 12:01 - 12:04
    Майк змінює значення y
    у просторі різних тварин
  • 12:04 - 12:07
    у мережі, натренованій
    впізнавати і відрізняти
  • 12:07 - 12:08
    різних тварин одна від одної.
  • 12:08 - 12:12
    Виходить таке дивовижне перетворення
    однієї тварини в іншу, в стилі Ешера.
  • 12:14 - 12:19
    Тут він і Алекс разом
    спробували обмежити
  • 12:19 - 12:22
    y до лише двохмірного простору,
  • 12:22 - 12:25
    таким чином створивши карту
    простору всіх речей,
  • 12:25 - 12:27
    які може розпізнавати мережа.
  • 12:27 - 12:29
    За допомогою такого синтезу
  • 12:29 - 12:31
    або створення зображень
    на всій площині,
  • 12:31 - 12:34
    змінюючи y по площині,
    створюється своєрідна карта --
  • 12:34 - 12:37
    візуальна карта усіх речей,
    які може розпізнавати мережа.
  • 12:37 - 12:40
    Тут є всі тварини;
    ось тут -- броненосець.
  • 12:41 - 12:43
    Це можна зробити
    з іншими типами мереж також.
  • 12:43 - 12:46
    Ось мережа, натренована
    розпізнавати обличчя,
  • 12:46 - 12:48
    розрізняти одне обличчя від іншого.
  • 12:48 - 12:52
    А тут, ми задаємо y
    значення "я",
  • 12:52 - 12:53
    параметри мого власного обличчя.
  • 12:53 - 12:55
    І коли мережа розв'язує x,
  • 12:55 - 12:58
    створюється трохи божевільне,
  • 12:58 - 13:02
    кубічне, сюрреалістичне, психоделічне
    зображення мене
  • 13:02 - 13:04
    з багатьох точок зору відразу.
  • 13:04 - 13:07
    З багатьох точок зору відразу,
  • 13:07 - 13:10
    тому що ця мережа натренована
    уникати неоднозначності,
  • 13:10 - 13:13
    коли обличчя є в одному
    чи іншому ракурсі,
  • 13:13 - 13:16
    в одному чи іншому освітленні.
  • 13:16 - 13:18
    Коли ви робите таку реконструкцію,
  • 13:18 - 13:21
    якщо не мати якогось
    орієнтовного зображення
  • 13:21 - 13:22
    або статистики,
  • 13:22 - 13:26
    то ви отримаєте суміш
    різних точок зору,
  • 13:26 - 13:27
    через невизначеність.
  • 13:28 - 13:32
    Ось що відбувається, коли Алекс
    використовує власне обличчя як орієнтир
  • 13:32 - 13:35
    під час процесу оптимізації
    для відтворення мого обличчя.
  • 13:36 - 13:39
    Ви бачите, процес недосконалий.
  • 13:39 - 13:41
    Ще є багато роботи
  • 13:41 - 13:43
    з оптимізації цього процесу оптимізації.
  • 13:43 - 13:46
    Але ми починаємо отримувати
    щось подібне на чітке обличчя,
  • 13:46 - 13:48
    створене з мого обличчя в якості орієнтира.
  • 13:49 - 13:51
    Не обов'язково починати з чистого полотна
  • 13:51 - 13:53
    чи з білого шуму.
  • 13:53 - 13:54
    Коли ви розв'язуєте по x,
  • 13:54 - 13:58
    можна починати з x,
    що вже має якесь зображення.
  • 13:58 - 14:00
    Це і робиться в наступній демонстрації.
  • 14:00 - 14:05
    Це мережа, що класифікує
  • 14:05 - 14:08
    усілякі предмети --
    споруди, тварин ...
  • 14:08 - 14:10
    Тут ми починаємо
    з зображення хмар,
  • 14:10 - 14:12
    і в міру оптимізації,
  • 14:12 - 14:17
    по суті, мережа, з'ясовує,
    що вона бачить у цих хмарах.
  • 14:17 - 14:19
    Що більше часу дивитись на це,
  • 14:19 - 14:22
    то більше речей ви помічаєте
    в цих хмарах.
  • 14:23 - 14:26
    Можна також використовувати мережу
    для обличь для цих галюцинацій,
  • 14:26 - 14:28
    виходять досить навіжені речі.
  • 14:28 - 14:29
    (Сміх)
  • 14:30 - 14:33
    Або ж Майк робив інші експерименти,
  • 14:33 - 14:37
    в яких він брав це зображення хмар,
  • 14:37 - 14:41
    галюцинував, збільшував,
    галюцинував, збільшував.
  • 14:41 - 14:42
    І таким чином
  • 14:42 - 14:45
    виходить мережева маячня, я б сказав,
  • 14:46 - 14:49
    або такі собі вільні асоціації,
  • 14:49 - 14:51
    в яких мережа доганяє власний хвіст.
  • 14:51 - 14:55
    Кожне зображення є основою для
  • 14:55 - 14:56
    "Що ж я бачу тепер?"
  • 14:56 - 14:59
    "Що ж я бачу тепер?"
    "Що ж я бачу тепер?"
  • 14:59 - 15:02
    Вперше публічно я це показав
  • 15:02 - 15:08
    групі на лекції в Сіетлі під назвою
    "Вища освіта" --
  • 15:08 - 15:10
    це було якраз після легалізації маріхуани.
  • 15:10 - 15:13
    (Сміх)
  • 15:15 - 15:17
    Хочу швидко закінчити
  • 15:17 - 15:21
    зауваженням, що ця технологія
    необмежена.
  • 15:21 - 15:25
    Я показав вам чисто візуальні приклади,
    тому що на них цікаво дивитися.
  • 15:25 - 15:27
    Це не лише візуальна технологія.
  • 15:27 - 15:29
    Наш колега-художник, Рос Ґудвін,
  • 15:29 - 15:33
    експериментував із камерою,
    що знімала зображення,
  • 15:33 - 15:37
    а потім комп'ютер в його рюкзаку
    писав вірш за допомогою нейронних мереж,
  • 15:37 - 15:39
    на основі змісту зображень.
  • 15:39 - 15:42
    І ця поетична нейронна мережа
    була натренована
  • 15:42 - 15:44
    на величезній базі поезії 20-го сторіччя.
  • 15:44 - 15:46
    І поезія, знаєте,
  • 15:46 - 15:48
    гадаю, вийшла непогана.
  • 15:48 - 15:49
    (Сміх)
  • 15:49 - 15:50
    І на закінчення.
  • 15:50 - 15:53
    Думаю, Мікеланджело
  • 15:53 - 15:54
    мав рацію;
  • 15:54 - 15:57
    сприйняття і творчість
    дуже тісно пов'язані.
  • 15:58 - 16:00
    Ми щойно бачили, як нейронні мережі,
  • 16:00 - 16:03
    натреновані відрізняти
  • 16:03 - 16:05
    або впізнавати різні речі,
  • 16:05 - 16:08
    можуть працювати в зворотньому напрямку
    і творити.
  • 16:08 - 16:10
    Мені видається,
  • 16:10 - 16:12
    що не лише Мікеланджело
    справді бачив
  • 16:12 - 16:15
    скульптуру в уламку каменя,
  • 16:15 - 16:18
    але що будь-яка істота,
    будь-який інопланетянин,
  • 16:18 - 16:22
    здатний до сприйняття,
  • 16:22 - 16:23
    також здатний до творчості,
  • 16:23 - 16:27
    тому що в обидвох випадках
    використовується один механізм.
  • 16:27 - 16:31
    Я також думаю, що сприйняття
    і творча здатність не є
  • 16:31 - 16:33
    лише людськими якостями.
  • 16:33 - 16:36
    У нас з'являються комп'ютерні моделі,
    які роблять якраз ці речі.
  • 16:36 - 16:40
    І це не має бути несподіваним;
    мозок є обчислювальним органом.
  • 16:40 - 16:41
    І, нарешті,
  • 16:41 - 16:46
    машинне обчислення почалося як спроба
    створити розумні машини.
  • 16:46 - 16:48
    Воно було здебільшого побудоване на ідеї
  • 16:48 - 16:51
    як зробити машини розумними.
  • 16:52 - 16:54
    І ми нарешті зараз починаємо виконувати
  • 16:54 - 16:56
    деякі обіцянки ранніх застрільників,
  • 16:56 - 16:58
    Тюринґа і фон Неймана,
  • 16:58 - 17:00
    МакКалока й Піттса.
  • 17:00 - 17:04
    Я думаю, машинне обчислення --
    це не лише бухгалтерія
  • 17:04 - 17:06
    чи гра у Кенді Краш.
  • 17:06 - 17:09
    Від початку комп'ютери
    моделювалися за нашим розумом.
  • 17:09 - 17:12
    І вони дають нам змогу
    краще зрозуміти можливості нашого розуму
  • 17:12 - 17:14
    і розширити їх одночасно.
  • 17:15 - 17:16
    Щиро дякую.
  • 17:16 - 17:22
    (Оплески)
Title:
Як комп'ютери вчаться творчості
Speaker:
Блейз Аґуера-і-Аркас
Description:

Ми підійшли до нових меж мистецтва і творчих здібностей -- і вони не людські. Блейз Аґуера-і-Аркас, головний науковець компанії Ґугл, працює з глибокими нейронними мережами для машинного сприйняття та розподіленого навчання. В захоплюючій демонстрації він показує як нейронні мережі, треновані впізнавати зображення, можуть працювати в зворотньому напрямку і створювати їх. Результат -- видовищні колажі, схожі на галюцинації (і вірші!), що не піддаються класифікації. "Сприйняття і творчість тісно пов'язані, -- стверджує Аґуера-і-Аркас. -- Будь-яка істота, здатна до сприйняття, також здатна до творчості".

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:34

Ukrainian subtitles

Revisions