1 00:00:07,052 --> 00:00:11,642 З кожним роком машини все частіше наздоганяють людей у багатьох галузях, 2 00:00:11,642 --> 00:00:14,848 у яких ми раніше вважали себе неперевершеними. 3 00:00:14,848 --> 00:00:18,423 Сучасні комп'ютери здатні перемагати в складних настільних іграх, 4 00:00:18,423 --> 00:00:21,294 розпізнавати мовлення багатьма мовами 5 00:00:21,294 --> 00:00:24,746 та миттєво ідентифікувати майже будь-які об'єкти. 6 00:00:24,746 --> 00:00:27,112 Але майбутні роботи можуть піти далі, 7 00:00:27,112 --> 00:00:30,243 навчившись розпізнавати, що ми відчуваємо. 8 00:00:30,243 --> 00:00:32,381 Але чому це важливо? 9 00:00:32,381 --> 00:00:34,673 Бо якщо машини та люди, які ними керують 10 00:00:34,673 --> 00:00:37,223 зможуть точно визначати наш емоційний стан, 11 00:00:37,223 --> 00:00:40,193 вони зможуть допомагати нам або маніпулювати нами 12 00:00:40,193 --> 00:00:43,102 безпрецедентним чином. 13 00:00:43,102 --> 00:00:44,614 Та поки цього не сталось, 14 00:00:44,614 --> 00:00:49,653 як щось настільки складне як емоції перетворити просто в числа, 15 00:00:49,653 --> 00:00:53,253 тобто в єдину мову, яку машини розуміють? 16 00:00:53,253 --> 00:00:56,843 Фактично таким самим чином, як і наш мозок інтерпретує емоції, 17 00:00:56,843 --> 00:00:58,994 навчаючись їх розрізняти. 18 00:00:58,994 --> 00:01:04,120 Американський психолог Пол Екман виявив певні універсальні емоції, 19 00:01:04,120 --> 00:01:09,174 ознаки яких однаково зрозумілі в різних культурах. 20 00:01:09,174 --> 00:01:14,193 Наприклад, зображення посмішки означає радість, 21 00:01:14,193 --> 00:01:16,965 як для жителів мегаполісів, так і для аборигенів. 22 00:01:16,965 --> 00:01:18,094 І згідно з Екманом, 23 00:01:18,094 --> 00:01:18,823 злість, 24 00:01:18,823 --> 00:01:19,533 огида, 25 00:01:19,533 --> 00:01:20,275 страх, 26 00:01:20,275 --> 00:01:21,092 радість, 27 00:01:21,092 --> 00:01:21,848 смуток 28 00:01:21,848 --> 00:01:25,433 і здивування - так само розпізнаються. 29 00:01:25,433 --> 00:01:29,836 Як виявилось, комп'ютери успішно вчаться розпізнавати зображення 30 00:01:29,836 --> 00:01:34,015 завдяки алгоритмам навчання машин, таким, як нейронні мережі. 31 00:01:34,015 --> 00:01:38,205 Вони складаються зі штучних вузлів, які імітують біологічні нейрони 32 00:01:38,205 --> 00:01:41,784 шляхом утворення зв'язків та обміну інформацією. 33 00:01:41,784 --> 00:01:46,285 Для навчання нейромережі приклади, систематизовані за категоріями, 34 00:01:46,285 --> 00:01:49,175 такі як фото з відмітками "щасливі" або "сумні", 35 00:01:49,175 --> 00:01:51,285 вводять в мережу. 36 00:01:51,285 --> 00:01:53,745 Потім мережа вчиться класифікувати дані, 37 00:01:53,745 --> 00:01:58,405 враховуючи відносну вагу окремих параметрів. 38 00:01:58,405 --> 00:02:00,025 Що більше початкових даних, 39 00:02:00,025 --> 00:02:04,795 то правильніше алгоритми ідентифікують нові образи. 40 00:02:04,795 --> 00:02:06,527 Це схоже на наш власний мозок, 41 00:02:06,527 --> 00:02:11,725 який навчається з попереднього досвіду, як обробляти нові стимули. 42 00:02:11,725 --> 00:02:15,466 Алгоритми розпізнавання не обмежені лише мімікою. 43 00:02:15,466 --> 00:02:17,886 Наші емоції проявляються багатьма способами. 44 00:02:17,886 --> 00:02:20,116 Це мова тіла, тон голосу, 45 00:02:20,116 --> 00:02:23,237 ритм серцебиття, колір обличчя, температура шкіри, 46 00:02:23,237 --> 00:02:28,046 або навіть частота слів і структура речень при написанні. 47 00:02:28,046 --> 00:02:31,205 Може ви думаєте, що тренування нейромереж для такого розпізнавання 48 00:02:31,205 --> 00:02:33,637 є складним і тривалим завданням? 49 00:02:33,637 --> 00:02:36,966 Але ви навіть не уявляєте, як багато даних вже зібрано, 50 00:02:36,966 --> 00:02:40,375 і як швидко сучасні комп'ютери здатні обробляти їх. 51 00:02:40,375 --> 00:02:41,917 Від постів у соціальних мережах, 52 00:02:41,917 --> 00:02:43,586 завантажених фото і відео, 53 00:02:43,586 --> 00:02:44,987 телефонних записів 54 00:02:44,987 --> 00:02:46,767 до інфрачервоних камер 55 00:02:46,767 --> 00:02:50,437 і пристроїв для моніторингу фізіологічних параметрів. 56 00:02:50,437 --> 00:02:52,947 Тепер проблема не в тому, як зібрати досить даних, 57 00:02:52,947 --> 00:02:55,255 а в тому, що ми з ними збираємося робити. 58 00:02:55,255 --> 00:02:59,706 Автоматизоване розпізнавання емоцій може бути дуже корисне. 59 00:02:59,706 --> 00:03:02,627 Роботи з алгоритмами розпізнавання міміки 60 00:03:02,627 --> 00:03:04,246 можуть допомагати дітям вчитись 61 00:03:04,246 --> 00:03:07,636 або надавати самотнім людям відчуття спілкування. 62 00:03:07,636 --> 00:03:10,476 Соціальні мережі зможуть використовувати алгоритми 63 00:03:10,476 --> 00:03:12,257 для запобігання суїцидів, 64 00:03:12,257 --> 00:03:17,047 сигналізуючи про пости зі специфічними словами або фразами. 65 00:03:17,047 --> 00:03:19,237 Програми емоційного розпізнавання 66 00:03:19,237 --> 00:03:21,457 можуть допомогти при психологічних порушеннях 67 00:03:21,457 --> 00:03:25,578 або навіть запропонувати людям автоматизованого психотерапевта. 68 00:03:25,578 --> 00:03:27,188 Потенційні вигоди існують, але 69 00:03:27,188 --> 00:03:30,869 перспектива масового мережевого автоматичного сканування наших фото, 70 00:03:30,869 --> 00:03:31,958 зв'язків 71 00:03:31,958 --> 00:03:36,877 та фізіологічних параметрів викликає занепокоєння. 72 00:03:36,877 --> 00:03:40,796 Які наслідки загрожують нашому особистому життю, якщо корпорації 73 00:03:40,796 --> 00:03:45,208 будуть використовувати такі системи та експлуатувати наші емоції для реклами? 74 00:03:45,208 --> 00:03:46,718 І що станеться з нашими правами, 75 00:03:46,718 --> 00:03:50,737 якщо влада зможе ідентифікувати людей, здатних скоїти злочин, 76 00:03:50,737 --> 00:03:54,927 навіть до того, як вони ухвалять свідоме рішення діяти? 77 00:03:54,927 --> 00:03:57,150 Роботам ще далеко до розпізнавання 78 00:03:57,150 --> 00:04:00,258 таких емоційних тонкощів, як іронія, 79 00:04:00,258 --> 00:04:04,758 до визначення сили емоції, наскільки хтось щасливий або сумний. 80 00:04:04,758 --> 00:04:09,288 Проте вони з часом зможуть точно розпізнавати наші емоції 81 00:04:09,288 --> 00:04:11,138 та реагувати на них. 82 00:04:11,138 --> 00:04:15,389 А от чи зможуть вони співпереживати нашому страху небажаного втручання? 83 00:04:15,389 --> 00:04:16,887 Та це вже інша історія.