0:00:07.052,0:00:11.642 З кожним роком машини все частіше[br]наздоганяють людей у багатьох галузях, 0:00:11.642,0:00:14.848 у яких ми раніше [br]вважали себе неперевершеними. 0:00:14.848,0:00:18.423 Сучасні комп'ютери здатні перемагати[br]в складних настільних іграх, 0:00:18.423,0:00:21.294 розпізнавати мовлення багатьма мовами 0:00:21.294,0:00:24.746 та миттєво ідентифікувати [br]майже будь-які об'єкти. 0:00:24.746,0:00:27.112 Але майбутні роботи можуть піти далі, 0:00:27.112,0:00:30.243 навчившись розпізнавати,[br]що ми відчуваємо. 0:00:30.243,0:00:32.381 Але чому це важливо? 0:00:32.381,0:00:34.673 Бо якщо машини [br]та люди, які ними керують 0:00:34.673,0:00:37.223 зможуть точно визначати[br]наш емоційний стан, 0:00:37.223,0:00:40.193 вони зможуть допомагати нам[br]або маніпулювати нами 0:00:40.193,0:00:43.102 безпрецедентним чином. 0:00:43.102,0:00:44.614 Та поки цього не сталось, 0:00:44.614,0:00:49.653 як щось настільки складне як емоції[br]перетворити просто в числа, 0:00:49.653,0:00:53.253 тобто в єдину мову, [br]яку машини розуміють? 0:00:53.253,0:00:56.843 Фактично таким самим чином,[br]як і наш мозок інтерпретує емоції, 0:00:56.843,0:00:58.994 навчаючись їх розрізняти. 0:00:58.994,0:01:04.120 Американський психолог Пол Екман[br]виявив певні універсальні емоції, 0:01:04.120,0:01:09.174 ознаки яких однаково зрозумілі [br]в різних культурах. 0:01:09.174,0:01:14.193 Наприклад, зображення посмішки[br]означає радість, 0:01:14.193,0:01:16.965 як для жителів мегаполісів,[br]так і для аборигенів. 0:01:16.965,0:01:18.094 І згідно з Екманом, 0:01:18.094,0:01:18.823 злість, 0:01:18.823,0:01:19.533 огида, 0:01:19.533,0:01:20.275 страх, 0:01:20.275,0:01:21.092 радість, 0:01:21.092,0:01:21.848 смуток 0:01:21.848,0:01:25.433 і здивування - так само розпізнаються. 0:01:25.433,0:01:29.836 Як виявилось, комп'ютери успішно[br]вчаться розпізнавати зображення 0:01:29.836,0:01:34.015 завдяки алгоритмам навчання машин,[br]таким, як нейронні мережі. 0:01:34.015,0:01:38.205 Вони складаються зі штучних вузлів,[br]які імітують біологічні нейрони 0:01:38.205,0:01:41.784 шляхом утворення зв'язків[br]та обміну інформацією. 0:01:41.784,0:01:46.285 Для навчання нейромережі[br]приклади, систематизовані за категоріями, 0:01:46.285,0:01:49.175 такі як фото з відмітками[br]"щасливі" або "сумні", 0:01:49.175,0:01:51.285 вводять в мережу. 0:01:51.285,0:01:53.745 Потім мережа [br]вчиться класифікувати дані, 0:01:53.745,0:01:58.405 враховуючи відносну [br]вагу окремих параметрів. 0:01:58.405,0:02:00.025 Що більше [br]початкових даних, 0:02:00.025,0:02:04.795 то правильніше алгоритми [br]ідентифікують нові образи. 0:02:04.795,0:02:06.527 Це схоже на наш власний мозок, 0:02:06.527,0:02:11.725 який навчається з попереднього досвіду,[br]як обробляти нові стимули. 0:02:11.725,0:02:15.466 Алгоритми розпізнавання [br]не обмежені лише мімікою. 0:02:15.466,0:02:17.886 Наші емоції проявляються[br]багатьма способами. 0:02:17.886,0:02:20.116 Це мова тіла, тон голосу, 0:02:20.116,0:02:23.237 ритм серцебиття, колір обличчя,[br]температура шкіри, 0:02:23.237,0:02:28.046 або навіть частота слів [br]і структура речень при написанні. 0:02:28.046,0:02:31.205 Може ви думаєте, що тренування[br]нейромереж для такого розпізнавання 0:02:31.205,0:02:33.637 є складним і тривалим завданням? 0:02:33.637,0:02:36.966 Але ви навіть не уявляєте, [br]як багато даних вже зібрано, 0:02:36.966,0:02:40.375 і як швидко сучасні комп'ютери[br]здатні обробляти їх. 0:02:40.375,0:02:41.917 Від постів у соціальних мережах, 0:02:41.917,0:02:43.586 завантажених фото і відео, 0:02:43.586,0:02:44.987 телефонних записів 0:02:44.987,0:02:46.767 до інфрачервоних камер 0:02:46.767,0:02:50.437 і пристроїв для моніторингу[br]фізіологічних параметрів. 0:02:50.437,0:02:52.947 Тепер проблема не в тому,[br]як зібрати досить даних, 0:02:52.947,0:02:55.255 а в тому, що ми з ними [br]збираємося робити. 0:02:55.255,0:02:59.706 Автоматизоване розпізнавання емоцій[br]може бути дуже корисне. 0:02:59.706,0:03:02.627 Роботи з алгоритмами [br]розпізнавання міміки 0:03:02.627,0:03:04.246 можуть допомагати дітям вчитись 0:03:04.246,0:03:07.636 або надавати самотнім людям[br]відчуття спілкування. 0:03:07.636,0:03:10.476 Соціальні мережі [br]зможуть використовувати алгоритми 0:03:10.476,0:03:12.257 для запобігання суїцидів, 0:03:12.257,0:03:17.047 сигналізуючи про пости[br]зі специфічними словами або фразами. 0:03:17.047,0:03:19.237 Програми емоційного розпізнавання 0:03:19.237,0:03:21.457 можуть допомогти [br]при психологічних порушеннях 0:03:21.457,0:03:25.578 або навіть запропонувати людям [br]автоматизованого психотерапевта. 0:03:25.578,0:03:27.188 Потенційні вигоди існують, але 0:03:27.188,0:03:30.869 перспектива масового мережевого[br]автоматичного сканування наших фото, 0:03:30.869,0:03:31.958 зв'язків 0:03:31.958,0:03:36.877 та фізіологічних параметрів[br]викликає занепокоєння. 0:03:36.877,0:03:40.796 Які наслідки загрожують нашому [br]особистому життю, якщо корпорації 0:03:40.796,0:03:45.208 будуть використовувати такі системи[br]та експлуатувати наші емоції для реклами? 0:03:45.208,0:03:46.718 І що станеться з [br]нашими правами, 0:03:46.718,0:03:50.737 якщо влада зможе ідентифікувати[br]людей, здатних скоїти злочин, 0:03:50.737,0:03:54.927 навіть до того, як вони ухвалять[br]свідоме рішення діяти? 0:03:54.927,0:03:57.150 Роботам ще далеко до розпізнавання 0:03:57.150,0:04:00.258 таких емоційних тонкощів, як іронія, 0:04:00.258,0:04:04.758 до визначення сили емоції, [br]наскільки хтось щасливий або сумний. 0:04:04.758,0:04:09.288 Проте вони з часом зможуть[br]точно розпізнавати наші емоції 0:04:09.288,0:04:11.138 та реагувати на них. 0:04:11.138,0:04:15.389 А от чи зможуть вони співпереживати[br]нашому страху небажаного втручання? 0:04:15.389,0:04:16.887 Та це вже інша історія.