1 00:00:00,556 --> 00:00:04,573 Наші емоції впливають на кожен аспект нашого життя, 2 00:00:04,573 --> 00:00:08,149 від здоров'я і навчання, до того, як ми ведемо справи і приймаємо рішення, 3 00:00:08,149 --> 00:00:09,922 великі чи малі. 4 00:00:10,672 --> 00:00:14,162 Наші емоції також впливають на те, як ми налагоджуємо контакти з іншими. 5 00:00:15,132 --> 00:00:19,108 Ми звикли жити в такому світі, 6 00:00:19,108 --> 00:00:23,427 але незважаючи на це, наше життя стає все більше таким -- 7 00:00:23,427 --> 00:00:26,561 це вчорашнє повідомлення від моєї доньки -- 8 00:00:26,561 --> 00:00:29,301 у світі, що позбавлений емоцій. 9 00:00:29,301 --> 00:00:31,252 Тому моє завдання - змінити це. 10 00:00:31,252 --> 00:00:35,343 Я хочу повернути емоції у наші цифрові комунікації. 11 00:00:36,223 --> 00:00:39,300 На цей шлях я стала 15 років тому. 12 00:00:39,300 --> 00:00:41,366 Я була програмістом в Єгипті, 13 00:00:41,366 --> 00:00:45,871 і мене якраз зарахували на докторську програму в Кембриджському університеті. 14 00:00:45,871 --> 00:00:47,984 Я зробила щось незвичне 15 00:00:47,984 --> 00:00:52,209 як для молодої, щойно одруженої єгипетської жінки-мусульманки: 16 00:00:53,599 --> 00:00:56,598 завдяки підтримці мого чоловіка, який залишився в Єгипті, 17 00:00:56,598 --> 00:00:59,616 я спакувала речі і переїхала до Англії. 18 00:00:59,616 --> 00:01:02,844 В Кембриджі, за тисячі миль від дому, 19 00:01:02,844 --> 00:01:06,257 я усвідомила, що проводжу більше годин за комп'ютером, 20 00:01:06,257 --> 00:01:08,486 ніж спілкуючись з іншими людьми. 21 00:01:08,486 --> 00:01:13,339 Проте, незважаючи на цю близькість, мій комп'ютер не знав, як я почуваюся. 22 00:01:13,339 --> 00:01:16,550 Він не знав, чи я щаслива, 23 00:01:16,550 --> 00:01:19,538 чи в мене поганий день, чи я стресована, розгублена, 24 00:01:19,538 --> 00:01:22,460 і це було розчаруванням. 25 00:01:23,600 --> 00:01:28,831 Навіть гірше: коли я розмовляла зі своїми, 26 00:01:29,421 --> 00:01:32,703 то відчула, що всі емоції зникають в кіберпросторі. 27 00:01:32,703 --> 00:01:37,858 Я сумувала за домом, була одинокою, і інколи навіть плакала, 28 00:01:37,858 --> 00:01:42,786 але все, що я могла висловити, було ось це. 29 00:01:42,786 --> 00:01:44,806 (Сміх) 30 00:01:44,806 --> 00:01:49,780 Технології сьогодення мають багато IQ, але не мають емоційної якості. 31 00:01:49,780 --> 00:01:52,956 Багато пізнавального інтелекту та відсутність емоційного інтелекту. 32 00:01:52,956 --> 00:01:55,153 Це змусило мене задуматися, 33 00:01:55,153 --> 00:01:58,777 а що, якщо технології зможуть відчувати наші емоції? 34 00:01:58,777 --> 00:02:02,853 А що, якщо наші пристрої зможуть відчути, як ми почуваємося і відповідно відреагувати, 35 00:02:02,853 --> 00:02:05,866 так, як емоційно розвинений друг? 36 00:02:06,666 --> 00:02:10,230 Ці питання привели мене і мою команду 37 00:02:10,230 --> 00:02:14,607 до створення технологій, що можуть читати і відповідати на наші емоції, 38 00:02:14,607 --> 00:02:17,697 і нашою стартовою точкою було обличчя людини. 39 00:02:18,577 --> 00:02:21,750 Наше обличчя є одним з найпотужніших каналів, 40 00:02:21,750 --> 00:02:25,766 який ми використовуємо, щоб висловити соціальний та емоційний стан, 41 00:02:25,766 --> 00:02:28,776 все, починаючи з веселощів, здивування, 42 00:02:28,776 --> 00:02:32,979 співчуття і допитливості. 43 00:02:32,979 --> 00:02:37,907 В науці емоцій, кожен порух м'язів обличчя ми називаємо одиницею поведінки. 44 00:02:37,907 --> 00:02:40,832 Наприклад, одиниця поведінки 12, 45 00:02:40,832 --> 00:02:42,870 це не голлівудський блокбастер, 46 00:02:42,870 --> 00:02:46,312 це, власне, розширення кутиків губ, що є основним елементом усмішки. 47 00:02:46,312 --> 00:02:49,300 Спробуйте всі. Давайте посміхнемося. 48 00:02:49,300 --> 00:02:51,954 Інший приклад - одиниця поведінки 4, зморшка на лобі. 49 00:02:51,954 --> 00:02:54,192 Це коли ви зводите брови разом 50 00:02:54,192 --> 00:02:56,459 і утворюються всі ці нерівності і зморшки. 51 00:02:56,459 --> 00:03:00,754 Ми не любимо їх, але це очевидна ознака негативної емоції. 52 00:03:00,754 --> 00:03:02,960 У нас близько 45 таких одиниць поведінки, 53 00:03:02,960 --> 00:03:06,350 і вони, в поєднанні, можуть виразити сотні емоцій. 54 00:03:06,350 --> 00:03:10,251 Навчити комп'ютер зчитувати емоції обличчя є досить важко, 55 00:03:10,251 --> 00:03:13,223 оскільки ці одиниці поведінки можуть бути швидкими, ледь помітними, 56 00:03:13,223 --> 00:03:15,777 і вони поєднуються в різний спосіб. 57 00:03:15,777 --> 00:03:19,515 Наприклад, подивимося на посмішку та самовдоволену посмішку. 58 00:03:19,515 --> 00:03:23,268 Вони виглядають дещо однаково, але означають зовсім різне. 59 00:03:23,268 --> 00:03:24,986 (Сміх) 60 00:03:24,986 --> 00:03:27,990 Посмішка є позитивною, 61 00:03:27,990 --> 00:03:29,260 а самовдоволена посмішка зазвичай негативна. 62 00:03:29,260 --> 00:03:33,136 Іноді самовдоволена посмішка може вас зробити відомим. 63 00:03:33,136 --> 00:03:35,960 Але, насправді, важливо, щоб комп'ютер міг 64 00:03:35,960 --> 00:03:38,815 розрізнити ці два вирази. 65 00:03:38,815 --> 00:03:40,627 Отже, як ми це робимо? 66 00:03:40,627 --> 00:03:42,414 У нас є алгоритми 67 00:03:42,414 --> 00:03:46,524 десятків тисяч прикладів людей, які посміхаються, 68 00:03:46,524 --> 00:03:49,589 з різних етнічних груп, різного віку та статей, 69 00:03:49,589 --> 00:03:52,400 і такі ж приклади ми маємо для самовдоволених посмішок. 70 00:03:52,400 --> 00:03:53,954 Поглиблено вивчаючи 71 00:03:53,954 --> 00:03:56,810 алгоритм шукає всі ці нерівності і зморшки, 72 00:03:56,810 --> 00:03:59,390 і зміни обрисів на нашому обличчі, 73 00:03:59,390 --> 00:04:02,592 і досліджує, що посмішки мають спільні риси, 74 00:04:02,592 --> 00:04:05,773 а самовдоволені посмішки мають інші риси. 75 00:04:05,773 --> 00:04:08,141 Наступного разу, коли він бачить нове обличчя, 76 00:04:08,141 --> 00:04:10,440 він вивчає, 77 00:04:10,440 --> 00:04:13,473 що це обличчя має характеристики посмішки, 78 00:04:13,473 --> 00:04:17,751 і каже: "Ага. Я це розумію. Це - усмішка." 79 00:04:18,381 --> 00:04:21,181 Щоб найкраще продемонструвати, як працює ця технологія, 80 00:04:21,181 --> 00:04:23,317 зробимо це наживо. 81 00:04:23,317 --> 00:04:27,230 Мені потрібен волонтер, бажано з обличчям. 82 00:04:27,230 --> 00:04:29,564 (Сміх) 83 00:04:29,564 --> 00:04:32,335 Хлоя буде нашим добровольцем. 84 00:04:33,325 --> 00:04:37,783 За останні 5 років ми переросли з проекту в Массачусетському інституті 85 00:04:37,783 --> 00:04:38,939 в компанію, 86 00:04:38,939 --> 00:04:42,131 в котрій моя команда дуже старалася, щоби ця технологія запрацювала, 87 00:04:42,131 --> 00:04:44,540 як ми кажемо, в диких умовах. 88 00:04:44,540 --> 00:04:47,210 Ми також зменшили її, щоб ядро машини емоцій 89 00:04:47,210 --> 00:04:50,530 працювало на мобільних пристроях з камерами, таких як iPad. 90 00:04:50,530 --> 00:04:53,316 Давайте спробуємо. 91 00:04:54,756 --> 00:04:58,680 Бачите, алгоритм знайшов обличчя Хлої, 92 00:04:58,680 --> 00:05:00,372 це ця біла рамка, 93 00:05:00,372 --> 00:05:02,943 і слідкує за основними рисами її обличчя, 94 00:05:02,943 --> 00:05:05,799 за бровами, очима, ротом та носом. 95 00:05:05,799 --> 00:05:08,786 Питання: чи розрізнить він її вираз обличчя? 96 00:05:08,786 --> 00:05:10,457 Протестуємо цю машину. 97 00:05:10,457 --> 00:05:14,643 Перш за все, покажи мені "кам'яне обличчя". Так, чудово. (Сміх) 98 00:05:14,643 --> 00:05:17,456 Тепер, коли вона посміхається, це справжня усмішка, чудово. 99 00:05:17,456 --> 00:05:19,756 Бачите, як зелене кільце піднімається, коли вона посміхається. 100 00:05:19,756 --> 00:05:20,978 Це була широка посмішка. 101 00:05:20,978 --> 00:05:24,021 Можеш злегка посміхнутись, щоб побачити, чи комп'ютер зрозуміє? 102 00:05:24,021 --> 00:05:26,352 Він розрізняє малопомітні усмішки також. 103 00:05:26,352 --> 00:05:28,477 Ми тяжко працювали, щоб це вийшло. 104 00:05:28,477 --> 00:05:31,439 Піднята брова, індикатор подиву. 105 00:05:31,439 --> 00:05:35,688 Глибока зморшка між бровами - індикатор збентеження. 106 00:05:35,688 --> 00:05:39,695 Насуплення. Ідеально. 107 00:05:39,695 --> 00:05:43,188 Це все різні одиниці поведінки. Їх є значно більше. 108 00:05:43,188 --> 00:05:45,220 Це лише скорочене демо. 109 00:05:45,220 --> 00:05:48,368 Кожне впізнання емоцій ми називаємо емоційними даними, 110 00:05:48,368 --> 00:05:51,337 і вони можуть, поєднуючись, відображати різні емоції. 111 00:05:51,337 --> 00:05:55,990 В правій частині демо -- виглядає, що ти щаслива. 112 00:05:55,990 --> 00:05:57,444 Отже, це - щастя. Щастя підсвічується. 113 00:05:57,444 --> 00:05:59,371 Зараз спробуй показати огиду. 114 00:05:59,371 --> 00:06:03,643 Пригадай, як це - коли Зайн вийшов з групи One Direction. 115 00:06:03,643 --> 00:06:05,153 (Сміх) 116 00:06:05,153 --> 00:06:09,495 Так, наморщи носа. Чудово. 117 00:06:09,495 --> 00:06:13,226 Результат доволі негативний, ти, мабуть, їхня велика шанувальниця. 118 00:06:13,226 --> 00:06:15,926 Валентність показує, наскільки позитивним чи негативним є досвід, 119 00:06:15,926 --> 00:06:18,712 а вмикання кольорів, наскільки єкспресивною вона є. 120 00:06:18,712 --> 00:06:22,126 Уявімо, якби Хлоя мала доступ до емоційного потоку онлайн, 121 00:06:22,126 --> 00:06:24,935 вона могла б поділитися, з ким хотіла. 122 00:06:24,935 --> 00:06:27,858 Дякую. 123 00:06:27,858 --> 00:06:32,479 (Оплески) 124 00:06:33,749 --> 00:06:39,019 Зараз ми маємо 12 мільярдів таких емоційних даних. 125 00:06:39,019 --> 00:06:41,630 Це найбільша емоційна база у всьому світі. 126 00:06:41,630 --> 00:06:44,593 Ми зібрали її з 2,9 мільйонів відео, 127 00:06:44,593 --> 00:06:47,193 від людей, які погодилися розділити свої емоції з нами, 128 00:06:47,193 --> 00:06:50,398 із 75 різних країн світу. 129 00:06:50,398 --> 00:06:52,113 Вона збільшується щодня. 130 00:06:52,603 --> 00:06:54,670 Це захоплююче, 131 00:06:54,670 --> 00:06:57,865 як ми можемо підрахувати щось таке особисте як емоції, 132 00:06:57,865 --> 00:07:00,100 і можемо це зробити за допомогою шкали. 133 00:07:00,100 --> 00:07:02,277 Що ми враховуємо? 134 00:07:03,057 --> 00:07:05,388 Стать. 135 00:07:05,388 --> 00:07:09,034 Наші дані підтверджують те, що ви підозрюєте. 136 00:07:09,034 --> 00:07:10,891 Жінки більш експресивні, ніж чоловіки. 137 00:07:10,891 --> 00:07:13,574 Вони не лише посміхаються частіше, їхня посмішка триваліша, 138 00:07:13,574 --> 00:07:16,478 і ми можемо справді підрахувати, на що жінки і чоловіки 139 00:07:16,478 --> 00:07:18,614 реагують по-різному. 140 00:07:18,614 --> 00:07:20,904 Розглянемо культурний аспект: у США, 141 00:07:20,904 --> 00:07:24,108 жінки на 40% експресивніші за чоловіків, 142 00:07:24,108 --> 00:07:27,753 але цікавіше, що в Англії жодної різниці між чоловіками і жінками. 143 00:07:27,753 --> 00:07:30,259 (Сміх) 144 00:07:31,296 --> 00:07:35,323 ВІк: люди, котрим 50 і вище 145 00:07:35,323 --> 00:07:38,759 на 25% емоційніші за молодших віком. 146 00:07:39,899 --> 00:07:43,751 ЖІнки у свої 20 посміхаються більше, ніж чоловіки того ж віку, 147 00:07:43,751 --> 00:07:47,590 мабуть, просто необхідність для побачень. 148 00:07:47,590 --> 00:07:50,207 Але найбільше нас здивувало, 149 00:07:50,207 --> 00:07:53,410 що ми виражаємо емоції постійно, 150 00:07:53,410 --> 00:07:56,243 навіть тоді, коли ми наодинці зі своїми пристроями, 151 00:07:56,243 --> 00:07:59,517 і це не лише тоді, коли ми довимося відео про котів на Facebook. 152 00:08:00,217 --> 00:08:03,227 Ми виявляємо емоції, коли пишемо мейли, смс чи робимо покупки онлайн, 153 00:08:03,227 --> 00:08:05,527 навіть, коли маємо справу з податками. 154 00:08:05,527 --> 00:08:07,919 Де можливо застосувати ці дані сьогодні? 155 00:08:07,919 --> 00:08:10,682 Для розуміння того, як ми пов'язуємо себе з медіа, 156 00:08:10,682 --> 00:08:13,166 розуміння поширення веб-контенту і поведінки вибору, 157 00:08:13,166 --> 00:08:15,906 а також, щоб розуміти могутню чи емоційно адаптовану технологію. 158 00:08:15,906 --> 00:08:20,527 Хочу показати вам кілька прикладів, які особливо близькі для мене. 159 00:08:21,197 --> 00:08:24,265 Емоційно адапотовані окуляри можуть допомогти тим, 160 00:08:24,265 --> 00:08:27,493 хто погано бачить, читати обличчя інших, 161 00:08:27,493 --> 00:08:31,680 і також допоможе аутистам зрозуміти емоції, 162 00:08:31,680 --> 00:08:34,458 те, з чим їм дійсно важко розібратися. 163 00:08:35,918 --> 00:08:38,777 Щодо освіти, то уявіть, якби ваші додатки для навчання 164 00:08:38,777 --> 00:08:41,587 відчували, що ви збентежені і сповільнювалися при цьому. 165 00:08:41,587 --> 00:08:43,444 Або відчули, що вам нудно, і пришвидшувалися, 166 00:08:43,444 --> 00:08:46,413 так само, як хороший вчитель зробив би у класі. 167 00:08:47,043 --> 00:08:49,644 Якби ваш годинник відслідковував ваш настрій, 168 00:08:49,644 --> 00:08:52,337 чи ваша машина відчула, що ви втомлені, 169 00:08:52,337 --> 00:08:54,885 чи ваш холодильник був в курсі, що ви переживаєте стрес, 170 00:08:54,885 --> 00:09:00,951 і автоматично закривався, щоб не дозволити вам переїдати. (Сміх) 171 00:09:00,951 --> 00:09:03,668 Мені б таке сподобалося. 172 00:09:03,668 --> 00:09:05,595 Якби тоді, коли я була у Кембриджі, 173 00:09:05,595 --> 00:09:07,908 я мала доступ до емоційного потоку онлайн, 174 00:09:07,908 --> 00:09:11,437 і могла б поділитися всім зі своєю сім'єю вдома у звичний спосіб, 175 00:09:11,437 --> 00:09:15,408 так, наче б ми сиділи всі разом в одній кімнаті? 176 00:09:15,408 --> 00:09:18,550 Гадаю, що за п'ять років, 177 00:09:18,550 --> 00:09:20,887 всі наші пристрої матимуть емоційний чіп, 178 00:09:20,887 --> 00:09:24,951 і ми вже не пам'ятатимемо часи, коли не можна було насупитися до пристрою 179 00:09:24,951 --> 00:09:29,200 і він нам відповів би: "Гмм, тобі це не подобається, чи не так?" 180 00:09:29,200 --> 00:09:32,961 Найбільшою трудністю є те, що ця технологія має багато додатків. 181 00:09:32,961 --> 00:09:35,864 Ми з командою усвідомили, що не зможемо створити її самі, 182 00:09:35,864 --> 00:09:39,360 тому ми зробили так, щоб ця технологія стала доступною для інших розробників 183 00:09:39,360 --> 00:09:41,474 і вони могли працювати, і бути креативними. 184 00:09:41,474 --> 00:09:45,560 Ми також усвідомлюємо, що існують потенційні ризики 185 00:09:45,560 --> 00:09:47,627 і зловживання, 186 00:09:47,627 --> 00:09:50,576 але я, особисто пропрацюваваши багато років над цим, 187 00:09:50,576 --> 00:09:53,548 вірю, що користь для суспільства 188 00:09:53,548 --> 00:09:55,823 від емоційно спроможних технологій 189 00:09:55,823 --> 00:09:59,399 значно переважатиме можливе їх зловживання. 190 00:09:59,399 --> 00:10:01,930 Запрошую вас усіх приєднатися до діалогу. 191 00:10:01,930 --> 00:10:04,484 Чим більшій кількості людей відомо про цю технологію, 192 00:10:04,484 --> 00:10:07,661 тим більше ми знатимемо, як її використовувати. 193 00:10:09,081 --> 00:10:13,655 Так як наше життя стає все більш цифровим, 194 00:10:13,655 --> 00:10:17,153 ми залучені в битву, яку програємо, намагаючись обмежити використання нами пристроїв, 195 00:10:17,153 --> 00:10:19,382 щоби повернути наші емоції. 196 00:10:20,622 --> 00:10:24,536 Тож я намагаюся натомість внести емоції в наші технології 197 00:10:24,536 --> 00:10:26,765 і зробити їх більш чутливими. 198 00:10:26,765 --> 00:10:29,435 Мені б хотілося, щоб ці пристрої, які нас роз'єднують, 199 00:10:29,435 --> 00:10:31,897 поєднали нас знову. 200 00:10:31,897 --> 00:10:36,485 Гуманізуючи технології, ми отримуємо надзвичайну можливість 201 00:10:36,485 --> 00:10:39,782 переосмислити те, як ми з'єднуємося з машинами, 202 00:10:39,782 --> 00:10:44,263 і, відповідно, як ми, люди, 203 00:10:44,263 --> 00:10:46,167 спілкуємося один з одним. 204 00:10:46,167 --> 00:10:48,327 Дякую. 205 00:10:48,327 --> 00:10:51,640 (Оплески)