1 00:00:00,556 --> 00:00:04,343 Наши эмоции оказывают влияние на все стороны жизни: 2 00:00:04,343 --> 00:00:08,149 от здоровья и способов получения знаний, до ведения бизнеса и принятия 3 00:00:08,149 --> 00:00:09,922 важных либо не очень важных решений. 4 00:00:10,672 --> 00:00:14,312 Наши эмоции также влияют на то, как мы взаимодействуем друг с другом. 5 00:00:15,132 --> 00:00:18,408 Мы созданы для жизни в мире эмоций, 6 00:00:19,108 --> 00:00:23,427 но вместо этого всё чаще и чаще мы живём вот так — 7 00:00:23,427 --> 00:00:26,561 это смс от моей дочери, которое я получила вчера вечером, — 8 00:00:26,561 --> 00:00:29,301 в мире, напрочь этих эмоций лишённом. 9 00:00:29,301 --> 00:00:31,252 Я намерена это изменить. 10 00:00:31,252 --> 00:00:35,343 Я хочу вернуть эмоции в наш цифровой мир. 11 00:00:36,223 --> 00:00:39,300 Этот путь я начала 15 лет назад. 12 00:00:39,300 --> 00:00:41,366 Я работала программистом в Египте 13 00:00:41,366 --> 00:00:45,871 и только что поступила в аспирантуру в Кембридже. 14 00:00:45,871 --> 00:00:47,984 Я сделала нечто несвойственное 15 00:00:47,984 --> 00:00:52,209 молодым новобрачным мусульманкам-египтянкам: 16 00:00:53,599 --> 00:00:56,598 при поддержке своего мужа, которому пришлось остаться в Египте, 17 00:00:56,598 --> 00:00:59,616 я упаковала чемоданы и переехала в Англию. 18 00:00:59,616 --> 00:01:02,844 В Кембридже, за тысячи километров от дома, 19 00:01:02,844 --> 00:01:05,917 я осознала, что провожу за ноутбуком больше времени, 20 00:01:05,917 --> 00:01:07,836 чем с людьми. 21 00:01:08,486 --> 00:01:13,339 Но несмотря на эту близость, мой ноутбук не имел представления о моих чувствах. 22 00:01:13,339 --> 00:01:16,050 Он не знал, счастлива ли я, 23 00:01:16,050 --> 00:01:19,538 был ли у меня тяжёлый день, напряжена ли я или потеряна, 24 00:01:19,538 --> 00:01:21,710 и это стало меня расстраивать. 25 00:01:23,600 --> 00:01:28,031 Даже хуже того: общаясь с семьёй онлайн, 26 00:01:29,221 --> 00:01:32,703 я чувствовала, как эмоции испаряются в киберпространстве. 27 00:01:32,703 --> 00:01:37,858 Я скучала по дому, мне было одиноко, иногда я даже плакала, 28 00:01:37,858 --> 00:01:42,786 и единственным способом передать все эти чувства было вот это. 29 00:01:42,786 --> 00:01:44,806 (Смех) 30 00:01:44,806 --> 00:01:49,070 Технологии сегодняшнего дня обладают огромным IQ, но не EQ — 31 00:01:49,070 --> 00:01:52,956 высокий показатель интеллекта, но никакого эмоционального интеллекта. 32 00:01:52,956 --> 00:01:55,153 Тогда я задумалась: 33 00:01:55,153 --> 00:01:58,777 а что, если бы технологии могли ощущать наши эмоции? 34 00:01:58,777 --> 00:02:02,853 Что, если бы наши устройства могли ощущать, как мы себя чувствуем, и реагировать 35 00:02:02,853 --> 00:02:06,426 в соответствии этому, как сделал бы эмоционально интеллектуальный друг? 36 00:02:06,436 --> 00:02:10,230 Эти вопросы подтолкнули меня и мою команду 37 00:02:10,230 --> 00:02:14,607 на создание технологий, способных понимать и отвечать на наши эмоции. 38 00:02:14,607 --> 00:02:17,307 И начали мы с человеческого лица. 39 00:02:18,577 --> 00:02:21,750 Человеческое лицо — один из самых мощных каналов, 40 00:02:21,750 --> 00:02:25,766 используемых нами для передачи социальных и эмоциональных состояний: 41 00:02:25,766 --> 00:02:28,776 наслаждения, удивления, 42 00:02:28,776 --> 00:02:32,139 сопереживания, любопытства. 43 00:02:32,979 --> 00:02:37,907 В науке об эмоциях каждое движение мышцами лица мы называем действием. 44 00:02:37,907 --> 00:02:40,262 Например, действие 12 — 45 00:02:40,262 --> 00:02:42,870 это не название голливудского блокбастера, 46 00:02:42,870 --> 00:02:46,012 а движение уголков губ вверх — главный компонент улыбки. 47 00:02:46,012 --> 00:02:48,980 Давайте-ка все попробуем улыбнуться! 48 00:02:48,980 --> 00:02:51,954 Другой пример — действие 4. Это нахмуривание бровей. 49 00:02:51,954 --> 00:02:53,972 Это когда сводишь брови вместе, 50 00:02:53,972 --> 00:02:55,939 и получаются морщинки. 51 00:02:55,939 --> 00:02:59,944 Мы их не любим, но они — явный показатель негативной эмоции. 52 00:02:59,944 --> 00:03:02,510 У нас 45 таких действий, 53 00:03:02,510 --> 00:03:05,760 и они комбинируются для передачи сотен эмоций. 54 00:03:06,350 --> 00:03:10,251 Научить компьютер считывать выражения лица трудно, 55 00:03:10,251 --> 00:03:13,223 потому что такие действия могут быть быстрыми, нечёткими 56 00:03:13,223 --> 00:03:15,777 и по-разному комбинироваться. 57 00:03:15,777 --> 00:03:19,515 Возьмём, к примеру, улыбку и ухмылку. 58 00:03:19,515 --> 00:03:23,268 Они выглядят похоже, но значат абсолютно разные вещи. 59 00:03:23,268 --> 00:03:24,986 (Смех) 60 00:03:24,986 --> 00:03:26,970 Улыбка позитивна, 61 00:03:26,970 --> 00:03:28,960 а ухмылка часто негативна. 62 00:03:28,960 --> 00:03:33,136 Иногда ухмылка может сделать вас знаменитым. 63 00:03:33,136 --> 00:03:35,960 Но если серьёзно, важно, чтобы компьютер 64 00:03:35,960 --> 00:03:38,505 мог определить разницу между этими двумя выражениями. 65 00:03:38,505 --> 00:03:40,257 Как это сделать? 66 00:03:40,257 --> 00:03:42,034 Мы снабжаем наши алгоритмы 67 00:03:42,034 --> 00:03:46,524 десятками тысяч примеров людей, которые точно улыбаются, — 68 00:03:46,524 --> 00:03:49,589 людей из разных этнических групп, разных возрастов, разного пола. 69 00:03:49,589 --> 00:03:51,390 То же самое мы делаем и для ухмылки. 70 00:03:52,120 --> 00:03:53,954 А затем с помощью глубинного обучения 71 00:03:53,954 --> 00:03:56,810 алгоритм рассматривает все эти текстуры, морщинки 72 00:03:56,810 --> 00:03:59,390 и изменения форм лица 73 00:03:59,390 --> 00:04:02,592 и запоминает, что у всех улыбок есть общие характеристики, 74 00:04:02,592 --> 00:04:05,583 а у ухмылок — слегка иные характеристики. 75 00:04:05,583 --> 00:04:08,141 В следующий раз, когда компьютер видит новое лицо, 76 00:04:08,141 --> 00:04:10,440 он, по сути, узнаёт, 77 00:04:10,440 --> 00:04:13,473 что у этого лица есть те же самые характеристики улыбки, 78 00:04:13,473 --> 00:04:16,551 и восклицает: «Ага! Узнаю. Это выражение улыбки». 79 00:04:18,381 --> 00:04:21,181 Лучший способ показать эту технологию в работе — 80 00:04:21,181 --> 00:04:23,317 это живая демонстрация, 81 00:04:23,317 --> 00:04:26,790 так что мне нужен волонтёр, желательно с лицом. 82 00:04:26,790 --> 00:04:29,564 (Смех) 83 00:04:29,564 --> 00:04:31,795 Хлоя будет сегодня нашим волонтёром. 84 00:04:33,325 --> 00:04:37,783 За последние 5 лет мы превратились из исследовательского проекта в MIT 85 00:04:37,783 --> 00:04:38,939 в компанию, 86 00:04:38,939 --> 00:04:41,951 где моя команда упорно трудилась над тем, чтобы технология заработала, 87 00:04:41,951 --> 00:04:44,230 как мы любим говорить, в естественных условиях. 88 00:04:44,230 --> 00:04:47,210 Мы также её уменьшили, и теперь центральное ядро эмоций 89 00:04:47,210 --> 00:04:50,530 работает на любом мобильном устройстве с камерой, как вот этот iPad. 90 00:04:50,530 --> 00:04:52,296 Давайте попробуем. 91 00:04:54,756 --> 00:04:58,680 Как вы видите, алгоритм обнаружил лицо Хлои — 92 00:04:58,680 --> 00:05:00,372 вот эта белая рамка — 93 00:05:00,372 --> 00:05:02,943 и он отслеживает основные характерные точки на её лице: 94 00:05:02,943 --> 00:05:05,799 это её брови, глаза, рот и нос. 95 00:05:05,799 --> 00:05:08,786 Вопрос в том, может ли он определить выражение её лица? 96 00:05:08,786 --> 00:05:10,457 Протестируем механизм. 97 00:05:10,457 --> 00:05:14,643 Сначала покажи мне каменное лицо. Да, супер. (Смех) 98 00:05:14,643 --> 00:05:17,456 А затем, когда она улыбается... Искренняя улыбка, здорово! 99 00:05:17,456 --> 00:05:19,946 Видите, зелёная полоска растёт, когда она улыбается? 100 00:05:19,946 --> 00:05:21,108 Это была широкая улыбка. 101 00:05:21,108 --> 00:05:24,311 Можешь слегка улыбнуться, чтобы посмотреть, распознает ли компьютер? 102 00:05:24,311 --> 00:05:25,952 Да, распознаёт и неявные улыбки. 103 00:05:25,952 --> 00:05:27,897 Мы усердно трудились, чтобы это работало. 104 00:05:27,897 --> 00:05:31,439 Теперь подними бровь — индикатор удивления. 105 00:05:31,439 --> 00:05:35,688 Сдвинь брови — индикатор замешательства. (Смех) 106 00:05:35,688 --> 00:05:39,695 Посмотри с неодобрением. Да, отлично. 107 00:05:39,695 --> 00:05:43,188 Это различного рода действия. Их гораздо больше. 108 00:05:43,188 --> 00:05:45,220 Это короткая демонстрация. 109 00:05:45,220 --> 00:05:48,368 Каждое считывание эмоции мы называем точкой данных. 110 00:05:48,368 --> 00:05:51,337 Они подпитывают друг друга для изображения разных эмоций. 111 00:05:51,337 --> 00:05:55,260 На правой стороне демо — смотри, как будто ты счастливая. 112 00:05:55,260 --> 00:05:57,444 Это радость. Радость усиливается. 113 00:05:57,444 --> 00:05:59,371 А теперь покажи мне отвращение. 114 00:05:59,371 --> 00:06:03,643 Вспомни, как Зейн ушёл из группы One Direction. 115 00:06:03,643 --> 00:06:05,153 (Смех) 116 00:06:05,153 --> 00:06:09,495 Да, сморщи нос. Великолепно. 117 00:06:09,495 --> 00:06:13,016 Валентность весьма негативная, то есть ты, пожалуй, была фанатом. 118 00:06:13,016 --> 00:06:15,926 Валентность — это насколько опыт положителен или отрицателен. 119 00:06:15,926 --> 00:06:18,712 А вовлечённость — насколько она выразительна. 120 00:06:18,712 --> 00:06:22,496 Представьте, если бы у Хлои был доступ к этому потоку эмоций в реальном времени 121 00:06:22,496 --> 00:06:25,025 и она могла бы поделиться этим с кем угодно. 122 00:06:25,025 --> 00:06:26,478 Спасибо. 123 00:06:26,478 --> 00:06:32,479 (Аплодисменты) 124 00:06:33,749 --> 00:06:39,019 На данный момент мы собрали 12 миллиардов таких вот точек данных. 125 00:06:39,019 --> 00:06:41,630 Это самая крупная база данных эмоций в мире. 126 00:06:41,630 --> 00:06:44,593 Мы собрали её с 2,9 миллионов видео — 127 00:06:44,593 --> 00:06:47,433 людей, согласившихся поделиться с нами своими эмоциями, — 128 00:06:47,433 --> 00:06:50,398 из 75 стран мира. 129 00:06:50,398 --> 00:06:52,113 База данных с каждым днём растёт. 130 00:06:52,603 --> 00:06:55,000 Меня поражает, что теперь мы можем 131 00:06:55,000 --> 00:06:57,865 измерять нечто настолько личное, как эмоции, 132 00:06:57,865 --> 00:07:00,100 причём в таком масштабе. 133 00:07:00,100 --> 00:07:02,277 Что мы узнали на сегодняшний день? 134 00:07:03,057 --> 00:07:03,808 Данные о полах. 135 00:07:05,388 --> 00:07:09,034 Наши данные подтверждают то, о чём вы, пожалуй, сами догадываетесь: 136 00:07:09,034 --> 00:07:10,891 женщины более выразительны, чем мужчины. 137 00:07:10,891 --> 00:07:13,714 Они не только чаще улыбаются, но и улыбки их длятся дольше. 138 00:07:13,714 --> 00:07:15,388 И теперь мы можем измерить, 139 00:07:15,388 --> 00:07:18,014 на что мужчины и женщины реагируют по-разному. 140 00:07:18,614 --> 00:07:19,984 Начнём с культуры: 141 00:07:19,984 --> 00:07:24,108 в США женщины на 40% выразительнее мужчин, 142 00:07:24,108 --> 00:07:27,753 но любопытно, что в Англии подобного различия не наблюдается. 143 00:07:27,753 --> 00:07:30,259 (Смех) 144 00:07:31,296 --> 00:07:35,323 Возраст: люди от 50 лет и старше 145 00:07:35,323 --> 00:07:38,759 на 25% более эмоциональны, чем те, кто моложе. 146 00:07:39,489 --> 00:07:43,751 Женщины после 20 улыбаются куда чаще мужчин того же возраста, 147 00:07:43,751 --> 00:07:46,300 может, это необходимо для флирта. 148 00:07:47,380 --> 00:07:50,207 Но, пожалуй, больше всего нас удивило то, 149 00:07:50,207 --> 00:07:53,410 что мы постоянно передаём эмоции, 150 00:07:53,410 --> 00:07:56,243 даже когда в одиночестве сидим за своими устройствами, 151 00:07:56,243 --> 00:07:59,517 причём не только когда смотрим видео о кошках на Facebook. 152 00:08:00,217 --> 00:08:03,417 Мы выражаем эмоции, когда пишем имейлы, смс, делаем покупки онлайн 153 00:08:03,417 --> 00:08:05,527 или даже оформляем налоги. 154 00:08:05,527 --> 00:08:07,919 Где сейчас используются эти данные? 155 00:08:07,919 --> 00:08:10,022 Для анализа взаимодействия со СМИ, 156 00:08:10,022 --> 00:08:12,896 то есть чтобы изучить виральность и электоральное поведение; 157 00:08:12,896 --> 00:08:16,746 а также в технологиях, делающих возможным проявление эмоций. 158 00:08:16,746 --> 00:08:20,007 Я хочу поделиться несколькими дорогими мне примерами. 159 00:08:21,197 --> 00:08:24,265 Очки с эмоциональной поддержкой позволяют пользователю 160 00:08:24,265 --> 00:08:27,493 со слабым зрением считывать лица окружающих, 161 00:08:27,493 --> 00:08:30,980 они могут помочь людям с аутизмом определять эмоции — 162 00:08:30,980 --> 00:08:33,188 сложная задача для таких людей. 163 00:08:35,468 --> 00:08:38,777 В образовании: представьте, что ваше обучающее приложение 164 00:08:38,777 --> 00:08:41,357 чувствует, что вы запутались, и понижает темп, 165 00:08:41,357 --> 00:08:43,444 или чувствует, что вам скучно, и ускоряется, 166 00:08:43,444 --> 00:08:45,923 как бы сделал хороший учитель в классе. 167 00:08:47,043 --> 00:08:49,644 Что, если бы наручные часы отслеживали ваше настроение 168 00:08:49,644 --> 00:08:52,027 или автомобиль ощущал, что вы устали, 169 00:08:52,027 --> 00:08:55,125 или, может, ваш холодильник чувствовал, что вы напряжены, 170 00:08:55,125 --> 00:08:59,451 и запирался, чтобы предотвратить обжорство. (Смех) 171 00:08:59,451 --> 00:09:01,528 Мне бы такое понравилось. 172 00:09:03,668 --> 00:09:05,595 Что, если бы, когда я была в Кембридже, 173 00:09:05,595 --> 00:09:08,738 у меня был доступ к моему эмоциональному потоку в реальном времени 174 00:09:08,738 --> 00:09:11,437 и я могла бы поделиться им со своей семьёй, 175 00:09:11,437 --> 00:09:15,408 как если бы они были со мной в одной комнате? 176 00:09:15,408 --> 00:09:18,200 Думаю, через 5 лет 177 00:09:18,200 --> 00:09:20,887 у всех наших устройств будет эмоциональный чип, 178 00:09:20,887 --> 00:09:24,951 и мы забудем о тех временах, когда мы не могли просто нахмуриться, 179 00:09:24,951 --> 00:09:28,150 а наше устройство сказало бы: «Тебе это не понравилось, не так ли?» 180 00:09:29,200 --> 00:09:30,770 Наша наибольшая трудность в том, 181 00:09:30,770 --> 00:09:33,201 что у этой технологии так много областей применения, 182 00:09:33,201 --> 00:09:35,864 что я и моя команда не можем всё делать в одиночку. 183 00:09:35,864 --> 00:09:39,360 Мы сделали эту технологию доступной, чтобы другие разработчики 184 00:09:39,360 --> 00:09:41,474 могли начать свои проекты и творить. 185 00:09:41,474 --> 00:09:45,560 Мы осознаём, что есть риск 186 00:09:45,560 --> 00:09:47,627 и возможность неправильного обращения, 187 00:09:47,627 --> 00:09:50,576 но лично мне, после многих лет за этим делом, 188 00:09:50,576 --> 00:09:52,818 кажется, что польза для человечества 189 00:09:52,818 --> 00:09:55,493 от наличия эмоционально интеллектуальной технологии 190 00:09:55,493 --> 00:09:59,199 значительно перевешивает риски злоупотребления. 191 00:09:59,199 --> 00:10:01,930 Я приглашаю всех принять участие. 192 00:10:01,930 --> 00:10:04,074 Чем больше людей знают об этой технологии, 193 00:10:04,074 --> 00:10:07,901 тем больше возможности для каждого из нас высказаться о том, как её использовать. 194 00:10:09,081 --> 00:10:13,335 По мере того, как наша жизнь всё больше становится цифровой, 195 00:10:13,335 --> 00:10:17,153 мы ведём безнадёжную борьбу, пытаясь обуздать применение устройств, 196 00:10:17,153 --> 00:10:19,382 чтобы вернуть нам наши эмоции. 197 00:10:20,622 --> 00:10:24,536 Вместо этого я пытаюсь привнести эмоции в технологии 198 00:10:24,536 --> 00:10:26,765 и сделать их более чуткими. 199 00:10:26,765 --> 00:10:29,625 Я хочу, чтобы устройства, отделившие нас друг от друга, 200 00:10:29,625 --> 00:10:31,267 снова нас объединили. 201 00:10:32,217 --> 00:10:36,485 Путём очеловечивания технологий мы обретаем блестящую возможность 202 00:10:36,485 --> 00:10:39,782 переосмыслить то, как мы взаимодействуем с машинами, 203 00:10:39,782 --> 00:10:44,263 а значит и то, как мы, люди, 204 00:10:44,263 --> 00:10:46,167 взаимодействуем друг с другом. 205 00:10:46,167 --> 00:10:47,497 Спасибо. 206 00:10:47,497 --> 00:10:49,980 (Аплодисменты)