WEBVTT 00:00:00.556 --> 00:00:04.343 Наши эмоции оказывают влияние на все стороны жизни: 00:00:04.343 --> 00:00:08.149 от здоровья и способов получения знаний, до ведения бизнеса и принятия 00:00:08.149 --> 00:00:09.922 важных либо не очень важных решений. 00:00:10.672 --> 00:00:14.312 Наши эмоции также влияют на то, как мы взаимодействуем друг с другом. 00:00:15.132 --> 00:00:18.408 Мы созданы для жизни в мире эмоций, 00:00:19.108 --> 00:00:23.427 но вместо этого всё чаще и чаще мы живём вот так — 00:00:23.427 --> 00:00:26.561 это смс от моей дочери, которое я получила вчера вечером, — 00:00:26.561 --> 00:00:29.301 в мире, напрочь этих эмоций лишённом. 00:00:29.301 --> 00:00:31.252 Я намерена это изменить. 00:00:31.252 --> 00:00:35.343 Я хочу вернуть эмоции в наш цифровой мир. NOTE Paragraph 00:00:36.223 --> 00:00:39.300 Этот путь я начала 15 лет назад. 00:00:39.300 --> 00:00:41.366 Я работала программистом в Египте 00:00:41.366 --> 00:00:45.871 и только что поступила в аспирантуру в Кембридже. 00:00:45.871 --> 00:00:47.984 Я сделала нечто несвойственное 00:00:47.984 --> 00:00:52.209 молодым новобрачным мусульманкам-египтянкам: 00:00:53.599 --> 00:00:56.598 при поддержке своего мужа, которому пришлось остаться в Египте, 00:00:56.598 --> 00:00:59.616 я упаковала чемоданы и переехала в Англию. 00:00:59.616 --> 00:01:02.844 В Кембридже, за тысячи километров от дома, 00:01:02.844 --> 00:01:05.917 я осознала, что провожу за ноутбуком больше времени, 00:01:05.917 --> 00:01:07.836 чем с людьми. 00:01:08.486 --> 00:01:13.339 Но несмотря на эту близость, мой ноутбук не имел представления о моих чувствах. 00:01:13.339 --> 00:01:16.050 Он не знал, счастлива ли я, 00:01:16.050 --> 00:01:19.538 был ли у меня тяжёлый день, напряжена ли я или потеряна, 00:01:19.538 --> 00:01:21.710 и это стало меня расстраивать. 00:01:23.600 --> 00:01:28.031 Даже хуже того: общаясь с семьёй онлайн, 00:01:29.221 --> 00:01:32.703 я чувствовала, как эмоции испаряются в киберпространстве. 00:01:32.703 --> 00:01:37.858 Я скучала по дому, мне было одиноко, иногда я даже плакала, 00:01:37.858 --> 00:01:42.786 и единственным способом передать все эти чувства было вот это. 00:01:42.786 --> 00:01:44.806 (Смех) 00:01:44.806 --> 00:01:49.070 Технологии сегодняшнего дня обладают огромным IQ, но не EQ — 00:01:49.070 --> 00:01:52.956 высокий показатель интеллекта, но никакого эмоционального интеллекта. 00:01:52.956 --> 00:01:55.153 Тогда я задумалась: 00:01:55.153 --> 00:01:58.777 а что, если бы технологии могли ощущать наши эмоции? 00:01:58.777 --> 00:02:02.853 Что, если бы наши устройства могли ощущать, как мы себя чувствуем, и реагировать 00:02:02.853 --> 00:02:06.426 в соответствии этому, как сделал бы эмоционально интеллектуальный друг? 00:02:06.436 --> 00:02:10.230 Эти вопросы подтолкнули меня и мою команду 00:02:10.230 --> 00:02:14.607 на создание технологий, способных понимать и отвечать на наши эмоции. 00:02:14.607 --> 00:02:17.307 И начали мы с человеческого лица. NOTE Paragraph 00:02:18.577 --> 00:02:21.750 Человеческое лицо — один из самых мощных каналов, 00:02:21.750 --> 00:02:25.766 используемых нами для передачи социальных и эмоциональных состояний: 00:02:25.766 --> 00:02:28.776 наслаждения, удивления, 00:02:28.776 --> 00:02:32.139 сопереживания, любопытства. 00:02:32.979 --> 00:02:37.907 В науке об эмоциях каждое движение мышцами лица мы называем действием. 00:02:37.907 --> 00:02:40.262 Например, действие 12 — 00:02:40.262 --> 00:02:42.870 это не название голливудского блокбастера, 00:02:42.870 --> 00:02:46.012 а движение уголков губ вверх — главный компонент улыбки. 00:02:46.012 --> 00:02:48.980 Давайте-ка все попробуем улыбнуться! 00:02:48.980 --> 00:02:51.954 Другой пример — действие 4. Это нахмуривание бровей. 00:02:51.954 --> 00:02:53.972 Это когда сводишь брови вместе, 00:02:53.972 --> 00:02:55.939 и получаются морщинки. 00:02:55.939 --> 00:02:59.944 Мы их не любим, но они — явный показатель негативной эмоции. 00:02:59.944 --> 00:03:02.510 У нас 45 таких действий, 00:03:02.510 --> 00:03:05.760 и они комбинируются для передачи сотен эмоций. NOTE Paragraph 00:03:06.350 --> 00:03:10.251 Научить компьютер считывать выражения лица трудно, 00:03:10.251 --> 00:03:13.223 потому что такие действия могут быть быстрыми, нечёткими 00:03:13.223 --> 00:03:15.777 и по-разному комбинироваться. 00:03:15.777 --> 00:03:19.515 Возьмём, к примеру, улыбку и ухмылку. 00:03:19.515 --> 00:03:23.268 Они выглядят похоже, но значат абсолютно разные вещи. 00:03:23.268 --> 00:03:24.986 (Смех) 00:03:24.986 --> 00:03:26.970 Улыбка позитивна, 00:03:26.970 --> 00:03:28.960 а ухмылка часто негативна. 00:03:28.960 --> 00:03:33.136 Иногда ухмылка может сделать вас знаменитым. 00:03:33.136 --> 00:03:35.960 Но если серьёзно, важно, чтобы компьютер 00:03:35.960 --> 00:03:38.505 мог определить разницу между этими двумя выражениями. NOTE Paragraph 00:03:38.505 --> 00:03:40.257 Как это сделать? 00:03:40.257 --> 00:03:42.034 Мы снабжаем наши алгоритмы 00:03:42.034 --> 00:03:46.524 десятками тысяч примеров людей, которые точно улыбаются, — 00:03:46.524 --> 00:03:49.589 людей из разных этнических групп, разных возрастов, разного пола. 00:03:49.589 --> 00:03:51.390 То же самое мы делаем и для ухмылки. 00:03:52.120 --> 00:03:53.954 А затем с помощью глубинного обучения 00:03:53.954 --> 00:03:56.810 алгоритм рассматривает все эти текстуры, морщинки 00:03:56.810 --> 00:03:59.390 и изменения форм лица 00:03:59.390 --> 00:04:02.592 и запоминает, что у всех улыбок есть общие характеристики, 00:04:02.592 --> 00:04:05.583 а у ухмылок — слегка иные характеристики. 00:04:05.583 --> 00:04:08.141 В следующий раз, когда компьютер видит новое лицо, 00:04:08.141 --> 00:04:10.440 он, по сути, узнаёт, 00:04:10.440 --> 00:04:13.473 что у этого лица есть те же самые характеристики улыбки, 00:04:13.473 --> 00:04:16.551 и восклицает: «Ага! Узнаю. Это выражение улыбки». NOTE Paragraph 00:04:18.381 --> 00:04:21.181 Лучший способ показать эту технологию в работе — 00:04:21.181 --> 00:04:23.317 это живая демонстрация, 00:04:23.317 --> 00:04:26.790 так что мне нужен волонтёр, желательно с лицом. 00:04:26.790 --> 00:04:29.564 (Смех) 00:04:29.564 --> 00:04:31.795 Хлоя будет сегодня нашим волонтёром. NOTE Paragraph 00:04:33.325 --> 00:04:37.783 За последние 5 лет мы превратились из исследовательского проекта в MIT 00:04:37.783 --> 00:04:38.939 в компанию, 00:04:38.939 --> 00:04:41.951 где моя команда упорно трудилась над тем, чтобы технология заработала, 00:04:41.951 --> 00:04:44.230 как мы любим говорить, в естественных условиях. 00:04:44.230 --> 00:04:47.210 Мы также её уменьшили, и теперь центральное ядро эмоций 00:04:47.210 --> 00:04:50.530 работает на любом мобильном устройстве с камерой, как вот этот iPad. 00:04:50.530 --> 00:04:52.296 Давайте попробуем. NOTE Paragraph 00:04:54.756 --> 00:04:58.680 Как вы видите, алгоритм обнаружил лицо Хлои — 00:04:58.680 --> 00:05:00.372 вот эта белая рамка — 00:05:00.372 --> 00:05:02.943 и он отслеживает основные характерные точки на её лице: 00:05:02.943 --> 00:05:05.799 это её брови, глаза, рот и нос. 00:05:05.799 --> 00:05:08.786 Вопрос в том, может ли он определить выражение её лица? 00:05:08.786 --> 00:05:10.457 Протестируем механизм. 00:05:10.457 --> 00:05:14.643 Сначала покажи мне каменное лицо. Да, супер. (Смех) 00:05:14.643 --> 00:05:17.456 А затем, когда она улыбается... Искренняя улыбка, здорово! 00:05:17.456 --> 00:05:19.946 Видите, зелёная полоска растёт, когда она улыбается? 00:05:19.946 --> 00:05:21.108 Это была широкая улыбка. 00:05:21.108 --> 00:05:24.311 Можешь слегка улыбнуться, чтобы посмотреть, распознает ли компьютер? 00:05:24.311 --> 00:05:25.952 Да, распознаёт и неявные улыбки. 00:05:25.952 --> 00:05:27.897 Мы усердно трудились, чтобы это работало. 00:05:27.897 --> 00:05:31.439 Теперь подними бровь — индикатор удивления. 00:05:31.439 --> 00:05:35.688 Сдвинь брови — индикатор замешательства. (Смех) 00:05:35.688 --> 00:05:39.695 Посмотри с неодобрением. Да, отлично. 00:05:39.695 --> 00:05:43.188 Это различного рода действия. Их гораздо больше. 00:05:43.188 --> 00:05:45.220 Это короткая демонстрация. 00:05:45.220 --> 00:05:48.368 Каждое считывание эмоции мы называем точкой данных. 00:05:48.368 --> 00:05:51.337 Они подпитывают друг друга для изображения разных эмоций. 00:05:51.337 --> 00:05:55.260 На правой стороне демо — смотри, как будто ты счастливая. 00:05:55.260 --> 00:05:57.444 Это радость. Радость усиливается. 00:05:57.444 --> 00:05:59.371 А теперь покажи мне отвращение. 00:05:59.371 --> 00:06:03.643 Вспомни, как Зейн ушёл из группы One Direction. 00:06:03.643 --> 00:06:05.153 (Смех) 00:06:05.153 --> 00:06:09.495 Да, сморщи нос. Великолепно. 00:06:09.495 --> 00:06:13.016 Валентность весьма негативная, то есть ты, пожалуй, была фанатом. 00:06:13.016 --> 00:06:15.926 Валентность — это насколько опыт положителен или отрицателен. 00:06:15.926 --> 00:06:18.712 А вовлечённость — насколько она выразительна. 00:06:18.712 --> 00:06:22.496 Представьте, если бы у Хлои был доступ к этому потоку эмоций в реальном времени 00:06:22.496 --> 00:06:25.025 и она могла бы поделиться этим с кем угодно. 00:06:25.025 --> 00:06:26.478 Спасибо. 00:06:26.478 --> 00:06:32.479 (Аплодисменты) NOTE Paragraph 00:06:33.749 --> 00:06:39.019 На данный момент мы собрали 12 миллиардов таких вот точек данных. 00:06:39.019 --> 00:06:41.630 Это самая крупная база данных эмоций в мире. 00:06:41.630 --> 00:06:44.593 Мы собрали её с 2,9 миллионов видео — 00:06:44.593 --> 00:06:47.433 людей, согласившихся поделиться с нами своими эмоциями, — 00:06:47.433 --> 00:06:50.398 из 75 стран мира. 00:06:50.398 --> 00:06:52.113 База данных с каждым днём растёт. 00:06:52.603 --> 00:06:55.000 Меня поражает, что теперь мы можем 00:06:55.000 --> 00:06:57.865 измерять нечто настолько личное, как эмоции, 00:06:57.865 --> 00:07:00.100 причём в таком масштабе. NOTE Paragraph 00:07:00.100 --> 00:07:02.277 Что мы узнали на сегодняшний день? 00:07:03.057 --> 00:07:03.808 Данные о полах. 00:07:05.388 --> 00:07:09.034 Наши данные подтверждают то, о чём вы, пожалуй, сами догадываетесь: 00:07:09.034 --> 00:07:10.891 женщины более выразительны, чем мужчины. 00:07:10.891 --> 00:07:13.714 Они не только чаще улыбаются, но и улыбки их длятся дольше. 00:07:13.714 --> 00:07:15.388 И теперь мы можем измерить, 00:07:15.388 --> 00:07:18.014 на что мужчины и женщины реагируют по-разному. 00:07:18.614 --> 00:07:19.984 Начнём с культуры: 00:07:19.984 --> 00:07:24.108 в США женщины на 40% выразительнее мужчин, 00:07:24.108 --> 00:07:27.753 но любопытно, что в Англии подобного различия не наблюдается. 00:07:27.753 --> 00:07:30.259 (Смех) 00:07:31.296 --> 00:07:35.323 Возраст: люди от 50 лет и старше 00:07:35.323 --> 00:07:38.759 на 25% более эмоциональны, чем те, кто моложе. 00:07:39.489 --> 00:07:43.751 Женщины после 20 улыбаются куда чаще мужчин того же возраста, 00:07:43.751 --> 00:07:46.300 может, это необходимо для флирта. 00:07:47.380 --> 00:07:50.207 Но, пожалуй, больше всего нас удивило то, 00:07:50.207 --> 00:07:53.410 что мы постоянно передаём эмоции, 00:07:53.410 --> 00:07:56.243 даже когда в одиночестве сидим за своими устройствами, 00:07:56.243 --> 00:07:59.517 причём не только когда смотрим видео о кошках на Facebook. 00:08:00.217 --> 00:08:03.417 Мы выражаем эмоции, когда пишем имейлы, смс, делаем покупки онлайн 00:08:03.417 --> 00:08:05.527 или даже оформляем налоги. NOTE Paragraph 00:08:05.527 --> 00:08:07.919 Где сейчас используются эти данные? 00:08:07.919 --> 00:08:10.022 Для анализа взаимодействия со СМИ, 00:08:10.022 --> 00:08:12.896 то есть чтобы изучить виральность и электоральное поведение; 00:08:12.896 --> 00:08:16.746 а также в технологиях, делающих возможным проявление эмоций. 00:08:16.746 --> 00:08:20.007 Я хочу поделиться несколькими дорогими мне примерами. 00:08:21.197 --> 00:08:24.265 Очки с эмоциональной поддержкой позволяют пользователю 00:08:24.265 --> 00:08:27.493 со слабым зрением считывать лица окружающих, 00:08:27.493 --> 00:08:30.980 они могут помочь людям с аутизмом определять эмоции — 00:08:30.980 --> 00:08:33.188 сложная задача для таких людей. 00:08:35.468 --> 00:08:38.777 В образовании: представьте, что ваше обучающее приложение 00:08:38.777 --> 00:08:41.357 чувствует, что вы запутались, и понижает темп, 00:08:41.357 --> 00:08:43.444 или чувствует, что вам скучно, и ускоряется, 00:08:43.444 --> 00:08:45.923 как бы сделал хороший учитель в классе. 00:08:47.043 --> 00:08:49.644 Что, если бы наручные часы отслеживали ваше настроение 00:08:49.644 --> 00:08:52.027 или автомобиль ощущал, что вы устали, 00:08:52.027 --> 00:08:55.125 или, может, ваш холодильник чувствовал, что вы напряжены, 00:08:55.125 --> 00:08:59.451 и запирался, чтобы предотвратить обжорство. (Смех) 00:08:59.451 --> 00:09:01.528 Мне бы такое понравилось. 00:09:03.668 --> 00:09:05.595 Что, если бы, когда я была в Кембридже, 00:09:05.595 --> 00:09:08.738 у меня был доступ к моему эмоциональному потоку в реальном времени 00:09:08.738 --> 00:09:11.437 и я могла бы поделиться им со своей семьёй, 00:09:11.437 --> 00:09:15.408 как если бы они были со мной в одной комнате? NOTE Paragraph 00:09:15.408 --> 00:09:18.200 Думаю, через 5 лет 00:09:18.200 --> 00:09:20.887 у всех наших устройств будет эмоциональный чип, 00:09:20.887 --> 00:09:24.951 и мы забудем о тех временах, когда мы не могли просто нахмуриться, 00:09:24.951 --> 00:09:28.150 а наше устройство сказало бы: «Тебе это не понравилось, не так ли?» 00:09:29.200 --> 00:09:30.770 Наша наибольшая трудность в том, 00:09:30.770 --> 00:09:33.201 что у этой технологии так много областей применения, 00:09:33.201 --> 00:09:35.864 что я и моя команда не можем всё делать в одиночку. 00:09:35.864 --> 00:09:39.360 Мы сделали эту технологию доступной, чтобы другие разработчики 00:09:39.360 --> 00:09:41.474 могли начать свои проекты и творить. 00:09:41.474 --> 00:09:45.560 Мы осознаём, что есть риск 00:09:45.560 --> 00:09:47.627 и возможность неправильного обращения, 00:09:47.627 --> 00:09:50.576 но лично мне, после многих лет за этим делом, 00:09:50.576 --> 00:09:52.818 кажется, что польза для человечества 00:09:52.818 --> 00:09:55.493 от наличия эмоционально интеллектуальной технологии 00:09:55.493 --> 00:09:59.199 значительно перевешивает риски злоупотребления. 00:09:59.199 --> 00:10:01.930 Я приглашаю всех принять участие. 00:10:01.930 --> 00:10:04.074 Чем больше людей знают об этой технологии, 00:10:04.074 --> 00:10:07.901 тем больше возможности для каждого из нас высказаться о том, как её использовать. 00:10:09.081 --> 00:10:13.335 По мере того, как наша жизнь всё больше становится цифровой, 00:10:13.335 --> 00:10:17.153 мы ведём безнадёжную борьбу, пытаясь обуздать применение устройств, 00:10:17.153 --> 00:10:19.382 чтобы вернуть нам наши эмоции. 00:10:20.622 --> 00:10:24.536 Вместо этого я пытаюсь привнести эмоции в технологии 00:10:24.536 --> 00:10:26.765 и сделать их более чуткими. 00:10:26.765 --> 00:10:29.625 Я хочу, чтобы устройства, отделившие нас друг от друга, 00:10:29.625 --> 00:10:31.267 снова нас объединили. 00:10:32.217 --> 00:10:36.485 Путём очеловечивания технологий мы обретаем блестящую возможность 00:10:36.485 --> 00:10:39.782 переосмыслить то, как мы взаимодействуем с машинами, 00:10:39.782 --> 00:10:44.263 а значит и то, как мы, люди, 00:10:44.263 --> 00:10:46.167 взаимодействуем друг с другом. NOTE Paragraph 00:10:46.167 --> 00:10:47.497 Спасибо. NOTE Paragraph 00:10:47.497 --> 00:10:49.980 (Аплодисменты)