Return to Video

Это приложение знает, что вы чувствуете, — по выражению вашего лица

  • 0:01 - 0:04
    Наши эмоции оказывают влияние
    на все стороны жизни:
  • 0:04 - 0:08
    от здоровья и способов получения знаний,
    до ведения бизнеса и принятия
  • 0:08 - 0:10
    важных либо не очень важных решений.
  • 0:11 - 0:14
    Наши эмоции также влияют на то,
    как мы взаимодействуем друг с другом.
  • 0:15 - 0:18
    Мы созданы для жизни в мире эмоций,
  • 0:19 - 0:23
    но вместо этого
    всё чаще и чаще мы живём вот так —
  • 0:23 - 0:27
    это смс от моей дочери,
    которое я получила вчера вечером, —
  • 0:27 - 0:29
    в мире, напрочь этих эмоций лишённом.
  • 0:29 - 0:31
    Я намерена это изменить.
  • 0:31 - 0:35
    Я хочу вернуть эмоции
    в наш цифровой мир.
  • 0:36 - 0:39
    Этот путь я начала 15 лет назад.
  • 0:39 - 0:41
    Я работала программистом в Египте
  • 0:41 - 0:46
    и только что поступила в аспирантуру
    в Кембридже.
  • 0:46 - 0:48
    Я сделала нечто несвойственное
  • 0:48 - 0:52
    молодым новобрачным
    мусульманкам-египтянкам:
  • 0:54 - 0:57
    при поддержке своего мужа,
    которому пришлось остаться в Египте,
  • 0:57 - 1:00
    я упаковала чемоданы
    и переехала в Англию.
  • 1:00 - 1:03
    В Кембридже, за тысячи километров от дома,
  • 1:03 - 1:06
    я осознала, что провожу
    за ноутбуком больше времени,
  • 1:06 - 1:08
    чем с людьми.
  • 1:08 - 1:13
    Но несмотря на эту близость, мой ноутбук
    не имел представления о моих чувствах.
  • 1:13 - 1:16
    Он не знал, счастлива ли я,
  • 1:16 - 1:20
    был ли у меня тяжёлый день,
    напряжена ли я или потеряна,
  • 1:20 - 1:22
    и это стало меня расстраивать.
  • 1:24 - 1:28
    Даже хуже того:
    общаясь с семьёй онлайн,
  • 1:29 - 1:33
    я чувствовала, как эмоции
    испаряются в киберпространстве.
  • 1:33 - 1:38
    Я скучала по дому, мне было одиноко,
    иногда я даже плакала,
  • 1:38 - 1:43
    и единственным способом
    передать все эти чувства было вот это.
  • 1:43 - 1:45
    (Смех)
  • 1:45 - 1:49
    Технологии сегодняшнего дня
    обладают огромным IQ, но не EQ —
  • 1:49 - 1:53
    высокий показатель интеллекта,
    но никакого эмоционального интеллекта.
  • 1:53 - 1:55
    Тогда я задумалась:
  • 1:55 - 1:59
    а что, если бы технологии
    могли ощущать наши эмоции?
  • 1:59 - 2:03
    Что, если бы наши устройства могли ощущать,
    как мы себя чувствуем, и реагировать
  • 2:03 - 2:06
    в соответствии этому, как сделал бы
    эмоционально интеллектуальный друг?
  • 2:06 - 2:10
    Эти вопросы подтолкнули меня
    и мою команду
  • 2:10 - 2:15
    на создание технологий, способных
    понимать и отвечать на наши эмоции.
  • 2:15 - 2:17
    И начали мы с человеческого лица.
  • 2:19 - 2:22
    Человеческое лицо —
    один из самых мощных каналов,
  • 2:22 - 2:26
    используемых нами для передачи
    социальных и эмоциональных состояний:
  • 2:26 - 2:29
    наслаждения, удивления,
  • 2:29 - 2:32
    сопереживания, любопытства.
  • 2:33 - 2:38
    В науке об эмоциях каждое движение
    мышцами лица мы называем действием.
  • 2:38 - 2:40
    Например, действие 12 —
  • 2:40 - 2:43
    это не название голливудского блокбастера,
  • 2:43 - 2:46
    а движение уголков губ вверх —
    главный компонент улыбки.
  • 2:46 - 2:49
    Давайте-ка все попробуем улыбнуться!
  • 2:49 - 2:52
    Другой пример — действие 4.
    Это нахмуривание бровей.
  • 2:52 - 2:54
    Это когда сводишь брови вместе,
  • 2:54 - 2:56
    и получаются морщинки.
  • 2:56 - 3:00
    Мы их не любим, но они —
    явный показатель негативной эмоции.
  • 3:00 - 3:03
    У нас 45 таких действий,
  • 3:03 - 3:06
    и они комбинируются
    для передачи сотен эмоций.
  • 3:06 - 3:10
    Научить компьютер
    считывать выражения лица трудно,
  • 3:10 - 3:13
    потому что такие действия
    могут быть быстрыми, нечёткими
  • 3:13 - 3:16
    и по-разному комбинироваться.
  • 3:16 - 3:20
    Возьмём, к примеру, улыбку и ухмылку.
  • 3:20 - 3:23
    Они выглядят похоже,
    но значат абсолютно разные вещи.
  • 3:23 - 3:25
    (Смех)
  • 3:25 - 3:27
    Улыбка позитивна,
  • 3:27 - 3:29
    а ухмылка часто негативна.
  • 3:29 - 3:33
    Иногда ухмылка
    может сделать вас знаменитым.
  • 3:33 - 3:36
    Но если серьёзно,
    важно, чтобы компьютер
  • 3:36 - 3:39
    мог определить разницу
    между этими двумя выражениями.
  • 3:39 - 3:40
    Как это сделать?
  • 3:40 - 3:42
    Мы снабжаем наши алгоритмы
  • 3:42 - 3:47
    десятками тысяч примеров
    людей, которые точно улыбаются, —
  • 3:47 - 3:50
    людей из разных этнических групп,
    разных возрастов, разного пола.
  • 3:50 - 3:51
    То же самое мы делаем и для ухмылки.
  • 3:52 - 3:54
    А затем с помощью глубинного обучения
  • 3:54 - 3:57
    алгоритм рассматривает
    все эти текстуры, морщинки
  • 3:57 - 3:59
    и изменения форм лица
  • 3:59 - 4:03
    и запоминает, что у всех улыбок
    есть общие характеристики,
  • 4:03 - 4:06
    а у ухмылок — слегка иные характеристики.
  • 4:06 - 4:08
    В следующий раз,
    когда компьютер видит новое лицо,
  • 4:08 - 4:10
    он, по сути, узнаёт,
  • 4:10 - 4:13
    что у этого лица есть
    те же самые характеристики улыбки,
  • 4:13 - 4:17
    и восклицает:
    «Ага! Узнаю. Это выражение улыбки».
  • 4:18 - 4:21
    Лучший способ показать
    эту технологию в работе —
  • 4:21 - 4:23
    это живая демонстрация,
  • 4:23 - 4:27
    так что мне нужен волонтёр,
    желательно с лицом.
  • 4:27 - 4:30
    (Смех)
  • 4:30 - 4:32
    Хлоя будет сегодня нашим волонтёром.
  • 4:33 - 4:38
    За последние 5 лет мы превратились
    из исследовательского проекта в MIT
  • 4:38 - 4:39
    в компанию,
  • 4:39 - 4:42
    где моя команда упорно трудилась
    над тем, чтобы технология заработала,
  • 4:42 - 4:44
    как мы любим говорить,
    в естественных условиях.
  • 4:44 - 4:47
    Мы также её уменьшили,
    и теперь центральное ядро эмоций
  • 4:47 - 4:51
    работает на любом мобильном
    устройстве с камерой, как вот этот iPad.
  • 4:51 - 4:52
    Давайте попробуем.
  • 4:55 - 4:59
    Как вы видите,
    алгоритм обнаружил лицо Хлои —
  • 4:59 - 5:00
    вот эта белая рамка —
  • 5:00 - 5:03
    и он отслеживает
    основные характерные точки на её лице:
  • 5:03 - 5:06
    это её брови, глаза, рот и нос.
  • 5:06 - 5:09
    Вопрос в том, может ли он
    определить выражение её лица?
  • 5:09 - 5:10
    Протестируем механизм.
  • 5:10 - 5:15
    Сначала покажи мне каменное лицо.
    Да, супер. (Смех)
  • 5:15 - 5:17
    А затем, когда она улыбается...
    Искренняя улыбка, здорово!
  • 5:17 - 5:20
    Видите, зелёная полоска растёт,
    когда она улыбается?
  • 5:20 - 5:21
    Это была широкая улыбка.
  • 5:21 - 5:24
    Можешь слегка улыбнуться,
    чтобы посмотреть, распознает ли компьютер?
  • 5:24 - 5:26
    Да, распознаёт и неявные улыбки.
  • 5:26 - 5:28
    Мы усердно трудились,
    чтобы это работало.
  • 5:28 - 5:31
    Теперь подними бровь —
    индикатор удивления.
  • 5:31 - 5:36
    Сдвинь брови —
    индикатор замешательства. (Смех)
  • 5:36 - 5:40
    Посмотри с неодобрением. Да, отлично.
  • 5:40 - 5:43
    Это различного рода действия.
    Их гораздо больше.
  • 5:43 - 5:45
    Это короткая демонстрация.
  • 5:45 - 5:48
    Каждое считывание эмоции
    мы называем точкой данных.
  • 5:48 - 5:51
    Они подпитывают друг друга
    для изображения разных эмоций.
  • 5:51 - 5:55
    На правой стороне демо —
    смотри, как будто ты счастливая.
  • 5:55 - 5:57
    Это радость. Радость усиливается.
  • 5:57 - 5:59
    А теперь покажи мне отвращение.
  • 5:59 - 6:04
    Вспомни, как Зейн ушёл
    из группы One Direction.
  • 6:04 - 6:05
    (Смех)
  • 6:05 - 6:09
    Да, сморщи нос. Великолепно.
  • 6:09 - 6:13
    Валентность весьма негативная,
    то есть ты, пожалуй, была фанатом.
  • 6:13 - 6:16
    Валентность — это насколько опыт
    положителен или отрицателен.
  • 6:16 - 6:19
    А вовлечённость —
    насколько она выразительна.
  • 6:19 - 6:22
    Представьте, если бы у Хлои был доступ
    к этому потоку эмоций в реальном времени
  • 6:22 - 6:25
    и она могла бы поделиться этим
    с кем угодно.
  • 6:25 - 6:26
    Спасибо.
  • 6:26 - 6:32
    (Аплодисменты)
  • 6:34 - 6:39
    На данный момент мы собрали
    12 миллиардов таких вот точек данных.
  • 6:39 - 6:42
    Это самая крупная
    база данных эмоций в мире.
  • 6:42 - 6:45
    Мы собрали её
    с 2,9 миллионов видео —
  • 6:45 - 6:47
    людей, согласившихся
    поделиться с нами своими эмоциями, —
  • 6:47 - 6:50
    из 75 стран мира.
  • 6:50 - 6:52
    База данных с каждым днём растёт.
  • 6:53 - 6:55
    Меня поражает, что теперь мы можем
  • 6:55 - 6:58
    измерять нечто настолько личное,
    как эмоции,
  • 6:58 - 7:00
    причём в таком масштабе.
  • 7:00 - 7:02
    Что мы узнали на сегодняшний день?
  • 7:03 - 7:04
    Данные о полах.
  • 7:05 - 7:09
    Наши данные подтверждают то,
    о чём вы, пожалуй, сами догадываетесь:
  • 7:09 - 7:11
    женщины более выразительны,
    чем мужчины.
  • 7:11 - 7:14
    Они не только чаще улыбаются,
    но и улыбки их длятся дольше.
  • 7:14 - 7:15
    И теперь мы можем измерить,
  • 7:15 - 7:18
    на что мужчины и женщины
    реагируют по-разному.
  • 7:19 - 7:20
    Начнём с культуры:
  • 7:20 - 7:24
    в США женщины на 40%
    выразительнее мужчин,
  • 7:24 - 7:28
    но любопытно, что в Англии
    подобного различия не наблюдается.
  • 7:28 - 7:30
    (Смех)
  • 7:31 - 7:35
    Возраст: люди от 50 лет и старше
  • 7:35 - 7:39
    на 25% более эмоциональны,
    чем те, кто моложе.
  • 7:39 - 7:44
    Женщины после 20 улыбаются
    куда чаще мужчин того же возраста,
  • 7:44 - 7:46
    может, это необходимо для флирта.
  • 7:47 - 7:50
    Но, пожалуй, больше всего нас удивило то,
  • 7:50 - 7:53
    что мы постоянно передаём эмоции,
  • 7:53 - 7:56
    даже когда в одиночестве
    сидим за своими устройствами,
  • 7:56 - 8:00
    причём не только когда смотрим видео
    о кошках на Facebook.
  • 8:00 - 8:03
    Мы выражаем эмоции, когда пишем имейлы,
    смс, делаем покупки онлайн
  • 8:03 - 8:06
    или даже оформляем налоги.
  • 8:06 - 8:08
    Где сейчас используются эти данные?
  • 8:08 - 8:10
    Для анализа взаимодействия со СМИ,
  • 8:10 - 8:13
    то есть чтобы изучить
    виральность и электоральное поведение;
  • 8:13 - 8:17
    а также в технологиях, делающих
    возможным проявление эмоций.
  • 8:17 - 8:20
    Я хочу поделиться несколькими
    дорогими мне примерами.
  • 8:21 - 8:24
    Очки с эмоциональной поддержкой
    позволяют пользователю
  • 8:24 - 8:27
    со слабым зрением
    считывать лица окружающих,
  • 8:27 - 8:31
    они могут помочь людям с аутизмом
    определять эмоции —
  • 8:31 - 8:33
    сложная задача для таких людей.
  • 8:35 - 8:39
    В образовании: представьте,
    что ваше обучающее приложение
  • 8:39 - 8:41
    чувствует, что вы запутались,
    и понижает темп,
  • 8:41 - 8:43
    или чувствует,
    что вам скучно, и ускоряется,
  • 8:43 - 8:46
    как бы сделал хороший учитель в классе.
  • 8:47 - 8:50
    Что, если бы наручные часы
    отслеживали ваше настроение
  • 8:50 - 8:52
    или автомобиль ощущал, что вы устали,
  • 8:52 - 8:55
    или, может, ваш холодильник
    чувствовал, что вы напряжены,
  • 8:55 - 8:59
    и запирался, чтобы предотвратить
    обжорство. (Смех)
  • 8:59 - 9:02
    Мне бы такое понравилось.
  • 9:04 - 9:06
    Что, если бы, когда я была в Кембридже,
  • 9:06 - 9:09
    у меня был доступ к моему
    эмоциональному потоку в реальном времени
  • 9:09 - 9:11
    и я могла бы поделиться им
    со своей семьёй,
  • 9:11 - 9:15
    как если бы они были
    со мной в одной комнате?
  • 9:15 - 9:18
    Думаю, через 5 лет
  • 9:18 - 9:21
    у всех наших устройств
    будет эмоциональный чип,
  • 9:21 - 9:25
    и мы забудем о тех временах,
    когда мы не могли просто нахмуриться,
  • 9:25 - 9:28
    а наше устройство сказало бы:
    «Тебе это не понравилось, не так ли?»
  • 9:29 - 9:31
    Наша наибольшая трудность в том,
  • 9:31 - 9:33
    что у этой технологии
    так много областей применения,
  • 9:33 - 9:36
    что я и моя команда не можем
    всё делать в одиночку.
  • 9:36 - 9:39
    Мы сделали эту технологию доступной,
    чтобы другие разработчики
  • 9:39 - 9:41
    могли начать свои проекты и творить.
  • 9:41 - 9:46
    Мы осознаём, что есть риск
  • 9:46 - 9:48
    и возможность неправильного обращения,
  • 9:48 - 9:51
    но лично мне,
    после многих лет за этим делом,
  • 9:51 - 9:53
    кажется, что польза для человечества
  • 9:53 - 9:55
    от наличия эмоционально
    интеллектуальной технологии
  • 9:55 - 9:59
    значительно перевешивает
    риски злоупотребления.
  • 9:59 - 10:02
    Я приглашаю всех принять участие.
  • 10:02 - 10:04
    Чем больше людей
    знают об этой технологии,
  • 10:04 - 10:08
    тем больше возможности для каждого из нас
    высказаться о том, как её использовать.
  • 10:09 - 10:13
    По мере того, как наша жизнь
    всё больше становится цифровой,
  • 10:13 - 10:17
    мы ведём безнадёжную борьбу,
    пытаясь обуздать применение устройств,
  • 10:17 - 10:19
    чтобы вернуть нам наши эмоции.
  • 10:21 - 10:25
    Вместо этого я пытаюсь
    привнести эмоции в технологии
  • 10:25 - 10:27
    и сделать их более чуткими.
  • 10:27 - 10:30
    Я хочу, чтобы устройства,
    отделившие нас друг от друга,
  • 10:30 - 10:31
    снова нас объединили.
  • 10:32 - 10:36
    Путём очеловечивания технологий
    мы обретаем блестящую возможность
  • 10:36 - 10:40
    переосмыслить то, как мы
    взаимодействуем с машинами,
  • 10:40 - 10:44
    а значит и то, как мы, люди,
  • 10:44 - 10:46
    взаимодействуем друг с другом.
  • 10:46 - 10:47
    Спасибо.
  • 10:47 - 10:50
    (Аплодисменты)
Title:
Это приложение знает, что вы чувствуете, — по выражению вашего лица
Speaker:
Рана эль Калиоби
Description:

Наши эмоции оказывают влияние на все стороны жизни — как мы получаем знания, как общаемся, как принимаем решения. И всё же их нет в нашей цифровой жизни; устройства и приложения, которыми мы пользуемся для общения, не оснащены возможностью узнать, что мы чувствуем. Исследователь Рана эль Калиоби намерена это изменить. Она демонстрирует новую мощную технологию, считывающую выражение лица и сопоставляющую его с соответствующей эмоцией. «У этого «эмоционального ядра» есть множество применений, — говорит она, — и оно может изменить не только то, как мы взаимодействуем с машинами, но и как мы взаимодействуем друг с другом».

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Russian subtitles

Revisions Compare revisions