Return to Video

Цей додаток знає про ваші почуття - з виразу вашого обличчя

  • 0:01 - 0:05
    Наші емоції впливають на кожен аспект
    нашого життя,
  • 0:05 - 0:08
    від здоров'я і навчання, до того, як ми
    ведемо справи і приймаємо рішення,
  • 0:08 - 0:10
    великі чи малі.
  • 0:11 - 0:14
    Наші емоції також впливають на те,
    як ми налагоджуємо контакти з іншими.
  • 0:15 - 0:19
    Ми звикли жити
    в такому світі,
  • 0:19 - 0:23
    але незважаючи на це,
    наше життя стає все більше таким --
  • 0:23 - 0:27
    це вчорашнє повідомлення
    від моєї доньки --
  • 0:27 - 0:29
    у світі, що позбавлений емоцій.
  • 0:29 - 0:31
    Тому моє завдання - змінити це.
  • 0:31 - 0:35
    Я хочу повернути емоції
    у наші цифрові комунікації.
  • 0:36 - 0:39
    На цей шлях я стала 15 років тому.
  • 0:39 - 0:41
    Я була програмістом в Єгипті,
  • 0:41 - 0:46
    і мене якраз зарахували на докторську
    програму в Кембриджському університеті.
  • 0:46 - 0:48
    Я зробила щось незвичне
  • 0:48 - 0:52
    як для молодої, щойно одруженої
    єгипетської жінки-мусульманки:
  • 0:54 - 0:57
    завдяки підтримці мого чоловіка,
    який залишився в Єгипті,
  • 0:57 - 1:00
    я спакувала речі і переїхала до Англії.
  • 1:00 - 1:03
    В Кембриджі, за тисячі миль від дому,
  • 1:03 - 1:06
    я усвідомила, що проводжу більше годин
    за комп'ютером,
  • 1:06 - 1:08
    ніж спілкуючись з іншими людьми.
  • 1:08 - 1:13
    Проте, незважаючи на цю близькість, мій
    комп'ютер не знав, як я почуваюся.
  • 1:13 - 1:17
    Він не знав, чи я щаслива,
  • 1:17 - 1:20
    чи в мене поганий день, чи я стресована,
    розгублена,
  • 1:20 - 1:22
    і це було розчаруванням.
  • 1:24 - 1:29
    Навіть гірше: коли я розмовляла зі своїми,
  • 1:29 - 1:33
    то відчула, що всі емоції
    зникають в кіберпросторі.
  • 1:33 - 1:38
    Я сумувала за домом, була одинокою,
    і інколи навіть плакала,
  • 1:38 - 1:43
    але все, що я могла висловити,
    було ось це.
  • 1:43 - 1:45
    (Сміх)
  • 1:45 - 1:50
    Технології сьогодення мають багато IQ,
    але не мають емоційної якості.
  • 1:50 - 1:53
    Багато пізнавального інтелекту
    та відсутність емоційного інтелекту.
  • 1:53 - 1:55
    Це змусило мене задуматися,
  • 1:55 - 1:59
    а що, якщо технології
    зможуть відчувати наші емоції?
  • 1:59 - 2:03
    А що, якщо наші пристрої зможуть відчути,
    як ми почуваємося і відповідно відреагувати,
  • 2:03 - 2:06
    так, як емоційно розвинений друг?
  • 2:07 - 2:10
    Ці питання привели мене і мою команду
  • 2:10 - 2:15
    до створення технологій, що можуть читати
    і відповідати на наші емоції,
  • 2:15 - 2:18
    і нашою стартовою точкою
    було обличчя людини.
  • 2:19 - 2:22
    Наше обличчя є одним з найпотужніших
    каналів,
  • 2:22 - 2:26
    який ми використовуємо, щоб висловити
    соціальний та емоційний стан,
  • 2:26 - 2:29
    все, починаючи з веселощів, здивування,
  • 2:29 - 2:33
    співчуття і допитливості.
  • 2:33 - 2:38
    В науці емоцій, кожен порух м'язів обличчя
    ми називаємо одиницею поведінки.
  • 2:38 - 2:41
    Наприклад, одиниця поведінки 12,
  • 2:41 - 2:43
    це не голлівудський блокбастер,
  • 2:43 - 2:46
    це, власне, розширення кутиків губ,
    що є основним елементом усмішки.
  • 2:46 - 2:49
    Спробуйте всі.
    Давайте посміхнемося.
  • 2:49 - 2:52
    Інший приклад - одиниця поведінки 4,
    зморшка на лобі.
  • 2:52 - 2:54
    Це коли ви зводите брови разом
  • 2:54 - 2:56
    і утворюються всі ці нерівності і зморшки.
  • 2:56 - 3:01
    Ми не любимо їх, але це очевидна ознака
    негативної емоції.
  • 3:01 - 3:03
    У нас близько 45 таких одиниць поведінки,
  • 3:03 - 3:06
    і вони, в поєднанні, можуть виразити
    сотні емоцій.
  • 3:06 - 3:10
    Навчити комп'ютер зчитувати емоції обличчя
    є досить важко,
  • 3:10 - 3:13
    оскільки ці одиниці поведінки
    можуть бути швидкими, ледь помітними,
  • 3:13 - 3:16
    і вони поєднуються в різний спосіб.
  • 3:16 - 3:20
    Наприклад, подивимося на посмішку та
    самовдоволену посмішку.
  • 3:20 - 3:23
    Вони виглядають дещо однаково,
    але означають зовсім різне.
  • 3:23 - 3:25
    (Сміх)
  • 3:25 - 3:28
    Посмішка є позитивною,
  • 3:28 - 3:29
    а самовдоволена посмішка
    зазвичай негативна.
  • 3:29 - 3:33
    Іноді самовдоволена посмішка може вас
    зробити відомим.
  • 3:33 - 3:36
    Але, насправді, важливо,
    щоб комп'ютер міг
  • 3:36 - 3:39
    розрізнити ці два вирази.
  • 3:39 - 3:41
    Отже, як ми це робимо?
  • 3:41 - 3:42
    У нас є алгоритми
  • 3:42 - 3:47
    десятків тисяч прикладів людей,
    які посміхаються,
  • 3:47 - 3:50
    з різних етнічних груп, різного віку
    та статей,
  • 3:50 - 3:52
    і такі ж приклади ми маємо
    для самовдоволених посмішок.
  • 3:52 - 3:54
    Поглиблено вивчаючи
  • 3:54 - 3:57
    алгоритм шукає всі ці
    нерівності і зморшки,
  • 3:57 - 3:59
    і зміни обрисів на нашому обличчі,
  • 3:59 - 4:03
    і досліджує, що посмішки мають
    спільні риси,
  • 4:03 - 4:06
    а самовдоволені посмішки мають
    інші риси.
  • 4:06 - 4:08
    Наступного разу, коли він бачить
    нове обличчя,
  • 4:08 - 4:10
    він вивчає,
  • 4:10 - 4:13
    що це обличчя має характеристики посмішки,
  • 4:13 - 4:18
    і каже: "Ага. Я це розумію.
    Це - усмішка."
  • 4:18 - 4:21
    Щоб найкраще продемонструвати,
    як працює ця технологія,
  • 4:21 - 4:23
    зробимо це наживо.
  • 4:23 - 4:27
    Мені потрібен волонтер,
    бажано з обличчям.
  • 4:27 - 4:30
    (Сміх)
  • 4:30 - 4:32
    Хлоя буде нашим добровольцем.
  • 4:33 - 4:38
    За останні 5 років ми переросли
    з проекту в Массачусетському інституті
  • 4:38 - 4:39
    в компанію,
  • 4:39 - 4:42
    в котрій моя команда дуже старалася,
    щоби ця технологія запрацювала,
  • 4:42 - 4:45
    як ми кажемо, в диких умовах.
  • 4:45 - 4:47
    Ми також зменшили її, щоб
    ядро машини емоцій
  • 4:47 - 4:51
    працювало на мобільних пристроях
    з камерами, таких як iPad.
  • 4:51 - 4:53
    Давайте спробуємо.
  • 4:55 - 4:59
    Бачите, алгоритм знайшов
    обличчя Хлої,
  • 4:59 - 5:00
    це ця біла рамка,
  • 5:00 - 5:03
    і слідкує за основними рисами її обличчя,
  • 5:03 - 5:06
    за бровами, очима,
    ротом та носом.
  • 5:06 - 5:09
    Питання: чи розрізнить він
    її вираз обличчя?
  • 5:09 - 5:10
    Протестуємо цю машину.
  • 5:10 - 5:15
    Перш за все, покажи мені
    "кам'яне обличчя". Так, чудово. (Сміх)
  • 5:15 - 5:17
    Тепер, коли вона посміхається,
    це справжня усмішка, чудово.
  • 5:17 - 5:20
    Бачите, як зелене кільце піднімається,
    коли вона посміхається.
  • 5:20 - 5:21
    Це була широка посмішка.
  • 5:21 - 5:24
    Можеш злегка посміхнутись, щоб
    побачити, чи комп'ютер зрозуміє?
  • 5:24 - 5:26
    Він розрізняє малопомітні усмішки також.
  • 5:26 - 5:28
    Ми тяжко працювали,
    щоб це вийшло.
  • 5:28 - 5:31
    Піднята брова,
    індикатор подиву.
  • 5:31 - 5:36
    Глибока зморшка між бровами -
    індикатор збентеження.
  • 5:36 - 5:40
    Насуплення. Ідеально.
  • 5:40 - 5:43
    Це все різні одиниці поведінки.
    Їх є значно більше.
  • 5:43 - 5:45
    Це лише скорочене демо.
  • 5:45 - 5:48
    Кожне впізнання емоцій ми називаємо
    емоційними даними,
  • 5:48 - 5:51
    і вони можуть, поєднуючись,
    відображати різні емоції.
  • 5:51 - 5:56
    В правій частині демо --
    виглядає, що ти щаслива.
  • 5:56 - 5:57
    Отже, це - щастя.
    Щастя підсвічується.
  • 5:57 - 5:59
    Зараз спробуй показати огиду.
  • 5:59 - 6:04
    Пригадай, як це - коли Зайн вийшов
    з групи One Direction.
  • 6:04 - 6:05
    (Сміх)
  • 6:05 - 6:09
    Так, наморщи носа. Чудово.
  • 6:09 - 6:13
    Результат доволі негативний,
    ти, мабуть, їхня велика шанувальниця.
  • 6:13 - 6:16
    Валентність показує, наскільки
    позитивним чи негативним є досвід,
  • 6:16 - 6:19
    а вмикання кольорів, наскільки
    єкспресивною вона є.
  • 6:19 - 6:22
    Уявімо, якби Хлоя мала доступ
    до емоційного потоку онлайн,
  • 6:22 - 6:25
    вона могла б поділитися,
    з ким хотіла.
  • 6:25 - 6:28
    Дякую.
  • 6:28 - 6:32
    (Оплески)
  • 6:34 - 6:39
    Зараз ми маємо 12 мільярдів
    таких емоційних даних.
  • 6:39 - 6:42
    Це найбільша емоційна база у всьому світі.
  • 6:42 - 6:45
    Ми зібрали її з 2,9 мільйонів відео,
  • 6:45 - 6:47
    від людей, які погодилися
    розділити свої емоції з нами,
  • 6:47 - 6:50
    із 75 різних країн світу.
  • 6:50 - 6:52
    Вона збільшується щодня.
  • 6:53 - 6:55
    Це захоплююче,
  • 6:55 - 6:58
    як ми можемо підрахувати щось
    таке особисте як емоції,
  • 6:58 - 7:00
    і можемо це зробити за допомогою шкали.
  • 7:00 - 7:02
    Що ми враховуємо?
  • 7:03 - 7:05
    Стать.
  • 7:05 - 7:09
    Наші дані підтверджують те,
    що ви підозрюєте.
  • 7:09 - 7:11
    Жінки більш експресивні, ніж чоловіки.
  • 7:11 - 7:14
    Вони не лише посміхаються частіше,
    їхня посмішка триваліша,
  • 7:14 - 7:16
    і ми можемо справді підрахувати,
    на що жінки і чоловіки
  • 7:16 - 7:19
    реагують по-різному.
  • 7:19 - 7:21
    Розглянемо культурний аспект: у США,
  • 7:21 - 7:24
    жінки на 40% експресивніші за чоловіків,
  • 7:24 - 7:28
    але цікавіше, що в Англії жодної різниці
    між чоловіками і жінками.
  • 7:28 - 7:30
    (Сміх)
  • 7:31 - 7:35
    ВІк: люди, котрим 50 і вище
  • 7:35 - 7:39
    на 25% емоційніші за молодших віком.
  • 7:40 - 7:44
    ЖІнки у свої 20 посміхаються більше,
    ніж чоловіки того ж віку,
  • 7:44 - 7:48
    мабуть, просто необхідність
    для побачень.
  • 7:48 - 7:50
    Але найбільше нас здивувало,
  • 7:50 - 7:53
    що ми виражаємо емоції постійно,
  • 7:53 - 7:56
    навіть тоді, коли ми наодинці
    зі своїми пристроями,
  • 7:56 - 8:00
    і це не лише тоді, коли ми довимося відео
    про котів на Facebook.
  • 8:00 - 8:03
    Ми виявляємо емоції, коли пишемо мейли,
    смс чи робимо покупки онлайн,
  • 8:03 - 8:06
    навіть, коли маємо справу з податками.
  • 8:06 - 8:08
    Де можливо застосувати ці дані сьогодні?
  • 8:08 - 8:11
    Для розуміння того,
    як ми пов'язуємо себе з медіа,
  • 8:11 - 8:13
    розуміння поширення веб-контенту
    і поведінки вибору,
  • 8:13 - 8:16
    а також, щоб розуміти могутню
    чи емоційно адаптовану технологію.
  • 8:16 - 8:21
    Хочу показати вам кілька прикладів,
    які особливо близькі для мене.
  • 8:21 - 8:24
    Емоційно адапотовані окуляри можуть
    допомогти тим,
  • 8:24 - 8:27
    хто погано бачить,
    читати обличчя інших,
  • 8:27 - 8:32
    і також допоможе аутистам
    зрозуміти емоції,
  • 8:32 - 8:34
    те, з чим їм дійсно важко розібратися.
  • 8:36 - 8:39
    Щодо освіти, то уявіть, якби
    ваші додатки для навчання
  • 8:39 - 8:42
    відчували, що ви збентежені
    і сповільнювалися при цьому.
  • 8:42 - 8:43
    Або відчули, що вам нудно,
    і пришвидшувалися,
  • 8:43 - 8:46
    так само, як хороший вчитель
    зробив би у класі.
  • 8:47 - 8:50
    Якби ваш годинник відслідковував
    ваш настрій,
  • 8:50 - 8:52
    чи ваша машина відчула, що ви втомлені,
  • 8:52 - 8:55
    чи ваш холодильник був в курсі,
    що ви переживаєте стрес,
  • 8:55 - 9:01
    і автоматично закривався, щоб
    не дозволити вам переїдати. (Сміх)
  • 9:01 - 9:04
    Мені б таке сподобалося.
  • 9:04 - 9:06
    Якби тоді, коли я була у Кембриджі,
  • 9:06 - 9:08
    я мала доступ до емоційного потоку
    онлайн,
  • 9:08 - 9:11
    і могла б поділитися всім зі своєю сім'єю
    вдома у звичний спосіб,
  • 9:11 - 9:15
    так, наче б ми сиділи всі разом
    в одній кімнаті?
  • 9:15 - 9:19
    Гадаю, що за п'ять років,
  • 9:19 - 9:21
    всі наші пристрої матимуть емоційний чіп,
  • 9:21 - 9:25
    і ми вже не пам'ятатимемо часи, коли
    не можна було насупитися до пристрою
  • 9:25 - 9:29
    і він нам відповів би: "Гмм,
    тобі це не подобається, чи не так?"
  • 9:29 - 9:33
    Найбільшою трудністю є те, що ця
    технологія має багато додатків.
  • 9:33 - 9:36
    Ми з командою усвідомили,
    що не зможемо створити її самі,
  • 9:36 - 9:39
    тому ми зробили так, щоб ця технологія стала
    доступною для інших розробників
  • 9:39 - 9:41
    і вони могли працювати,
    і бути креативними.
  • 9:41 - 9:46
    Ми також усвідомлюємо, що існують
    потенційні ризики
  • 9:46 - 9:48
    і зловживання,
  • 9:48 - 9:51
    але я, особисто пропрацюваваши
    багато років над цим,
  • 9:51 - 9:54
    вірю, що користь для суспільства
  • 9:54 - 9:56
    від емоційно спроможних технологій
  • 9:56 - 9:59
    значно переважатиме можливе
    їх зловживання.
  • 9:59 - 10:02
    Запрошую вас усіх приєднатися
    до діалогу.
  • 10:02 - 10:04
    Чим більшій кількості людей
    відомо про цю технологію,
  • 10:04 - 10:08
    тим більше ми знатимемо,
    як її використовувати.
  • 10:09 - 10:14
    Так як наше життя
    стає все більш цифровим,
  • 10:14 - 10:17
    ми залучені в битву, яку програємо, намагаючись
    обмежити використання нами пристроїв,
  • 10:17 - 10:19
    щоби повернути наші емоції.
  • 10:21 - 10:25
    Тож я намагаюся натомість
    внести емоції в наші технології
  • 10:25 - 10:27
    і зробити їх більш чутливими.
  • 10:27 - 10:29
    Мені б хотілося, щоб ці пристрої,
    які нас роз'єднують,
  • 10:29 - 10:32
    поєднали нас знову.
  • 10:32 - 10:36
    Гуманізуючи технології,
    ми отримуємо надзвичайну можливість
  • 10:36 - 10:40
    переосмислити те, як ми з'єднуємося
    з машинами,
  • 10:40 - 10:44
    і, відповідно, як ми, люди,
  • 10:44 - 10:46
    спілкуємося один з одним.
  • 10:46 - 10:48
    Дякую.
  • 10:48 - 10:52
    (Оплески)
Title:
Цей додаток знає про ваші почуття - з виразу вашого обличчя
Speaker:
Рана ель Калюбі
Description:

Наші емоції впливають на кожен аспект нашого життя - те, як ми вчимося, як спілкуємося, як приймаємо рішення. Проте вони відсутні у нашому цифровому світі. Пристрої та додатки, з якими ми працюємо, не знають про наші відчуття.
Науковець Рана ель Калюбі хоче це змінити. Вона представляє нову технологію, котра зчитує вираз обличчя і поєднує його з емоціями. Цей "пристрій емоцій" має багато застосувань, стверджує вона, і може змінити не лише наше спілкування з машинами, а й також один з одним.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Ukrainian subtitles

Revisions Compare revisions