이 응용프로그램은 당신의 기분을 알아요— 당신의 표정을 통해서요.
-
0:01 - 0:05우리의 감정들은
삶의 모든 면에 영향을 줍니다, -
0:05 - 0:08우리의 건강과 학습부터
사업의 방식과 의사결정까지요. -
0:08 - 0:10큰 일이든 작은 일이든지요.
-
0:11 - 0:14또한 감정은 우리가 서로를 어떻게
연결시키는지 영향을 주죠. -
0:15 - 0:19우리는 이런 세상에서
살기위해 진화해왔죠. -
0:19 - 0:23그러나 대신에 우리는 점점 더
이런 삶 속에 살고 있습니다. -
0:23 - 0:27어젯밤 제 딸의 문자 메세지입니다.
-
0:27 - 0:29감정이 결여된 세상이죠.
-
0:29 - 0:31저는 그것을 바꾸는 과제에 착수했어요.
-
0:31 - 0:35감정을 디지털 공간의
경험안에 도입시키고 싶었죠. -
0:36 - 0:39전 이걸 15년 전에 시작했어요.
-
0:39 - 0:41저는 이집트에서 컴퓨터 공학자였고
-
0:41 - 0:46막 캠브리지의 박사 학위
과정에 입학했었습니다. -
0:46 - 0:48그래서 저는 좀 다른 것을 했습니다.
-
0:48 - 0:52어린 신혼의 무슬림
이집트 부인으로서요. -
0:54 - 0:57이집트에 남아야했던 남편의 지원 덕분에
-
0:57 - 1:00저는 짐을 꾸려 영국으로 갔습니다.
-
1:00 - 1:03고향에서 수천 마일 떨어진 캠브리지에서
-
1:03 - 1:08사람들과 지내는 시간보다 많은 시간을
노트북과 보내고 있음을 알았습니다. -
1:08 - 1:13이런 친밀성에도 불구하고
제 노트북은 저의 감정을 알 수 없었죠. -
1:13 - 1:17이것은 제가 행복한지, 기분이 안 좋은지,
-
1:17 - 1:20스트레스를 받는지, 혼란스러운지
알지 못했습니다. -
1:20 - 1:22그게 답답했어요.
-
1:24 - 1:28더 안 좋은 상황은 온라인상으로
고향 가족들과 대화할 때 -
1:29 - 1:33제 모든 감정들이 사이버 공간에서
사라진다고 느껴졌어요. -
1:33 - 1:35저는 향수병을 앓았고, 외로웠으며,
-
1:35 - 1:38그리고 어떤날은 정말로 울었죠.
-
1:38 - 1:41그러나 제가 표현할 수 있는 방법은
-
1:42 - 1:43이것뿐이었습니다.
-
1:43 - 1:45(웃음)
-
1:45 - 1:48오늘날의 기술은 높은 I.Q를
가지고 있습니다. -
1:48 - 1:49그러나 E.Q는 없어요.
-
1:49 - 1:53인지 지능이 있으나 감성 지능은 없죠.
-
1:53 - 1:55그래서 생각하게 됐습니다.
-
1:55 - 1:59기술이 우리의 감정을 느낀다면 어떨까?
-
1:59 - 2:03장비들이 우리의 감정을 느끼고
그에 따라 반응한다면 어떨까? -
2:03 - 2:06감수성이 있는 친구가
반응하듯이 말이죠. -
2:07 - 2:11이런 의문들 때문에 저와 동료들이
-
2:11 - 2:15감정을 읽고 반응하는
기술을 만들었습니다. -
2:15 - 2:18우리의 시작점은 인간의 얼굴이었죠.
-
2:19 - 2:22인간의 얼굴은 하나의 강력한 경로인데
-
2:22 - 2:26사회적, 감정적 상태의
소통을 위해 모두가 사용하죠. -
2:26 - 2:33즐거움, 놀람, 공감과
호기심같은 감정들입니다. -
2:33 - 2:38감정 과학에서 각 얼굴 근육의 움직임을
활동 단위라고 합니다. -
2:38 - 2:41예를들어, 활동 단위 12번은
-
2:41 - 2:43이건 헐리우드 대작이 아니예요.
-
2:43 - 2:46입술의 가장자리를 당기는 것입니다.
웃음의 주요 구성 부분이죠. -
2:46 - 2:49모두 시도해보세요. 웃어 보세요.
-
2:49 - 2:52다른 예로 활동 단위 4번은
눈썹을 찡그리는 것입니다. -
2:52 - 2:56당신이 두 눈썹을 함께 모을 때
이런 느낌과 주름살이 생깁니다. -
2:56 - 2:58우리가 별로 좋아하지 않죠.
-
2:58 - 3:01그건 부정적 감정의 강한 지표입니다.
-
3:01 - 3:03약 45개의 활동 단위가 있어요.
-
3:03 - 3:06조합해서 수백개의 감정표현이 생깁니다.
-
3:06 - 3:10이런 표정을 읽도록 컴퓨터를
가르치는 것은 힘듭니다. -
3:10 - 3:13활동 단위들은 빠를 수도 있고,
미묘할 수 도 있으며 -
3:13 - 3:16수 많은 방법으로 조합되기 때문입니다.
-
3:16 - 3:20예로 웃음과 억지웃음을 들어봅시다.
-
3:20 - 3:21그것들은 다소 비슷해 보이죠.
-
3:21 - 3:23그러나 매우 의미가 다릅니다.
-
3:23 - 3:25(웃음)
-
3:25 - 3:27웃음은 긍정적이고,
-
3:27 - 3:29억지웃음은 보통은 부정적입니다.
-
3:29 - 3:33가끔 억지웃음으로
유명해질 수 있어요. -
3:33 - 3:38농담이 아니라 컴퓨터가 두 표정의 차이를
구별하는 것은 중요합니다. -
3:38 - 3:41그래서 저희는 어떻게 했을까요?
-
3:41 - 3:42저희는 컴퓨터 알고리즘에
-
3:42 - 3:47십만개의 웃는 사람들
예시를 입력했습니다. -
3:47 - 3:50인종, 나이, 성별이 다양합니다.
-
3:50 - 3:52억지웃음도 그렇게 했습니다.
-
3:52 - 3:54딥 러닝 인공지능을 사용해서
-
3:54 - 3:59알고리즘이 느낌과 주름살,
얼굴의 형태 변화를 찾습니다. -
3:59 - 4:03모든 웃는 얼굴에 공통적 특징이
있다는 것을 학습하게 됩니다. -
4:03 - 4:06모든 억지웃음은 미묘하게
다른 특징을 가지고 있어요. -
4:06 - 4:08그리고나서 이것은
새로운 얼굴을 관찰합니다. -
4:08 - 4:14이 얼굴이 웃음과 같은
특징을 가진다는 것을 알고 -
4:14 - 4:17말합니다."아하, 알겠습니다.
이건 웃는 표정입니다." -
4:18 - 4:21이 기술이 어떻게 작동하는지
보여주는 가장 좋은 방법은 -
4:21 - 4:23실제 시연을 시도하는 것이죠.
-
4:23 - 4:25저는 지원자 한 분이 필요해요.
-
4:25 - 4:27얼굴을 가진 분을 선호합니다.
-
4:27 - 4:30(웃음)
-
4:30 - 4:32클로이가 오늘 지원해줄 겁니다.
-
4:33 - 4:35지난 5년 동안,
-
4:35 - 4:39우리는 MIT에서 연구로 시작해
한 회사를 설립했습니다. -
4:39 - 4:42저희 팀이 이 기술을
실현하려고 노력하는 곳이죠. -
4:42 - 4:45저희는 야생의 상태라고 불러요.
-
4:45 - 4:46그리고 우리는 기술을 소형화해서
-
4:46 - 4:51핵심 감정 엔진이 아이패드처럼 카메라달린
이동식 장치에도 쓸 수 있게 했습니다. -
4:51 - 4:53자, 시도해봅시다.
-
4:55 - 4:56여러분이 보듯이,
-
4:56 - 4:59이것은 클로이의 얼굴을
감지하고 있습니다. -
4:59 - 5:00여기 하얀 테두리가 있죠.
-
5:00 - 5:03이것은 그녀의 얼굴의
눈썹, 눈, 입과 코와 같은 -
5:03 - 5:06주요 특정 부분을 추적하고 있습니다.
-
5:06 - 5:09궁금한것은 이게 그녀의 표정을
인식할 수 있을까요? -
5:09 - 5:10그래서 이 기계를 시험해볼거예요.
-
5:10 - 5:15먼저 무표정을 해주세요.
좋아요, 멋지네요. (웃음) -
5:15 - 5:17순수한 웃음이죠, 멋져요.
-
5:17 - 5:20웃을 때 녹색 막대가
증가하는 것을 볼 수 있죠. -
5:20 - 5:23함박웃음이었어요.
미묘한 웃음을 해보시겠어요? -
5:23 - 5:25컴퓨터가 인식하는지 보려고요.
미묘한 웃음도 인식합니다. -
5:25 - 5:27이것을 만들려고 정말 노력했어요.
-
5:27 - 5:31눈썹이 올라가면 놀람의 표시이죠.
-
5:31 - 5:36이마의 주름살은 혼란의 표시입니다.
-
5:36 - 5:37찡그려주세요.
-
5:37 - 5:40네, 완벽하네요.
-
5:40 - 5:43이것은 각각 다른 활동단위이고
더 많이 있습니다. -
5:43 - 5:45이건 몇가지만 보여드린 겁니다.
-
5:45 - 5:48저희는 각각의 인식을
감정 정보점이라고 합니다. -
5:48 - 5:51이것이 함께 여러가지
감정을 나타나게 합니다. -
5:51 - 5:55오른쪽에는 당신이 행복해 보입니다.
-
5:55 - 5:57이것은 기쁨입니다.
기쁨 기능이 작동하죠. -
5:57 - 6:00혐오하는 표정을 지어주세요.
-
6:00 - 6:04자인이 One Direction을
탈퇴했다고 생각해보세요. -
6:04 - 6:05(웃음)
-
6:05 - 6:08네, 코에 주름을 잡아보세요. 좋아요.
-
6:09 - 6:14유의성이 부정적이네요,
그러니까 진짜 팬이었나보네요. -
6:14 - 6:16유의성은 한 경험이 얼마나
긍정적 또는 부정적인지 나타냅니다. -
6:16 - 6:19참여도는 얼마나 표현력이
있느냐를 보여줍니다. -
6:19 - 6:22클로이가 실시간 감정 변화에
접근할 수 있다고 상상해 보세요. -
6:22 - 6:25그녀는 이것을 원하는 사람과
공유할 수 있겠죠. -
6:25 - 6:27감사합니다.
-
6:27 - 6:32(박수)
-
6:34 - 6:39지금까지 120억개의
감정 정보점을 수집했습니다. -
6:39 - 6:41세상에서 가장 큰 감정 데이터베이스죠.
-
6:41 - 6:452,900만개의
얼굴 영상에서 모았습니다. -
6:45 - 6:47감정 공유에 동의한 분들이고
-
6:47 - 6:50세계의 75개국에서 모았습니다.
-
6:50 - 6:52이것은 매일 늘어나고 있습니다.
-
6:53 - 6:55저는 이것이 놀랍습니다.
-
6:55 - 6:58지금 우리는 감정과 같은
개인적인 것을 수량화 할 수 있는거죠. -
6:58 - 7:00그리고 이런 규모로 할 수 있습니다.
-
7:00 - 7:02최근까지 연구한 것은 무엇일까요?
-
7:03 - 7:05성별입니다.
-
7:05 - 7:09저희 정보가 여러분이
설마하는 것을 확인시켜 줄 겁니다. -
7:09 - 7:11여자가 남자보다 표현력이 있습니다.
-
7:11 - 7:14더 많이 웃고 더 오래 웃어요.
-
7:14 - 7:16우리는 수량화할 수 있어요.
-
7:16 - 7:19여성과 남성이 다르게 반응하는 것을요.
-
7:19 - 7:24문화적으로는 미국에서 여성들이
남성보다 40% 더 표현력이 좋아요. -
7:24 - 7:28그런데 신기하게도
영국에서는 차이가 없네요. -
7:28 - 7:30(웃음)
-
7:31 - 7:33나이는요.
-
7:33 - 7:3850대 혹은 그 이상의 사람들이
젊은 사람들보다 25% 더 감정적입니다. -
7:39 - 7:4420대 여성들은 또래 남성보다
25% 더 많이 웃습니다. -
7:44 - 7:48아마 데이트를 위해 필요한 것이겠죠.
-
7:48 - 7:50하지만 이 자료에서 놀라운 점은
-
7:50 - 7:53우리가 언제나 표현력이
있다는 것입니다. -
7:53 - 7:56혼자 기계 앞에 앉아 있을때도요.
-
7:56 - 8:00페이스북의 고양이 영상을
볼 때 뿐만 아니라 -
8:00 - 8:03메일을 보낼 때, 문자를 할 때,
그리고 온라인 쇼핑을 하거나 -
8:03 - 8:06심지어 세금을 지불할 때도 표현합니다.
-
8:06 - 8:08오늘날 이 자료가 어디에 사용될까요?
-
8:08 - 8:11우리가 매체와 소통하는 방법과
-
8:11 - 8:13대박영상 특징이나
투표 성향을 이해하고 -
8:13 - 8:17그리고 자율권을 주거나
감정 기능 기술을 이해하는 겁니다. -
8:17 - 8:20제 마음에 가장 와닿는
예를 보여드리고 싶습니다. -
8:21 - 8:24이 감정 기능 안경은
사람들을 돕습니다. -
8:24 - 8:28시각기능이 약화된 사람들이
다른 이들의 감정을 읽게 해줍니다. -
8:28 - 8:32또한 자폐증이 있는 사람이
감정을 해석하게 해줍니다. -
8:32 - 8:34정말로 힘들어 하는 것이지요.
-
8:36 - 8:42교육에서 학습프로그램이 당신이
혼란스럽고 지쳐간다는 것을 감지하거나 -
8:42 - 8:43또는 지루하거나, 흥분하는 것을
감지하는 걸 상상해 보세요. -
8:43 - 8:46교실에서 정말 좋은 선생님이
그러는 것처럼요. -
8:47 - 8:50손목시계가 감정을 감지한다면 어떨까요.
-
8:50 - 8:52자동차가 여러분이
피곤하다는 것을 안다면요. -
8:52 - 8:55아니면 냉장고가 당신이
스트레스를 받았다는 것을 알아서 -
8:55 - 8:59냉장고가 자동으로 잠궈서
폭식을 막아 준다면요. (웃음) -
8:59 - 9:01전 좋을거 같아요.
-
9:04 - 9:06제가 캠프리지에 있었을때,
-
9:06 - 9:07이 실시간 감정 흐름에
접근할 수 있었다면 어땠을까요. -
9:07 - 9:10고향에 가족과 공유할 수 있었을겁니다.
-
9:10 - 9:15매우 자연스럽게
모두 같은 방에 있는 것처럼요. -
9:16 - 9:19제 생각에 5년 후에는
-
9:19 - 9:21모든 기계들이 감정칩을 가질겁니다.
-
9:21 - 9:25이렇게 반응하는 기기가
어땠는지 기억도 못할 겁니다. -
9:25 - 9:28기기앞에서 그저 찌푸리지만 않고
"별로 안좋으신가봐요, 그렇죠?" 하는 겁니다. -
9:29 - 9:33가장 큰 과제는 이 기술에
많은 응용이 있다는 것입니다. -
9:33 - 9:36저희 팀원들은 우리가 모든 것을
만들 수 없다는 걸 깨달았습니다. -
9:36 - 9:41그래서 다른 개발자들이 함께
이 기술을 사용할 수 있게 했습니다. -
9:41 - 9:48저희는 잠재적인 위험성과
악용의 가능성이 있음을 압니다. -
9:48 - 9:51그러나 개인적으로 이 일에
수년을 보낸 사람으로서 -
9:51 - 9:55감정 지능 기술이 인류에게 줄 혜택이
-
9:55 - 9:59악용의 가능성보다
훨씬 크다고 믿습니다. -
9:59 - 10:02여러분이 이 대화의 부분으로
참여하도록 초대했어요. -
10:02 - 10:04더 많은 사람들이 이 기술을 알수록
-
10:04 - 10:08어떻게 사용되는지
더 많은 의견을 들을 수 있어요. -
10:09 - 10:14점점 더 우리의 삶이 디지털화 되면서
-
10:14 - 10:19우리 감정을 되찾고자 기기사용을 억제하는
승산없는 싸움을 하고 있습니다. -
10:21 - 10:22대신에 제가 시도하는 것은
-
10:22 - 10:25감정들을 기술로 가져오는 것이에요.
-
10:25 - 10:27기술이 보다 반응할 수 있도록 만들죠.
-
10:27 - 10:29우리를 갈라놓은 기계들이
-
10:29 - 10:32우리를 재화합할 수 있게 하고 싶어요.
-
10:32 - 10:34기술을 인간적이게 만들어서
-
10:34 - 10:36우리는 최고의 기회를 얻었죠.
-
10:36 - 10:40어떻게 우리가 기계들과
소통하는지 재고하는 겁니다. -
10:40 - 10:46따라서 우리 인간이 다른 이들과
소통하는 방법도 재고하는 겁니다. -
10:46 - 10:48감사합니다.
-
10:48 - 10:51(박수)
- Title:
- 이 응용프로그램은 당신의 기분을 알아요— 당신의 표정을 통해서요.
- Speaker:
- 라나 엘 칼리오우비 (Rana el Kaliouby)
- Description:
-
감정은 학습, 의사소통, 의사결정 방법 등 우리 삶의 모든 면에 영향을 줍니다. 그러나 디지털 세계에는 그런 것들이 부재합니다. 우리가 상호작용하는 장치나 응용프로그램은 우리가 어떤 것을 느끼는지 알 길이 없습니다. 과학자 라나 엘 칼리오우비는 그것을 바꾸는 목표를 가지고 있습니다. 그녀는 여러분의 얼굴의 표정을 읽고 상응하는 감정을 일치시키는 강력하고 새로운 기술을 보여줍니다. 이 "감정 엔진" 은 큰 의미을 가진다고 그녀는 말합니다. 그리고 우리가 기계들과 상호작용하는 방법을 바꿀 수 있다고 합니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:04
Jihyeon J. Kim approved Korean subtitles for This app knows how you feel -- from the look on your face | ||
Jihyeon J. Kim accepted Korean subtitles for This app knows how you feel -- from the look on your face | ||
Jihyeon J. Kim edited Korean subtitles for This app knows how you feel -- from the look on your face | ||
Jihyeon J. Kim edited Korean subtitles for This app knows how you feel -- from the look on your face | ||
Jihyeon J. Kim edited Korean subtitles for This app knows how you feel -- from the look on your face | ||
Jihyeon J. Kim edited Korean subtitles for This app knows how you feel -- from the look on your face | ||
Jihyeon J. Kim edited Korean subtitles for This app knows how you feel -- from the look on your face | ||
Jihyeon J. Kim edited Korean subtitles for This app knows how you feel -- from the look on your face |