Return to Video

이 응용프로그램은 당신의 기분을 알아요— 당신의 표정을 통해서요.

  • 0:01 - 0:05
    우리의 감정들은
    삶의 모든 면에 영향을 줍니다,
  • 0:05 - 0:08
    우리의 건강과 학습부터
    사업의 방식과 의사결정까지요.
  • 0:08 - 0:10
    큰 일이든 작은 일이든지요.
  • 0:11 - 0:14
    또한 감정은 우리가 서로를 어떻게
    연결시키는지 영향을 주죠.
  • 0:15 - 0:19
    우리는 이런 세상에서
    살기위해 진화해왔죠.
  • 0:19 - 0:23
    그러나 대신에 우리는 점점 더
    이런 삶 속에 살고 있습니다.
  • 0:23 - 0:27
    어젯밤 제 딸의 문자 메세지입니다.
  • 0:27 - 0:29
    감정이 결여된 세상이죠.
  • 0:29 - 0:31
    저는 그것을 바꾸는 과제에 착수했어요.
  • 0:31 - 0:35
    감정을 디지털 공간의
    경험안에 도입시키고 싶었죠.
  • 0:36 - 0:39
    전 이걸 15년 전에 시작했어요.
  • 0:39 - 0:41
    저는 이집트에서 컴퓨터 공학자였고
  • 0:41 - 0:46
    막 캠브리지의 박사 학위
    과정에 입학했었습니다.
  • 0:46 - 0:48
    그래서 저는 좀 다른 것을 했습니다.
  • 0:48 - 0:52
    어린 신혼의 무슬림
    이집트 부인으로서요.
  • 0:54 - 0:57
    이집트에 남아야했던 남편의 지원 덕분에
  • 0:57 - 1:00
    저는 짐을 꾸려 영국으로 갔습니다.
  • 1:00 - 1:03
    고향에서 수천 마일 떨어진 캠브리지에서
  • 1:03 - 1:08
    사람들과 지내는 시간보다 많은 시간을
    노트북과 보내고 있음을 알았습니다.
  • 1:08 - 1:13
    이런 친밀성에도 불구하고
    제 노트북은 저의 감정을 알 수 없었죠.
  • 1:13 - 1:17
    이것은 제가 행복한지, 기분이 안 좋은지,
  • 1:17 - 1:20
    스트레스를 받는지, 혼란스러운지
    알지 못했습니다.
  • 1:20 - 1:22
    그게 답답했어요.
  • 1:24 - 1:28
    더 안 좋은 상황은 온라인상으로
    고향 가족들과 대화할 때
  • 1:29 - 1:33
    제 모든 감정들이 사이버 공간에서
    사라진다고 느껴졌어요.
  • 1:33 - 1:35
    저는 향수병을 앓았고, 외로웠으며,
  • 1:35 - 1:38
    그리고 어떤날은 정말로 울었죠.
  • 1:38 - 1:41
    그러나 제가 표현할 수 있는 방법은
  • 1:42 - 1:43
    이것뿐이었습니다.
  • 1:43 - 1:45
    (웃음)
  • 1:45 - 1:48
    오늘날의 기술은 높은 I.Q를
    가지고 있습니다.
  • 1:48 - 1:49
    그러나 E.Q는 없어요.
  • 1:49 - 1:53
    인지 지능이 있으나 감성 지능은 없죠.
  • 1:53 - 1:55
    그래서 생각하게 됐습니다.
  • 1:55 - 1:59
    기술이 우리의 감정을 느낀다면 어떨까?
  • 1:59 - 2:03
    장비들이 우리의 감정을 느끼고
    그에 따라 반응한다면 어떨까?
  • 2:03 - 2:06
    감수성이 있는 친구가
    반응하듯이 말이죠.
  • 2:07 - 2:11
    이런 의문들 때문에 저와 동료들이
  • 2:11 - 2:15
    감정을 읽고 반응하는
    기술을 만들었습니다.
  • 2:15 - 2:18
    우리의 시작점은 인간의 얼굴이었죠.
  • 2:19 - 2:22
    인간의 얼굴은 하나의 강력한 경로인데
  • 2:22 - 2:26
    사회적, 감정적 상태의
    소통을 위해 모두가 사용하죠.
  • 2:26 - 2:33
    즐거움, 놀람, 공감과
    호기심같은 감정들입니다.
  • 2:33 - 2:38
    감정 과학에서 각 얼굴 근육의 움직임을
    활동 단위라고 합니다.
  • 2:38 - 2:41
    예를들어, 활동 단위 12번은
  • 2:41 - 2:43
    이건 헐리우드 대작이 아니예요.
  • 2:43 - 2:46
    입술의 가장자리를 당기는 것입니다.
    웃음의 주요 구성 부분이죠.
  • 2:46 - 2:49
    모두 시도해보세요. 웃어 보세요.
  • 2:49 - 2:52
    다른 예로 활동 단위 4번은
    눈썹을 찡그리는 것입니다.
  • 2:52 - 2:56
    당신이 두 눈썹을 함께 모을 때
    이런 느낌과 주름살이 생깁니다.
  • 2:56 - 2:58
    우리가 별로 좋아하지 않죠.
  • 2:58 - 3:01
    그건 부정적 감정의 강한 지표입니다.
  • 3:01 - 3:03
    약 45개의 활동 단위가 있어요.
  • 3:03 - 3:06
    조합해서 수백개의 감정표현이 생깁니다.
  • 3:06 - 3:10
    이런 표정을 읽도록 컴퓨터를
    가르치는 것은 힘듭니다.
  • 3:10 - 3:13
    활동 단위들은 빠를 수도 있고,
    미묘할 수 도 있으며
  • 3:13 - 3:16
    수 많은 방법으로 조합되기 때문입니다.
  • 3:16 - 3:20
    예로 웃음과 억지웃음을 들어봅시다.
  • 3:20 - 3:21
    그것들은 다소 비슷해 보이죠.
  • 3:21 - 3:23
    그러나 매우 의미가 다릅니다.
  • 3:23 - 3:25
    (웃음)
  • 3:25 - 3:27
    웃음은 긍정적이고,
  • 3:27 - 3:29
    억지웃음은 보통은 부정적입니다.
  • 3:29 - 3:33
    가끔 억지웃음으로
    유명해질 수 있어요.
  • 3:33 - 3:38
    농담이 아니라 컴퓨터가 두 표정의 차이를
    구별하는 것은 중요합니다.
  • 3:38 - 3:41
    그래서 저희는 어떻게 했을까요?
  • 3:41 - 3:42
    저희는 컴퓨터 알고리즘에
  • 3:42 - 3:47
    십만개의 웃는 사람들
    예시를 입력했습니다.
  • 3:47 - 3:50
    인종, 나이, 성별이 다양합니다.
  • 3:50 - 3:52
    억지웃음도 그렇게 했습니다.
  • 3:52 - 3:54
    딥 러닝 인공지능을 사용해서
  • 3:54 - 3:59
    알고리즘이 느낌과 주름살,
    얼굴의 형태 변화를 찾습니다.
  • 3:59 - 4:03
    모든 웃는 얼굴에 공통적 특징이
    있다는 것을 학습하게 됩니다.
  • 4:03 - 4:06
    모든 억지웃음은 미묘하게
    다른 특징을 가지고 있어요.
  • 4:06 - 4:08
    그리고나서 이것은
    새로운 얼굴을 관찰합니다.
  • 4:08 - 4:14
    이 얼굴이 웃음과 같은
    특징을 가진다는 것을 알고
  • 4:14 - 4:17
    말합니다."아하, 알겠습니다.
    이건 웃는 표정입니다."
  • 4:18 - 4:21
    이 기술이 어떻게 작동하는지
    보여주는 가장 좋은 방법은
  • 4:21 - 4:23
    실제 시연을 시도하는 것이죠.
  • 4:23 - 4:25
    저는 지원자 한 분이 필요해요.
  • 4:25 - 4:27
    얼굴을 가진 분을 선호합니다.
  • 4:27 - 4:30
    (웃음)
  • 4:30 - 4:32
    클로이가 오늘 지원해줄 겁니다.
  • 4:33 - 4:35
    지난 5년 동안,
  • 4:35 - 4:39
    우리는 MIT에서 연구로 시작해
    한 회사를 설립했습니다.
  • 4:39 - 4:42
    저희 팀이 이 기술을
    실현하려고 노력하는 곳이죠.
  • 4:42 - 4:45
    저희는 야생의 상태라고 불러요.
  • 4:45 - 4:46
    그리고 우리는 기술을 소형화해서
  • 4:46 - 4:51
    핵심 감정 엔진이 아이패드처럼 카메라달린
    이동식 장치에도 쓸 수 있게 했습니다.
  • 4:51 - 4:53
    자, 시도해봅시다.
  • 4:55 - 4:56
    여러분이 보듯이,
  • 4:56 - 4:59
    이것은 클로이의 얼굴을
    감지하고 있습니다.
  • 4:59 - 5:00
    여기 하얀 테두리가 있죠.
  • 5:00 - 5:03
    이것은 그녀의 얼굴의
    눈썹, 눈, 입과 코와 같은
  • 5:03 - 5:06
    주요 특정 부분을 추적하고 있습니다.
  • 5:06 - 5:09
    궁금한것은 이게 그녀의 표정을
    인식할 수 있을까요?
  • 5:09 - 5:10
    그래서 이 기계를 시험해볼거예요.
  • 5:10 - 5:15
    먼저 무표정을 해주세요.
    좋아요, 멋지네요. (웃음)
  • 5:15 - 5:17
    순수한 웃음이죠, 멋져요.
  • 5:17 - 5:20
    웃을 때 녹색 막대가
    증가하는 것을 볼 수 있죠.
  • 5:20 - 5:23
    함박웃음이었어요.
    미묘한 웃음을 해보시겠어요?
  • 5:23 - 5:25
    컴퓨터가 인식하는지 보려고요.
    미묘한 웃음도 인식합니다.
  • 5:25 - 5:27
    이것을 만들려고 정말 노력했어요.
  • 5:27 - 5:31
    눈썹이 올라가면 놀람의 표시이죠.
  • 5:31 - 5:36
    이마의 주름살은 혼란의 표시입니다.
  • 5:36 - 5:37
    찡그려주세요.
  • 5:37 - 5:40
    네, 완벽하네요.
  • 5:40 - 5:43
    이것은 각각 다른 활동단위이고
    더 많이 있습니다.
  • 5:43 - 5:45
    이건 몇가지만 보여드린 겁니다.
  • 5:45 - 5:48
    저희는 각각의 인식을
    감정 정보점이라고 합니다.
  • 5:48 - 5:51
    이것이 함께 여러가지
    감정을 나타나게 합니다.
  • 5:51 - 5:55
    오른쪽에는 당신이 행복해 보입니다.
  • 5:55 - 5:57
    이것은 기쁨입니다.
    기쁨 기능이 작동하죠.
  • 5:57 - 6:00
    혐오하는 표정을 지어주세요.
  • 6:00 - 6:04
    자인이 One Direction을
    탈퇴했다고 생각해보세요.
  • 6:04 - 6:05
    (웃음)
  • 6:05 - 6:08
    네, 코에 주름을 잡아보세요. 좋아요.
  • 6:09 - 6:14
    유의성이 부정적이네요,
    그러니까 진짜 팬이었나보네요.
  • 6:14 - 6:16
    유의성은 한 경험이 얼마나
    긍정적 또는 부정적인지 나타냅니다.
  • 6:16 - 6:19
    참여도는 얼마나 표현력이
    있느냐를 보여줍니다.
  • 6:19 - 6:22
    클로이가 실시간 감정 변화에
    접근할 수 있다고 상상해 보세요.
  • 6:22 - 6:25
    그녀는 이것을 원하는 사람과
    공유할 수 있겠죠.
  • 6:25 - 6:27
    감사합니다.
  • 6:27 - 6:32
    (박수)
  • 6:34 - 6:39
    지금까지 120억개의
    감정 정보점을 수집했습니다.
  • 6:39 - 6:41
    세상에서 가장 큰 감정 데이터베이스죠.
  • 6:41 - 6:45
    2,900만개의
    얼굴 영상에서 모았습니다.
  • 6:45 - 6:47
    감정 공유에 동의한 분들이고
  • 6:47 - 6:50
    세계의 75개국에서 모았습니다.
  • 6:50 - 6:52
    이것은 매일 늘어나고 있습니다.
  • 6:53 - 6:55
    저는 이것이 놀랍습니다.
  • 6:55 - 6:58
    지금 우리는 감정과 같은
    개인적인 것을 수량화 할 수 있는거죠.
  • 6:58 - 7:00
    그리고 이런 규모로 할 수 있습니다.
  • 7:00 - 7:02
    최근까지 연구한 것은 무엇일까요?
  • 7:03 - 7:05
    성별입니다.
  • 7:05 - 7:09
    저희 정보가 여러분이
    설마하는 것을 확인시켜 줄 겁니다.
  • 7:09 - 7:11
    여자가 남자보다 표현력이 있습니다.
  • 7:11 - 7:14
    더 많이 웃고 더 오래 웃어요.
  • 7:14 - 7:16
    우리는 수량화할 수 있어요.
  • 7:16 - 7:19
    여성과 남성이 다르게 반응하는 것을요.
  • 7:19 - 7:24
    문화적으로는 미국에서 여성들이
    남성보다 40% 더 표현력이 좋아요.
  • 7:24 - 7:28
    그런데 신기하게도
    영국에서는 차이가 없네요.
  • 7:28 - 7:30
    (웃음)
  • 7:31 - 7:33
    나이는요.
  • 7:33 - 7:38
    50대 혹은 그 이상의 사람들이
    젊은 사람들보다 25% 더 감정적입니다.
  • 7:39 - 7:44
    20대 여성들은 또래 남성보다
    25% 더 많이 웃습니다.
  • 7:44 - 7:48
    아마 데이트를 위해 필요한 것이겠죠.
  • 7:48 - 7:50
    하지만 이 자료에서 놀라운 점은
  • 7:50 - 7:53
    우리가 언제나 표현력이
    있다는 것입니다.
  • 7:53 - 7:56
    혼자 기계 앞에 앉아 있을때도요.
  • 7:56 - 8:00
    페이스북의 고양이 영상을
    볼 때 뿐만 아니라
  • 8:00 - 8:03
    메일을 보낼 때, 문자를 할 때,
    그리고 온라인 쇼핑을 하거나
  • 8:03 - 8:06
    심지어 세금을 지불할 때도 표현합니다.
  • 8:06 - 8:08
    오늘날 이 자료가 어디에 사용될까요?
  • 8:08 - 8:11
    우리가 매체와 소통하는 방법과
  • 8:11 - 8:13
    대박영상 특징이나
    투표 성향을 이해하고
  • 8:13 - 8:17
    그리고 자율권을 주거나
    감정 기능 기술을 이해하는 겁니다.
  • 8:17 - 8:20
    제 마음에 가장 와닿는
    예를 보여드리고 싶습니다.
  • 8:21 - 8:24
    이 감정 기능 안경은
    사람들을 돕습니다.
  • 8:24 - 8:28
    시각기능이 약화된 사람들이
    다른 이들의 감정을 읽게 해줍니다.
  • 8:28 - 8:32
    또한 자폐증이 있는 사람이
    감정을 해석하게 해줍니다.
  • 8:32 - 8:34
    정말로 힘들어 하는 것이지요.
  • 8:36 - 8:42
    교육에서 학습프로그램이 당신이
    혼란스럽고 지쳐간다는 것을 감지하거나
  • 8:42 - 8:43
    또는 지루하거나, 흥분하는 것을
    감지하는 걸 상상해 보세요.
  • 8:43 - 8:46
    교실에서 정말 좋은 선생님이
    그러는 것처럼요.
  • 8:47 - 8:50
    손목시계가 감정을 감지한다면 어떨까요.
  • 8:50 - 8:52
    자동차가 여러분이
    피곤하다는 것을 안다면요.
  • 8:52 - 8:55
    아니면 냉장고가 당신이
    스트레스를 받았다는 것을 알아서
  • 8:55 - 8:59
    냉장고가 자동으로 잠궈서
    폭식을 막아 준다면요. (웃음)
  • 8:59 - 9:01
    전 좋을거 같아요.
  • 9:04 - 9:06
    제가 캠프리지에 있었을때,
  • 9:06 - 9:07
    이 실시간 감정 흐름에
    접근할 수 있었다면 어땠을까요.
  • 9:07 - 9:10
    고향에 가족과 공유할 수 있었을겁니다.
  • 9:10 - 9:15
    매우 자연스럽게
    모두 같은 방에 있는 것처럼요.
  • 9:16 - 9:19
    제 생각에 5년 후에는
  • 9:19 - 9:21
    모든 기계들이 감정칩을 가질겁니다.
  • 9:21 - 9:25
    이렇게 반응하는 기기가
    어땠는지 기억도 못할 겁니다.
  • 9:25 - 9:28
    기기앞에서 그저 찌푸리지만 않고
    "별로 안좋으신가봐요, 그렇죠?" 하는 겁니다.
  • 9:29 - 9:33
    가장 큰 과제는 이 기술에
    많은 응용이 있다는 것입니다.
  • 9:33 - 9:36
    저희 팀원들은 우리가 모든 것을
    만들 수 없다는 걸 깨달았습니다.
  • 9:36 - 9:41
    그래서 다른 개발자들이 함께
    이 기술을 사용할 수 있게 했습니다.
  • 9:41 - 9:48
    저희는 잠재적인 위험성과
    악용의 가능성이 있음을 압니다.
  • 9:48 - 9:51
    그러나 개인적으로 이 일에
    수년을 보낸 사람으로서
  • 9:51 - 9:55
    감정 지능 기술이 인류에게 줄 혜택이
  • 9:55 - 9:59
    악용의 가능성보다
    훨씬 크다고 믿습니다.
  • 9:59 - 10:02
    여러분이 이 대화의 부분으로
    참여하도록 초대했어요.
  • 10:02 - 10:04
    더 많은 사람들이 이 기술을 알수록
  • 10:04 - 10:08
    어떻게 사용되는지
    더 많은 의견을 들을 수 있어요.
  • 10:09 - 10:14
    점점 더 우리의 삶이 디지털화 되면서
  • 10:14 - 10:19
    우리 감정을 되찾고자 기기사용을 억제하는
    승산없는 싸움을 하고 있습니다.
  • 10:21 - 10:22
    대신에 제가 시도하는 것은
  • 10:22 - 10:25
    감정들을 기술로 가져오는 것이에요.
  • 10:25 - 10:27
    기술이 보다 반응할 수 있도록 만들죠.
  • 10:27 - 10:29
    우리를 갈라놓은 기계들이
  • 10:29 - 10:32
    우리를 재화합할 수 있게 하고 싶어요.
  • 10:32 - 10:34
    기술을 인간적이게 만들어서
  • 10:34 - 10:36
    우리는 최고의 기회를 얻었죠.
  • 10:36 - 10:40
    어떻게 우리가 기계들과
    소통하는지 재고하는 겁니다.
  • 10:40 - 10:46
    따라서 우리 인간이 다른 이들과
    소통하는 방법도 재고하는 겁니다.
  • 10:46 - 10:48
    감사합니다.
  • 10:48 - 10:51
    (박수)
Title:
이 응용프로그램은 당신의 기분을 알아요— 당신의 표정을 통해서요.
Speaker:
라나 엘 칼리오우비 (Rana el Kaliouby)
Description:

감정은 학습, 의사소통, 의사결정 방법 등 우리 삶의 모든 면에 영향을 줍니다. 그러나 디지털 세계에는 그런 것들이 부재합니다. 우리가 상호작용하는 장치나 응용프로그램은 우리가 어떤 것을 느끼는지 알 길이 없습니다. 과학자 라나 엘 칼리오우비는 그것을 바꾸는 목표를 가지고 있습니다. 그녀는 여러분의 얼굴의 표정을 읽고 상응하는 감정을 일치시키는 강력하고 새로운 기술을 보여줍니다. 이 "감정 엔진" 은 큰 의미을 가진다고 그녀는 말합니다. 그리고 우리가 기계들과 상호작용하는 방법을 바꿀 수 있다고 합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Korean subtitles

Revisions