0:00:00.556,0:00:04.573 우리의 감정들은 [br]삶의 모든 면에 영향을 줍니다, 0:00:04.573,0:00:08.149 우리의 건강과 학습부터[br]사업의 방식과 의사결정까지요. 0:00:08.149,0:00:09.922 큰 일이든 작은 일이든지요. 0:00:10.672,0:00:14.162 또한 감정은 우리가 서로를 어떻게 [br]연결시키는지 영향을 주죠. 0:00:15.132,0:00:19.108 우리는 이런 세상에서 [br]살기위해 진화해왔죠. 0:00:19.108,0:00:23.027 그러나 대신에 우리는 점점 더[br]이런 삶 속에 살고 있습니다. 0:00:23.027,0:00:26.561 어젯밤 제 딸의 문자 메세지입니다. 0:00:26.561,0:00:29.301 감정이 결여된 세상이죠. 0:00:29.301,0:00:31.252 저는 그것을 바꾸는 과제에 착수했어요. 0:00:31.252,0:00:35.343 감정을 디지털 공간의 [br]경험안에 도입시키고 싶었죠. 0:00:36.223,0:00:38.900 전 이걸 15년 전에 시작했어요. 0:00:38.900,0:00:41.366 저는 이집트에서 컴퓨터 공학자였고 0:00:41.366,0:00:45.871 막 캠브리지의 박사 학위 [br]과정에 입학했었습니다. 0:00:45.871,0:00:47.984 그래서 저는 좀 다른 것을 했습니다. 0:00:47.984,0:00:52.209 어린 신혼의 무슬림 [br]이집트 부인으로서요. 0:00:53.599,0:00:56.598 이집트에 남아야했던 남편의 지원 덕분에 0:00:56.598,0:00:59.616 저는 짐을 꾸려 영국으로 갔습니다. 0:00:59.616,0:01:02.844 고향에서 수천 마일 떨어진 캠브리지에서 0:01:02.844,0:01:08.377 사람들과 지내는 시간보다 많은 시간을 [br]노트북과 보내고 있음을 알았습니다. 0:01:08.377,0:01:13.339 이런 친밀성에도 불구하고[br]제 노트북은 저의 감정을 알 수 없었죠. 0:01:13.339,0:01:17.260 이것은 제가 행복한지, 기분이 안 좋은지, 0:01:17.260,0:01:20.118 스트레스를 받는지, 혼란스러운지 [br]알지 못했습니다. 0:01:20.118,0:01:22.460 그게 답답했어요. 0:01:23.600,0:01:28.441 더 안 좋은 상황은 온라인상으로 [br]고향 가족들과 대화할 때 0:01:29.421,0:01:32.703 제 모든 감정들이 사이버 공간에서 [br]사라진다고 느껴졌어요. 0:01:32.703,0:01:34.878 저는 향수병을 앓았고, 외로웠으며,[br] 0:01:34.878,0:01:37.858 그리고 어떤날은 정말로 울었죠. 0:01:37.858,0:01:40.516 그러나 제가 표현할 수 있는 방법은 0:01:41.586,0:01:42.786 이것뿐이었습니다. 0:01:42.786,0:01:44.806 (웃음) 0:01:44.806,0:01:47.670 오늘날의 기술은 높은 I.Q를 [br]가지고 있습니다. 0:01:47.670,0:01:48.980 그러나 E.Q는 없어요. 0:01:48.980,0:01:52.956 인지 지능이 있으나 감성 지능은 없죠. 0:01:52.956,0:01:55.153 그래서 생각하게 됐습니다. 0:01:55.153,0:01:58.777 기술이 우리의 감정을 느낀다면 어떨까? 0:01:58.777,0:02:02.853 장비들이 우리의 감정을 느끼고 [br]그에 따라 반응한다면 어떨까? 0:02:02.853,0:02:05.866 감수성이 있는 친구가 [br]반응하듯이 말이죠. 0:02:06.806,0:02:10.816 이런 의문들 때문에 저와 동료들이 0:02:10.816,0:02:14.607 감정을 읽고 반응하는 [br]기술을 만들었습니다. 0:02:14.607,0:02:17.697 우리의 시작점은 인간의 얼굴이었죠. 0:02:18.577,0:02:21.750 인간의 얼굴은 하나의 강력한 경로인데 0:02:21.750,0:02:25.956 사회적, 감정적 상태의 [br]소통을 위해 모두가 사용하죠. 0:02:25.956,0:02:33.006 즐거움, 놀람, 공감과 [br]호기심같은 감정들입니다. 0:02:33.006,0:02:37.939 감정 과학에서 각 얼굴 근육의 움직임을 [br]활동 단위라고 합니다. 0:02:37.939,0:02:40.832 예를들어, 활동 단위 12번은 0:02:40.832,0:02:42.870 이건 헐리우드 대작이 아니예요. 0:02:42.870,0:02:46.312 입술의 가장자리를 당기는 것입니다.[br]웃음의 주요 구성 부분이죠. 0:02:46.312,0:02:48.622 모두 시도해보세요. 웃어 보세요. 0:02:48.622,0:02:52.141 다른 예로 활동 단위 4번은 [br]눈썹을 찡그리는 것입니다. 0:02:52.141,0:02:55.892 당신이 두 눈썹을 함께 모을 때[br]이런 느낌과 주름살이 생깁니다. 0:02:55.892,0:02:57.505 우리가 별로 좋아하지 않죠. 0:02:57.505,0:03:00.754 그건 부정적 감정의 강한 지표입니다. 0:03:00.754,0:03:02.960 약 45개의 활동 단위가 있어요. 0:03:02.960,0:03:06.350 조합해서 수백개의 감정표현이 생깁니다. 0:03:06.350,0:03:10.262 이런 표정을 읽도록 컴퓨터를 [br]가르치는 것은 힘듭니다. 0:03:10.262,0:03:13.281 활동 단위들은 빠를 수도 있고, [br]미묘할 수 도 있으며 0:03:13.281,0:03:15.777 수 많은 방법으로 조합되기 때문입니다. 0:03:15.777,0:03:19.515 예로 웃음과 억지웃음을 들어봅시다. 0:03:19.515,0:03:21.480 그것들은 다소 비슷해 보이죠. 0:03:21.480,0:03:23.268 그러나 매우 의미가 다릅니다. 0:03:23.268,0:03:24.986 (웃음) 0:03:24.986,0:03:27.430 웃음은 긍정적이고, 0:03:27.430,0:03:29.260 억지웃음은 보통은 부정적입니다. 0:03:29.260,0:03:33.136 가끔 억지웃음으로 [br]유명해질 수 있어요. 0:03:33.136,0:03:38.435 농담이 아니라 컴퓨터가 두 표정의 차이를 [br]구별하는 것은 중요합니다. 0:03:38.435,0:03:40.627 그래서 저희는 어떻게 했을까요? 0:03:40.627,0:03:42.414 저희는 컴퓨터 알고리즘에 0:03:42.414,0:03:46.524 십만개의 웃는 사람들 [br]예시를 입력했습니다. 0:03:46.524,0:03:49.589 인종, 나이, 성별이 다양합니다. 0:03:49.589,0:03:52.080 억지웃음도 그렇게 했습니다. 0:03:52.080,0:03:53.954 딥 러닝 인공지능을 사용해서 0:03:53.954,0:03:59.460 알고리즘이 느낌과 주름살, [br]얼굴의 형태 변화를 찾습니다. 0:03:59.460,0:04:02.620 모든 웃는 얼굴에 공통적 특징이 [br]있다는 것을 학습하게 됩니다. 0:04:02.620,0:04:05.773 모든 억지웃음은 미묘하게 [br]다른 특징을 가지고 있어요. 0:04:05.773,0:04:08.141 그리고나서 이것은 [br]새로운 얼굴을 관찰합니다. 0:04:08.141,0:04:13.500 이 얼굴이 웃음과 같은 [br]특징을 가진다는 것을 알고 0:04:13.500,0:04:17.331 말합니다."아하, 알겠습니다. [br]이건 웃는 표정입니다." 0:04:18.381,0:04:21.181 이 기술이 어떻게 작동하는지[br]보여주는 가장 좋은 방법은 0:04:21.181,0:04:23.317 실제 시연을 시도하는 것이죠. 0:04:23.317,0:04:24.688 저는 지원자 한 분이 필요해요. 0:04:24.688,0:04:27.230 얼굴을 가진 분을 선호합니다. 0:04:27.230,0:04:29.564 (웃음) 0:04:29.564,0:04:32.335 클로이가 오늘 지원해줄 겁니다. 0:04:33.325,0:04:34.783 지난 5년 동안, [br] 0:04:34.783,0:04:38.943 우리는 MIT에서 연구로 시작해 [br]한 회사를 설립했습니다. 0:04:38.943,0:04:42.131 저희 팀이 이 기술을 [br]실현하려고 노력하는 곳이죠. 0:04:42.131,0:04:44.540 저희는 야생의 상태라고 불러요. 0:04:44.540,0:04:46.350 그리고 우리는 기술을 소형화해서 0:04:46.350,0:04:50.560 핵심 감정 엔진이 아이패드처럼 카메라달린 [br]이동식 장치에도 쓸 수 있게 했습니다. 0:04:50.560,0:04:53.316 자, 시도해봅시다. 0:04:54.756,0:04:55.756 여러분이 보듯이, 0:04:55.756,0:04:58.680 이것은 클로이의 얼굴을 [br]감지하고 있습니다. 0:04:58.680,0:05:00.372 여기 하얀 테두리가 있죠. 0:05:00.372,0:05:02.943 이것은 그녀의 얼굴의 [br]눈썹, 눈, 입과 코와 같은 0:05:02.943,0:05:05.799 주요 특정 부분을 추적하고 있습니다. 0:05:05.799,0:05:08.786 궁금한것은 이게 그녀의 표정을 [br]인식할 수 있을까요? 0:05:08.786,0:05:10.457 그래서 이 기계를 시험해볼거예요. 0:05:10.457,0:05:14.673 먼저 무표정을 해주세요. [br]좋아요, 멋지네요. (웃음) 0:05:14.673,0:05:17.449 순수한 웃음이죠, 멋져요. 0:05:17.449,0:05:19.782 웃을 때 녹색 막대가 [br]증가하는 것을 볼 수 있죠. 0:05:19.782,0:05:22.587 함박웃음이었어요.[br]미묘한 웃음을 해보시겠어요? 0:05:22.587,0:05:24.961 컴퓨터가 인식하는지 보려고요.[br]미묘한 웃음도 인식합니다. 0:05:24.961,0:05:27.391 이것을 만들려고 정말 노력했어요. 0:05:27.391,0:05:31.453 눈썹이 올라가면 놀람의 표시이죠. 0:05:31.453,0:05:35.688 이마의 주름살은 혼란의 표시입니다. 0:05:35.688,0:05:37.449 찡그려주세요. 0:05:37.449,0:05:39.695 네, 완벽하네요. 0:05:39.695,0:05:42.775 이것은 각각 다른 활동단위이고[br]더 많이 있습니다. 0:05:42.778,0:05:45.250 이건 몇가지만 보여드린 겁니다. 0:05:45.250,0:05:48.009 저희는 각각의 인식을 [br]감정 정보점이라고 합니다. 0:05:48.009,0:05:51.339 이것이 함께 여러가지 [br]감정을 나타나게 합니다. 0:05:51.339,0:05:55.460 오른쪽에는 당신이 행복해 보입니다. 0:05:55.460,0:05:57.444 이것은 기쁨입니다.[br]기쁨 기능이 작동하죠. 0:05:57.444,0:05:59.851 혐오하는 표정을 지어주세요. 0:05:59.851,0:06:03.643 자인이 One Direction을 [br]탈퇴했다고 생각해보세요. 0:06:03.643,0:06:04.936 (웃음) 0:06:04.936,0:06:08.486 네, 코에 주름을 잡아보세요. 좋아요. 0:06:09.495,0:06:13.570 유의성이 부정적이네요,[br]그러니까 진짜 팬이었나보네요. 0:06:13.570,0:06:15.926 유의성은 한 경험이 얼마나[br]긍정적 또는 부정적인지 나타냅니다. 0:06:15.926,0:06:18.712 참여도는 얼마나 표현력이 [br]있느냐를 보여줍니다. 0:06:18.712,0:06:22.126 클로이가 실시간 감정 변화에 [br]접근할 수 있다고 상상해 보세요. 0:06:22.126,0:06:24.936 그녀는 이것을 원하는 사람과 [br]공유할 수 있겠죠. 0:06:24.936,0:06:26.508 감사합니다. 0:06:26.508,0:06:32.479 (박수) 0:06:33.749,0:06:39.040 지금까지 120억개의 [br]감정 정보점을 수집했습니다. 0:06:39.040,0:06:41.460 세상에서 가장 큰 감정 데이터베이스죠. 0:06:41.460,0:06:44.593 2,900만개의 [br]얼굴 영상에서 모았습니다. 0:06:44.593,0:06:47.193 감정 공유에 동의한 분들이고 0:06:47.193,0:06:50.398 세계의 75개국에서 모았습니다. 0:06:50.398,0:06:52.113 이것은 매일 늘어나고 있습니다. 0:06:52.603,0:06:54.670 저는 이것이 놀랍습니다. 0:06:54.670,0:06:57.884 지금 우리는 감정과 같은[br]개인적인 것을 수량화 할 수 있는거죠. 0:06:57.884,0:07:00.100 그리고 이런 규모로 할 수 있습니다. 0:07:00.100,0:07:02.277 최근까지 연구한 것은 무엇일까요? 0:07:03.057,0:07:05.388 성별입니다. 0:07:05.388,0:07:09.068 저희 정보가 여러분이 [br]설마하는 것을 확인시켜 줄 겁니다. 0:07:09.068,0:07:10.891 여자가 남자보다 표현력이 있습니다. 0:07:10.891,0:07:13.574 더 많이 웃고 더 오래 웃어요. 0:07:13.574,0:07:15.794 우리는 수량화할 수 있어요. 0:07:15.794,0:07:18.614 여성과 남성이 다르게 반응하는 것을요. 0:07:18.614,0:07:24.169 문화적으로는 미국에서 여성들이 [br]남성보다 40% 더 표현력이 좋아요. 0:07:24.169,0:07:27.748 그런데 신기하게도 [br]영국에서는 차이가 없네요. 0:07:27.753,0:07:30.259 (웃음) 0:07:31.296,0:07:33.220 나이는요. 0:07:33.220,0:07:38.453 50대 혹은 그 이상의 사람들이[br]젊은 사람들보다 25% 더 감정적입니다. 0:07:39.469,0:07:43.815 20대 여성들은 또래 남성보다 [br]25% 더 많이 웃습니다. 0:07:43.815,0:07:47.548 아마 데이트를 위해 필요한 것이겠죠. 0:07:47.548,0:07:50.207 하지만 이 자료에서 놀라운 점은 0:07:50.207,0:07:53.410 우리가 언제나 표현력이 [br]있다는 것입니다. 0:07:53.410,0:07:56.243 혼자 기계 앞에 앉아 있을때도요. 0:07:56.243,0:07:59.847 페이스북의 고양이 영상을 [br]볼 때 뿐만 아니라 0:07:59.847,0:08:03.227 메일을 보낼 때, 문자를 할 때, [br]그리고 온라인 쇼핑을 하거나 0:08:03.227,0:08:05.527 심지어 세금을 지불할 때도 표현합니다. 0:08:05.527,0:08:07.919 오늘날 이 자료가 어디에 사용될까요? 0:08:07.919,0:08:10.682 우리가 매체와 소통하는 방법과 0:08:10.682,0:08:13.166 대박영상 특징이나 [br]투표 성향을 이해하고 0:08:13.166,0:08:16.544 그리고 자율권을 주거나 [br]감정 기능 기술을 이해하는 겁니다. 0:08:16.544,0:08:20.030 제 마음에 가장 와닿는 [br]예를 보여드리고 싶습니다. 0:08:21.197,0:08:24.265 이 감정 기능 안경은 [br]사람들을 돕습니다. 0:08:24.265,0:08:27.522 시각기능이 약화된 사람들이[br]다른 이들의 감정을 읽게 해줍니다. 0:08:27.522,0:08:31.690 또한 자폐증이 있는 사람이 [br]감정을 해석하게 해줍니다. 0:08:31.690,0:08:34.458 정말로 힘들어 하는 것이지요. 0:08:35.558,0:08:41.578 교육에서 학습프로그램이 당신이 [br]혼란스럽고 지쳐간다는 것을 감지하거나 0:08:41.587,0:08:43.444 또는 지루하거나, 흥분하는 것을 [br]감지하는 걸 상상해 보세요. 0:08:43.444,0:08:46.413 교실에서 정말 좋은 선생님이 [br]그러는 것처럼요. 0:08:47.043,0:08:49.644 손목시계가 감정을 감지한다면 어떨까요. 0:08:49.644,0:08:52.337 자동차가 여러분이 [br]피곤하다는 것을 안다면요. 0:08:52.337,0:08:54.885 아니면 냉장고가 당신이 [br]스트레스를 받았다는 것을 알아서 0:08:54.885,0:08:59.397 냉장고가 자동으로 잠궈서 [br]폭식을 막아 준다면요. (웃음) 0:08:59.403,0:09:01.471 전 좋을거 같아요. 0:09:03.643,0:09:05.804 제가 캠프리지에 있었을때, 0:09:05.804,0:09:07.468 이 실시간 감정 흐름에 [br]접근할 수 있었다면 어땠을까요. 0:09:07.468,0:09:09.602 고향에 가족과 공유할 수 있었을겁니다. 0:09:09.602,0:09:14.707 매우 자연스럽게 [br]모두 같은 방에 있는 것처럼요. 0:09:15.692,0:09:18.550 제 생각에 5년 후에는 0:09:18.550,0:09:20.887 모든 기계들이 감정칩을 가질겁니다. 0:09:20.887,0:09:25.303 이렇게 반응하는 기기가 [br]어땠는지 기억도 못할 겁니다. 0:09:25.303,0:09:28.437 기기앞에서 그저 찌푸리지만 않고[br]"별로 안좋으신가봐요, 그렇죠?" 하는 겁니다. 0:09:29.200,0:09:32.961 가장 큰 과제는 이 기술에 [br]많은 응용이 있다는 것입니다. 0:09:32.961,0:09:36.269 저희 팀원들은 우리가 모든 것을 [br]만들 수 없다는 걸 깨달았습니다. 0:09:36.269,0:09:41.490 그래서 다른 개발자들이 함께[br]이 기술을 사용할 수 있게 했습니다. 0:09:41.490,0:09:47.650 저희는 잠재적인 위험성과 [br]악용의 가능성이 있음을 압니다. 0:09:47.650,0:09:50.827 그러나 개인적으로 이 일에 [br]수년을 보낸 사람으로서 0:09:50.827,0:09:55.463 감정 지능 기술이 인류에게 줄 혜택이 0:09:55.463,0:09:58.759 악용의 가능성보다 [br]훨씬 크다고 믿습니다. 0:09:59.399,0:10:01.930 여러분이 이 대화의 부분으로 [br]참여하도록 초대했어요. 0:10:01.930,0:10:04.484 더 많은 사람들이 이 기술을 알수록 0:10:04.484,0:10:08.231 어떻게 사용되는지 [br]더 많은 의견을 들을 수 있어요. 0:10:09.081,0:10:13.655 점점 더 우리의 삶이 디지털화 되면서 0:10:13.655,0:10:19.002 우리 감정을 되찾고자 기기사용을 억제하는 [br]승산없는 싸움을 하고 있습니다. 0:10:20.622,0:10:22.000 대신에 제가 시도하는 것은 0:10:22.000,0:10:24.536 감정들을 기술로 가져오는 것이에요. 0:10:24.536,0:10:26.765 기술이 보다 반응할 수 있도록 만들죠. 0:10:26.765,0:10:29.435 우리를 갈라놓은 기계들이 0:10:29.435,0:10:31.897 우리를 재화합할 수 있게 하고 싶어요. 0:10:31.897,0:10:33.790 기술을 인간적이게 만들어서 0:10:33.790,0:10:36.485 우리는 최고의 기회를 얻었죠. 0:10:36.485,0:10:39.763 어떻게 우리가 기계들과 [br]소통하는지 재고하는 겁니다. 0:10:39.763,0:10:46.173 따라서 우리 인간이 다른 이들과 [br]소통하는 방법도 재고하는 겁니다. 0:10:46.173,0:10:47.654 감사합니다. 0:10:47.654,0:10:50.604 (박수)