WEBVTT 00:00:01.041 --> 00:00:04.175 안녕하세요. 코드의 시인, 조이입니다. 00:00:04.199 --> 00:00:06.776 저는 보이지 않는 힘이 일어나는 것을 00:00:06.776 --> 00:00:09.216 막기 위한 사명을 띠고 있어요. 00:00:09.216 --> 00:00:12.072 제가 '코드화된 시선'이라 부르는 힘인데요. 00:00:12.096 --> 00:00:15.405 다른 사람은 알고리즘의 편견이라 부르죠. NOTE Paragraph 00:00:15.429 --> 00:00:16.853 알고리즘의 편견은 인간의 편견처럼 불평등을 초래하지만 00:00:19.753 --> 00:00:22.549 알고리즘은 바이러스처럼 대규모의 편견을 빠른 속도로 퍼뜨릴 수 있어요. 00:00:27.943 --> 00:00:31.024 또한, 알고리즘의 편견은 자신이 배제되는 경험이나 00:00:31.024 --> 00:00:34.482 차별적인 대우로 이어질 수 있어요. 00:00:34.506 --> 00:00:36.567 자세히 설명해 드리죠. NOTE Paragraph 00:00:36.980 --> 00:00:40.156 (비디오) 안녕, 카메라야. 이게 내 얼굴이야. 00:00:40.156 --> 00:00:42.026 내 얼굴이 보이니? 00:00:42.051 --> 00:00:43.676 안경을 벗으면 보이니? 00:00:43.701 --> 00:00:45.915 이 친구의 얼굴은 보이잖아. 00:00:46.237 --> 00:00:48.482 내 얼굴은 보여? 00:00:51.890 --> 00:00:55.640 그럼 가면을 쓸게. 내 가면이 보이니? NOTE Paragraph 00:00:56.474 --> 00:00:59.269 이런 일이 왜 일어난 걸까요? 00:00:59.269 --> 00:01:02.004 제가 왜 컴퓨터 앞에 앉아서 00:01:02.028 --> 00:01:03.452 하얀 가면을 쓰고 00:01:03.476 --> 00:01:07.126 싸구려 웹캠에 인식이 되도록 노력하고 있을까요? 00:01:07.150 --> 00:01:09.035 제가 코드의 시인으로서 00:01:09.035 --> 00:01:11.105 '코드화된 시선'과 싸우기 전에 00:01:11.105 --> 00:01:14.281 저는 MIT 미디어랩의 대학원생이었어요. 00:01:14.305 --> 00:01:19.222 그곳에서 많은 기발한 프로젝트에 참여할 수 있었는데 00:01:19.246 --> 00:01:21.273 염원의 거울도 있었습니다. 00:01:21.297 --> 00:01:26.431 제가 참여한 프로젝트로, 거울에 비친 제 모습에 디지털 가면을 씌우는 것이죠. 00:01:26.455 --> 00:01:28.805 아침에 힘찬 느낌을 원하면 00:01:28.829 --> 00:01:30.403 사자 가면을 씌울 수 있고 00:01:30.403 --> 00:01:33.783 희망찬 느낌을 받고 싶다면 명언을 띄울 수 있었죠. 00:01:33.807 --> 00:01:36.796 저는 일반적인 얼굴 인식 소프트웨어를 사용하여 00:01:36.820 --> 00:01:38.171 시스템을 만들었지만 00:01:38.195 --> 00:01:40.762 제가 흰 가면을 쓰지 않으면 굉장히 테스트하기 어려웠어요. NOTE Paragraph 00:01:44.282 --> 00:01:45.942 불행하게도, 저는 전에도 이런 문제에 부딪힌 적이 있어요. 00:01:48.652 --> 00:01:49.979 제가 조지아 공대에서 컴퓨터 공학 전공생이었을 때 00:01:52.979 --> 00:01:55.034 저는 사회적 로봇을 연구했어요. 00:01:55.058 --> 00:01:56.528 과제들 중 하나는 까꿍놀이하는 로봇을 만들기였죠. 00:01:58.859 --> 00:02:00.542 간단한 순서 교대 게임으로, 00:02:00.566 --> 00:02:02.211 얼굴을 가렸다가 보이며 "까꿍!"이라고 말하는 게임이죠. 00:02:04.911 --> 00:02:09.340 문제는, 까꿍 놀이는 제가 여러분의 얼굴을 볼 수 있어야 하는데 00:02:09.364 --> 00:02:11.863 로봇이 저를 보지 못했어요. 00:02:11.887 --> 00:02:15.837 하지만 저는 룸메이트의 얼굴을 빌려서 프로젝트를 끝냈고 00:02:15.861 --> 00:02:17.241 과제를 제출한 다음 00:02:17.265 --> 00:02:21.018 다른 누군가가 이 문제를 해결하겠지 라고 생각했어요. NOTE Paragraph 00:02:21.669 --> 00:02:23.672 그로부터 오래 지나지 않아 00:02:23.696 --> 00:02:27.855 창업 대회 참가를 위해 홍콩에 갔어요. 00:02:28.339 --> 00:02:30.297 주최 측은 참여자들이 00:02:30.297 --> 00:02:33.429 그 지역의 스타트업 기업들을 방문하도록 했어요. 00:02:33.453 --> 00:02:36.168 한 스타트업에 사회적 로봇이 있었고 00:02:36.192 --> 00:02:38.104 시범을 보여주기로 했어요. 00:02:38.128 --> 00:02:41.108 로봇은 모두에게 잘 작동했죠. 저만 빼고요. 00:02:41.132 --> 00:02:43.055 아마 짐작하셨을 거예요. 00:02:43.079 --> 00:02:46.044 제 얼굴을 인식하지 못했어요. 00:02:46.068 --> 00:02:48.579 저는 개발자들에게 무슨 일이냐고 물었고 00:02:48.603 --> 00:02:54.136 제가 썼던 그 얼굴 인식 소프트웨어를 쓴 게 문제였어요. 00:02:54.160 --> 00:02:55.810 지구 반대편에서 00:02:55.834 --> 00:02:59.686 저는 알고리즘의 편견이 인터넷에서 파일을 다운로드받는 것처럼 00:02:59.710 --> 00:03:02.880 빠르게 퍼질 수 있다는 걸 알았어요. NOTE Paragraph 00:03:03.745 --> 00:03:05.045 어떻게 된 걸까요? 왜 제 얼굴은 인식되지 않죠? 00:03:06.845 --> 00:03:10.201 자, 우리가 어떻게 기계가 볼 수 있게 하는지 알아보세요. 00:03:10.225 --> 00:03:13.634 컴퓨터의 시야는 머신 러닝 기술을 사용해 00:03:13.658 --> 00:03:15.538 얼굴을 인식해요. 00:03:15.562 --> 00:03:19.459 우리는 여러 예시 얼굴들로 이루어진 연습 세트를 만들어 놓죠. 00:03:19.483 --> 00:03:22.301 이건 얼굴이다. 이건 얼굴이다. 이건 얼굴이 아니다. 00:03:22.325 --> 00:03:26.844 그리고 시간이 지나면, 컴퓨터에게 얼굴 인식을 가르칠 수 있어요. 00:03:26.868 --> 00:03:30.857 하지만, 연습 세트가 그렇게 다양하지 않다면 00:03:30.881 --> 00:03:34.230 규정된 표준에서 너무 벗어나는 얼굴들은 00:03:34.254 --> 00:03:35.903 인식하기 어려울 거예요. 00:03:35.927 --> 00:03:37.890 저한테 일어났던 일과 같죠. NOTE Paragraph 00:03:37.914 --> 00:03:40.296 하지만 걱정하지 마세요. 좋은 소식도 있어요. 00:03:40.320 --> 00:03:43.091 연습 세트는 하늘에서 뚝 떨어지지 않아요. 00:03:43.115 --> 00:03:44.903 우리가 직접 만들 수 있죠. 00:03:44.927 --> 00:03:49.103 따라서 전 영역을 아울러 다양한 인류의 얼굴을 반영하는 00:03:49.127 --> 00:03:52.951 연습 세트를 만들 기회가 있어요. NOTE Paragraph 00:03:52.975 --> 00:03:55.196 여러분은 방금 00:03:55.220 --> 00:03:57.558 사회적 로봇이 어떤지 00:03:57.558 --> 00:03:59.568 제가 어떻게 알고리즘의 편견에 의한 배제에 대해 알게되었는지 보셨어요. 00:04:01.647 --> 00:04:04.317 하지만 알고리즘의 편견은 차별적 관행으로 이어질 수도 있습니다. 00:04:07.437 --> 00:04:08.890 미국 전역에서 00:04:08.914 --> 00:04:13.112 경찰서들이 범죄 근절의 무기로 00:04:13.136 --> 00:04:15.595 얼굴 인식 소프트웨어를 사용하기 시작했어요. 00:04:15.619 --> 00:04:17.632 조지타운대 법학센터에 따르면 00:04:17.656 --> 00:04:21.443 총 1억1천7백만명에 달하는 미국 성인 둘 중 한 명의 얼굴이 00:04:24.443 --> 00:04:27.977 얼굴 인식 네트워크에 올려져 있어요. 00:04:28.001 --> 00:04:30.407 경찰은 현재 이 네트워크를 제한 없이 살펴볼 수 있어요. 00:04:32.577 --> 00:04:36.863 정확성이 검증되지 않은 알고리즘을 사용하면서요. 00:04:36.887 --> 00:04:40.751 우리는 얼굴 인식이 잘못될 수 있다는 것을 알고 있고 00:04:40.775 --> 00:04:44.954 얼굴을 일관되게 표시하는 것은 과제로 남아있어요. 00:04:44.978 --> 00:04:46.740 아마 페이스북에서 보셨을 거예요. 00:04:46.764 --> 00:04:49.752 저와 제 친구들은 다른 사람의 이름이 00:04:49.776 --> 00:04:52.234 우리 사진에 표시된 것을 보고 매번 웃어요. 00:04:52.258 --> 00:04:55.883 하지만 범죄 용의자를 잘못 파악하는 것은 00:04:55.883 --> 00:05:00.700 웃을 일이 아니며 시민의 자유를 침해하죠. NOTE Paragraph 00:05:00.724 --> 00:05:03.929 머신러닝은 현재 얼굴인식에 사용되지만 00:05:03.953 --> 00:05:08.458 컴퓨터 시각을 넘어선 곳까지 확장되고 있어요. 00:05:09.266 --> 00:05:13.282 '대량살상무기 (WMD)'라는 책에서 00:05:13.306 --> 00:05:17.011 데이터 과학자 캐시 오닐은 새로운 대량살상무기에 대해서 말해요. 00:05:20.011 --> 00:05:24.364 널리 퍼진, 알 수 없는 파괴적인 알고리즘이죠. 00:05:24.388 --> 00:05:27.352 이들은 우리 삶에 큰 영향을 미치는 선택에 00:05:27.376 --> 00:05:30.113 점점 많이 사용되고 있어요. 00:05:30.577 --> 00:05:32.447 누가 고용되고 누가 해고되는가? 00:05:32.471 --> 00:05:34.583 빚을 질까? 보험에 가입할까? 00:05:34.607 --> 00:05:38.110 원하는 대학에 합격하는가? 00:05:38.134 --> 00:05:41.643 여러분과 당신이 같은 상품에 대해서 00:05:41.667 --> 00:05:44.109 같은 가격을 지불하는가? NOTE Paragraph 00:05:44.133 --> 00:05:47.892 법 집행에서도 예방적 치안을 위해 00:05:47.916 --> 00:05:50.205 머신 러닝 사용을 시작했어요. 00:05:50.229 --> 00:05:53.723 몇몇 판사들은 기계가 만든 위험 점수를 사용하여 00:05:53.747 --> 00:05:57.883 사람들의 형량을 결정하기도 해요. 00:05:57.883 --> 00:06:00.627 그래서 우린 이런 선택에 대해 생각해 봐야 해요. 00:06:00.651 --> 00:06:01.833 이 선택이 공정한가? 00:06:01.857 --> 00:06:04.747 게다가 우리는 알고리즘의 선택이 00:06:04.771 --> 00:06:08.145 매번 공정하지는 않다는 걸 봤어요. NOTE Paragraph 00:06:08.169 --> 00:06:10.133 그럼 어떻게 해야 할까요? 00:06:10.157 --> 00:06:13.837 우리는 포괄적인 코드를 만들고 00:06:13.861 --> 00:06:16.851 포괄적인 코딩 선례를 도입해야 해요. 00:06:16.875 --> 00:06:19.184 이것은 사람들로부터 시작됩니다. 00:06:19.188 --> 00:06:21.669 따라서, 누가 코딩을 하는지가 중요하죠. 00:06:21.693 --> 00:06:24.756 우리는 지금 다양한 개인들로 이루어져 00:06:24.756 --> 00:06:28.247 서로의 맹점을 볼 수 있는 팀을 만들고 있나요? 00:06:28.271 --> 00:06:31.816 기술적인 면에서 우리가 어떻게 코딩을 하는지가 중요해요. 00:06:31.840 --> 00:06:35.491 지금 우리는 시스템을 개발하면서 공정함을 염두에 두고 있나요? 00:06:35.515 --> 00:06:38.428 마지막으로, 우리가 왜 코딩을 하는지가 중요해요. 00:06:38.785 --> 00:06:43.868 우리는 엄청난 부를 위하여 컴퓨터를 도구로 사용했어요. 00:06:43.892 --> 00:06:48.339 이제 우리에겐 더 큰 평등을 얻을 기회가 있어요. 00:06:48.363 --> 00:06:51.293 우리가 사회적 변화를 미루지 않고 00:06:51.317 --> 00:06:53.487 우선순위에 둔다면요. 00:06:54.008 --> 00:06:58.530 이 세 가지 요소가 '인코딩' 운동을 구성합니다. 00:06:58.554 --> 00:07:00.206 누가 코딩을 하는지 00:07:00.230 --> 00:07:01.773 어떻게 코딩을 하는지 00:07:01.797 --> 00:07:03.820 왜 코딩을 하는지가 중요해요. NOTE Paragraph 00:07:03.844 --> 00:07:05.364 그리고 인코딩을 향해 가며 우리는 편견을 분별하는 플랫폼을 00:07:07.707 --> 00:07:10.131 구축할 수 있어요. 00:07:10.155 --> 00:07:13.233 제가 공유한 것과 같은 다른 사람들의 경험을 모으고 00:07:13.257 --> 00:07:16.327 현존하는 소프트웨어를 검사하면서 말이죠. 00:07:16.351 --> 00:07:18.431 우리는 또한 더욱 포용적인 연습 세트를 만들기 시작할 수 있어요. 00:07:20.140 --> 00:07:22.943 "포괄적인 셀카" 캠페인을 상상해 보세요. 00:07:22.967 --> 00:07:26.622 여러분과 제가 더욱 포용적인 연습 세트를 만드는 데 00:07:26.646 --> 00:07:29.099 셀카를 보내면서 도움을 줄 수 있는 거예요. 00:07:29.302 --> 00:07:33.000 그리고 우리가 개발하는 기술의 사회적 영향에 대해 00:07:33.000 --> 00:07:36.885 보다 양심적으로 생각할 수 있어요. NOTE Paragraph 00:07:37.569 --> 00:07:39.962 인코딩 운동을 시작하기 위해서 00:07:39.986 --> 00:07:42.833 저는 알고리즘 정의 연합을 창설했어요. 00:07:42.857 --> 00:07:45.753 공정함을 중요시 여기는 사람 누구든 '코딩된 시선'에 맞서 싸우는 걸 도와줍니다. 00:07:48.643 --> 00:07:49.963 codedgaze.com에서 편견을 보고하거나 00:07:51.453 --> 00:07:53.033 검사를 요청하거나 테스터가 될 수 있으며 00:07:54.542 --> 00:07:57.313 진행되는 대화에 참여할 수도 있어요. 00:07:57.337 --> 00:07:59.624 해시태그 codedgaze입니다. NOTE Paragraph 00:08:00.742 --> 00:08:03.229 그래서 저는 여러분이 저와 함께 00:08:03.253 --> 00:08:05.996 기술이 일부만이 아닌 00:08:05.996 --> 00:08:08.893 모두를 위해 쓰이는 세상을 00:08:08.917 --> 00:08:11.439 포용성을 중요시여기고 사회적 변화를 중시하는 세상을 만드는데 동참하셨으면 합니다. NOTE Paragraph 00:08:13.529 --> 00:08:14.704 감사합니다. NOTE Paragraph 00:08:14.728 --> 00:08:18.999 (박수) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 하지만 여러분에게 질문이 하나 있어요. 00:08:23.751 --> 00:08:25.810 여러분은 이 싸움에 동참하실 건가요? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (웃음) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (박수)