0:00:00.975,0:00:02.571 알고리즘은 어디나 있죠. 0:00:04.111,0:00:07.236 그걸로 승자와 패자가 갈리고 나뉘어 0:00:08.019,0:00:09.784 승자는 직장을 구하거나 0:00:10.354,0:00:12.074 신용카드 조건도 좋아지지만 0:00:12.074,0:00:14.725 패자는 면접기회조차 없거나 0:00:15.590,0:00:17.367 보험료도 더 부담하죠. 0:00:18.197,0:00:21.746 이해도 못하는 은밀한 공식으로[br]점수 매겨지지만 0:00:22.675,0:00:25.892 보통은 거기에 이견을 제시할[br]기회조차 없습니다. 0:00:27.240,0:00:28.536 이러면 질문이 생깁니다: 0:00:28.560,0:00:31.413 알고리즘이 잘못됐다면[br]어떤 일이 발생할까요? 0:00:33.100,0:00:35.140 알고리즘 개발엔[br]두 가지가 필요합니다. 0:00:35.164,0:00:37.145 과거에 있었던 일에 대한 자료와 0:00:37.169,0:00:38.444 우리가 찾고 종종 원하는 0:00:38.444,0:00:40.661 성공이란 것에 대한 정의죠. 0:00:41.235,0:00:46.272 저희는 이걸 들여다보고 분석해서 [br]알고리듬을 훈련시킵니다 0:00:46.296,0:00:49.715 알고리즘은 성공과 관련된 게[br]뭔지 알아내죠. 0:00:49.739,0:00:52.202 어떤 상황이면 성공하게 될까요? 0:00:52.881,0:00:54.643 실제 우리 모두는[br]알고리즘을 사용합니다. 0:00:54.667,0:00:57.385 그저 이걸 코드로 형식화하지[br]않았을 뿐인데 0:00:57.409,0:00:58.241 예를 들어 볼게요. 0:00:58.241,0:01:01.367 저는 매일 가족들의 식사를[br]준비할 때 알고리즘을 이용합니다. 0:01:02.121,0:01:03.597 제가 이용하는 자료는 0:01:04.394,0:01:06.027 주방에 있는 재료 0:01:06.027,0:01:07.604 제게 주어진 시간 0:01:07.628,0:01:08.941 하고 싶은 요리 등으로 0:01:08.948,0:01:10.113 제가 직접 관리하는 것들이죠. 0:01:10.623,0:01:14.473 개인적으로 저는 라면같은 즉석 식품은[br]요리로 치지 않습니다. 0:01:14.893,0:01:16.762 (웃음) 0:01:16.786,0:01:18.631 제가 정의하는 성공은 이겁니다. 0:01:18.655,0:01:21.404 아이들이 채소를 먹는다면[br]성공한 식사가 되는 건데 0:01:22.181,0:01:25.555 제 막내 아들이 차렸다면 생각했을[br]성공과는 아주 다르죠. 0:01:25.555,0:01:27.627 막내는 누텔라 초코잼만 듬뿍 먹어도[br]성공이라 했을 테니까요. 0:01:29.179,0:01:31.405 하지만 성공은[br]제가 선택하는 겁니다. 0:01:31.429,0:01:34.136 제가 차리는 거니까요.[br]제 의견이 중요한 거죠. 0:01:34.160,0:01:36.835 이것이 알고리즘의[br]첫 번째 규칙입니다. 0:01:36.859,0:01:40.039 알고리즘이란 코드에 담긴[br]의견입니다. 0:01:41.562,0:01:45.145 여러분과 대부분의 사람들이 생각하는 [br]알고리즘과는 매우 다르죠. 0:01:45.165,0:01:49.669 사람들은 알고리즘이 객관적이며[br]사실이고 과학적이라고 생각하지만 0:01:50.387,0:01:52.086 이건 마케팅 상술일 뿐입니다. 0:01:53.269,0:01:55.394 이것은 또한 그 알고리즘으로 0:01:55.418,0:01:58.572 여러분을 위협하고 여러분이 알고리즘을 0:01:58.596,0:02:02.257 신뢰하고 두려워하게 만들려는[br]마케팅 상술인데 0:02:02.281,0:02:04.299 왜냐하면 여러분들이 수학을 믿고[br]두려워하니까요. 0:02:05.567,0:02:10.397 빅 데이터를 맹신하면[br]많은 것이 잘못될 수 있습니다. 0:02:11.684,0:02:15.057 이분은 브룩클린의 어느 고등학교 [br]교장인 키리 소어스 씨인데 0:02:15.081,0:02:18.637 2011년에 저에게 [br]교사들의 인사 고과 평가에 [br] 0:02:18.691,0:02:20.418 복잡하고 비밀스런 알고리즘인 0:02:20.442,0:02:22.111 "가치-부가 모델"을 쓴다고 했죠. 0:02:22.505,0:02:24.936 제가 그랬죠. "음, 공식이 뭔지[br]파악하고 보여주세요. 0:02:24.936,0:02:26.097 제가 설명해 드릴게요." 0:02:27.001,0:02:28.753 그랬더니[br]"음, 공식을 구하려고 했지만 0:02:28.766,0:02:31.954 교육부 담당자가 그러는데 그건 수학이라 0:02:31.958,0:02:33.418 제가 봐도 모를 겁니다"라고 했대요. 0:02:35.382,0:02:36.325 설상가상인 건 0:02:36.625,0:02:40.134 뉴욕포스트지에서 정보자유법에 따라[br]정보공개를 신청한 후 0:02:40.134,0:02:42.728 모든 선생님의 이름과 점수를 입수해서 0:02:42.728,0:02:45.701 일종의 선생님 망신 주기로[br]기사화 했어요. 0:02:46.931,0:02:50.437 제가 같은 방법으로 이 공식과[br]소스코드를 찾으려고 했더니 0:02:50.849,0:02:52.845 허가할 수 없다고 하더라고요. 0:02:53.129,0:02:53.999 거부 당한 겁니다. 0:02:53.999,0:02:55.053 그 후 알게된 건데 0:02:55.377,0:02:58.282 뉴욕의 어느 누구도 그 공식은[br]접근할 수 없었어요. 0:02:58.472,0:02:59.552 아는 사람도 없었죠. 0:03:02.032,0:03:04.477 그러다 게리 루빈스타인이라는 아주[br]똑똑한 사람이 여기 관여하게 됩니다. 0:03:05.017,0:03:08.480 그가 뉴욕 포스트 자료에서[br]665명의 선생님을 찾아내 봤더니 0:03:08.480,0:03:10.272 점수가 두 가지였어요. 0:03:10.792,0:03:12.994 한 분이 7학년 수학과 8학년 수학을 0:03:12.994,0:03:14.483 함께 가르치면 생기는 일입니다. 0:03:15.097,0:03:16.482 게리가 이걸로 그림을 그려봤어요. 0:03:16.482,0:03:18.509 점 하나 하나가 선생님 한 분입니다. 0:03:19.133,0:03:21.363 (웃음) 0:03:21.563,0:03:22.729 저건 뭡니까? 0:03:22.729,0:03:24.483 (웃음) 0:03:24.483,0:03:27.549 개인 인사 고과에 정말 이용하지 [br]말았어야 할 프로그램이었던 겁니다. 0:03:27.549,0:03:29.508 거의 난수 생성기네요. 0:03:29.508,0:03:32.654 (박수) 0:03:32.654,0:03:33.507 하지만 실제로 활용됐습니다. 0:03:33.507,0:03:34.560 이분은 사라 와이사키 선생님입니다. 0:03:34.560,0:03:36.726 다른 205명의 선생님과 함께 0:03:36.726,0:03:39.257 워싱턴 DC 학군에서 해직되셨죠. 0:03:40.047,0:03:42.943 교장이나 학생들 학부모로부터[br]높은 평가를 받았음에도 0:03:42.943,0:03:44.380 어쩔 수 없었어요. 0:03:45.270,0:03:47.761 여러분들, 특히 여기 데이터 과학자,[br]인공지능 과학자분들이 0:03:47.761,0:03:50.144 무슨 생각들 하시는지 압니다.[br]이렇게 생각하시겠죠. 0:03:50.144,0:03:53.729 "음, 난 저런 일관성 없는[br]알고리즘은 절대 안 만들어." 0:03:54.829,0:03:56.465 하지만 알고리즘도 잘못될 수 있고 0:03:56.465,0:04:00.720 좋은 의도에도 심각히 파괴적인[br]결과로 이끌 수 있습니다. 0:04:02.478,0:04:04.802 설계가 잘못된 비행기는 0:04:04.802,0:04:06.894 땅으로 추락하고 그러면[br]모두가 알 수 있지만 0:04:06.894,0:04:08.942 설계가 잘못된 알고리즘은 0:04:10.336,0:04:13.851 오랜 시간에 걸쳐 조용히[br]우리를 파멸시킵니다. 0:04:15.641,0:04:17.260 이분은 로저 에일즈씨입니다. 0:04:18.120,0:04:19.734 (웃음) 0:04:20.564,0:04:22.664 1996년 폭스 뉴스를 세웠죠. 0:04:23.374,0:04:26.008 20명 이상의 여성들이[br]성희롱을 당했다고 했습니다. 0:04:26.008,0:04:28.702 그들에 따르면 여자들은 폭스 뉴스에서[br]성공할 수 없었다고 해요. 0:04:29.175,0:04:31.470 그는 작년에 쫓겨 났지만[br]우리는 최근에도 0:04:31.470,0:04:34.438 그 문제가 여전하다는 걸[br]접하고 있습니다. 0:04:35.748,0:04:37.227 여기서 의문이 떠오릅니다. 0:04:37.227,0:04:39.651 분위기를 쇄신하려면 폭스 뉴스는[br]뭘 해야 할까요? 0:04:41.271,0:04:44.190 음, 거기 고용 절차를 0:04:44.190,0:04:45.651 기계 학습 알고리즘으로 [br]바꾸면 어떨까요? 0:04:45.651,0:04:46.651 괜찮은 생각이죠? 안 그래요? 0:04:47.491,0:04:48.207 생각해 보세요. 0:04:48.927,0:04:50.871 자료, 자료는 어떤 거면 될까요? 0:04:50.871,0:04:55.605 지난 21년간 팍스 뉴스 지원자의[br]자료면 합당하겠죠. 0:04:56.059,0:04:56.811 합리적입니다. 0:04:57.591,0:04:59.235 성공에 대한 정의는 어떨까요? 0:04:59.885,0:05:01.046 합리적인 선택이라면 0:05:01.046,0:05:02.921 음, 폭스 뉴스에서 성공한 사람[br]정도면 어때요? 0:05:02.921,0:05:06.659 제 생각에 예를 들어[br]4년 정도 근무하면서 0:05:06.659,0:05:08.056 적어도 한 번쯤 승진한 거면[br]될 듯한데. 0:05:08.829,0:05:09.761 그럴 듯합니다.[br] 0:05:10.391,0:05:12.680 이제 알고리즘은 학습할 수 있습니다. 0:05:12.680,0:05:16.629 무엇이 성공의 원인인가를 학습해[br]이 정의에 따라 0:05:16.629,0:05:21.339 과거에 어떤 지원자가 성공했는지[br]찾아내도록 훈련한 0:05:21.339,0:05:22.683 알고리즘이 생기겠죠. 0:05:24.163,0:05:26.082 이제 그걸 지금의[br]지원자들에게 적용하면 0:05:26.082,0:05:28.023 어떤 일이 발생할지 생각해 봅시다. 0:05:29.223,0:05:30.631 여성은 배제될 겁니다. 0:05:31.511,0:05:35.037 과거에 성공한 경력이 [br]있을 것 같지 않기 때문이죠. 0:05:39.797,0:05:41.769 아무 생각 없이 맹목적으로 이용한다고 0:05:41.769,0:05:44.926 알고리즘으로 세상이[br]공평해지진 않습니다. 0:05:44.926,0:05:46.118 그걸로 세상이 공정해지진 않아요. 0:05:46.118,0:05:49.565 단지 과거의 관행과 우리 [br]행동의 유형을 따라할 뿐입니다. 0:05:49.701,0:05:51.726 현상태를 자동화하는 거죠. 0:05:52.666,0:05:54.898 우리의 현재가 완벽하다면[br]훌륭한 알고리즘이겠지만 0:05:55.838,0:05:56.741 현실은 완벽하지 않습니다. 0:05:57.281,0:06:00.863 그리고 여기에 대부분의 기업이[br]난처한 소송에 휘말리진 않아도 0:06:02.323,0:06:04.468 그런 기업의 데이터 과학자들은 0:06:04.988,0:06:06.899 그 데이터에 따라 일하도록 0:06:07.269,0:06:09.525 정확성에 집중하도록[br]요구받고 있습니다. 0:06:10.268,0:06:11.273 무슨 뜻일지 생각해 보세요. 0:06:11.273,0:06:15.764 우리는 모두 편견이 있기 때문에[br]성차별이나 다른 어떤 편견을 0:06:15.764,0:06:16.999 코드에 넣을 수 있습니다. 0:06:19.547,0:06:20.739 사고 실험 해봅시다. 0:06:20.739,0:06:21.566 제가 좋아하니까 0:06:23.690,0:06:26.513 완벽하게 분리된 사회 0:06:28.251,0:06:31.040 인종으로도 분리되고, 각 도시도[br]이웃도 분리되고 0:06:31.510,0:06:35.560 사회적 약자의 거주지역에만[br]경찰을 보내 범죄를 조사한다고 해보죠. 0:06:36.405,0:06:38.462 그 검거율 자료는[br]아주 편향되었을 겁니다. 0:06:39.445,0:06:43.608 거기에, 만약 데이터 과학자들과[br]고용된 데이터 분석가들에게 0:06:43.608,0:06:46.413 다음 번엔 어디서 범죄가 생길지[br]예측하게 한다면 어떻게 될까요? 0:06:47.193,0:06:48.304 사회적 약자의 거주 지역일 겁니다. 0:06:48.624,0:06:52.135 혹은 다음 번 범죄자가 누구일지[br]예측케 한다면 누가 될까요? 0:06:52.785,0:06:53.604 사회적 약자겠죠. 0:06:55.861,0:06:59.110 그 데이터 과학자는 자신의 모델이[br]얼마나 대단하고 정확한지 0:06:59.110,0:07:00.331 자랑할 것이고 0:07:00.771,0:07:01.628 그게 맞겠죠. 0:07:03.948,0:07:06.716 지금 현실은 저렇게 극단적이진 않아도[br]우리는 많은 도시와 마을에서 0:07:06.716,0:07:09.731 심각한 인종차별이 있고 0:07:09.731,0:07:14.101 차별적인 경찰 활동과[br]법 집행에 대한 증거는 차고 넘칩니다. 0:07:15.731,0:07:18.081 그리고 우범지역, 바로 범죄가[br]발생할 것 같은 장소를 0:07:18.081,0:07:19.859 실제로도 예측합니다. 0:07:20.379,0:07:24.397 또한 우리는 실제로 개인의[br]범죄 가능성을 예측하죠. 0:07:24.397,0:07:25.834 개인적 범죄성이라고 합니다. 0:07:26.864,0:07:30.068 뉴스 조직인 프로 퍼블리카는 최근 0:07:30.068,0:07:32.696 어느 "재범 위험성 평가"[br]알고리즘을 살펴 봤습니다. 0:07:32.699,0:07:33.740 전문가들은 그렇게 부르더군요. 0:07:33.740,0:07:36.961 플로리다주에서 판사가 형을 [br]선고하는 동안 사용하고 있죠. 0:07:38.288,0:07:41.737 왼쪽의 흑인 버너드는 [br]10점 만점에 10점을 받았습니다. 0:07:43.197,0:07:44.955 오른쪽 딜런은 [br]10점 만점에 3점을 받았고요. 0:07:45.245,0:07:47.615 10점 만점에 10점, 고위험군.[br]10점 만점에 3점, 저위험군. 0:07:48.535,0:07:50.371 둘 다 불법약물 소지혐의로[br]재판 중이었습니다. 0:07:50.781,0:07:51.938 둘 다 전과가 있었지만 0:07:51.938,0:07:54.581 딜런은 중범죄 전과자였고 0:07:54.941,0:07:55.918 버너드는 그렇지 않았죠. 0:07:57.806,0:08:00.838 이게 중요한데 왜냐하면[br]점수가 높으면 높을수록 0:08:00.850,0:08:04.051 더 긴 형기를 선고받을 수[br]있기 때문입니다. 0:08:06.061,0:08:07.252 도대체 무슨 일이 벌어지고 있죠? 0:08:08.356,0:08:09.716 데이터 세탁이죠. 0:08:10.910,0:08:13.358 바로 기술자들이 추악한 진실을 0:08:13.358,0:08:16.967 블랙 박스 알고리즘 속에 숨겨버리고 0:08:16.967,0:08:19.018 그것을 객관적이라 능력주의적이라 0:08:19.018,0:08:20.381 부르는 과정입니다. 0:08:23.041,0:08:25.269 그 알고리즘이 비밀이고,[br]중요하면서 파괴적이기 때문에 0:08:25.269,0:08:27.737 저는 이런 알고리즘에[br]새 이름을 지었습니다. 0:08:27.737,0:08:29.601 "대량 수학 살상 무기." 0:08:29.885,0:08:30.772 (웃음) 0:08:30.782,0:08:34.724 (박수) 0:08:34.724,0:08:36.632 어느 곳에나 퍼져 있고[br]그게 실수가 아닙니다. 0:08:37.702,0:08:42.355 이들이 자신들의 목적을 위해[br]자신들만의 알고리즘을 만든 사기업입니다. 0:08:43.120,0:08:46.197 심지어 제가 언급한 교직원이나[br]경찰관 고과평가 프로그램도 0:08:46.197,0:08:47.749 개인 기업이 만들고 0:08:47.749,0:08:49.749 정부가 돈을 들여 산 겁니다. 0:08:50.684,0:08:52.444 그들은 이 알고리즘을[br]"비법"이라고 하고 0:08:52.444,0:08:54.272 그래서 공개 못한다는 건데 0:08:54.722,0:08:56.714 그게 사기업의 힘이죠. 0:08:57.844,0:09:02.124 그들은 "불가해"라는 권력을 휘둘러[br]이익을 챙기고 있죠. 0:09:04.904,0:09:07.567 여러분들 중에는 이 모든 게[br]사적인 문제이고 0:09:07.567,0:09:08.807 경쟁이 있으니까 0:09:08.807,0:09:11.096 자유 시장이 다 해결할 거라고[br]생각하실 수도 있습니다. 0:09:11.611,0:09:12.383 절대로 그렇지 않습니다. 0:09:12.590,0:09:15.721 불공정한 세상에서는[br]많은 돈을 벌 수 있습니다. 0:09:17.121,0:09:20.120 또한 우리는 경제적으로 [br]이성적 참여자가 아닙니다. 0:09:20.960,0:09:22.167 우리에겐 편견이 있죠. 0:09:23.037,0:09:25.361 우리는 원하지 않고[br]심지어 알지도 못하는 방식으로 0:09:25.361,0:09:28.030 모두 인종차별주의자이고[br]편견에 사로잡혀 있습니다. 0:09:29.350,0:09:32.122 전체적으로 우리는 전부 [br]이걸 알고 있습니다. 0:09:32.122,0:09:35.147 왜냐하면 많은 사회학자들이[br]자신들만의 실험으로 0:09:35.147,0:09:36.797 끊임없이 이걸 증명했기 때문이죠. 0:09:37.227,0:09:40.080 자격은 똑같았지만 백인일 것[br]같은 이름을 적은 지원서와 0:09:40.080,0:09:43.985 흑인일 것 같은 이름을 적은 [br]지원서를 여러 장 기업에 제출했는데 0:09:43.985,0:09:46.544 언제나 실망적이었습니다.[br]결과는, 늘 그랬어요. 0:09:47.494,0:09:49.161 그래서 우리는 편견을 가진 [br]동물이라는 겁니다. 0:09:49.161,0:09:52.420 그리고 우리는 이런 편견을[br]알고리즘에 투영합니다. 0:09:52.420,0:09:54.848 예를 들면 라면을[br]배제하기로 한다던지 하는 식으로 0:09:54.848,0:09:57.286 수집할 자료를 선별하고 0:09:57.286,0:09:58.853 저는 이것이 전혀 관계가 [br]없다고 생각했죠. 0:09:58.853,0:10:04.739 하지만 실제로 생긴 과거의 사례에서 [br]수집된 자료를 신뢰하거나 0:10:04.835,0:10:06.678 성공의 정의를 선택할 때 0:10:06.678,0:10:10.133 어떻게 알고리즘이[br]아무탈 없기를 기대하겠습니까? 0:10:10.793,0:10:13.159 불가능합니다.[br]그들의 유효성을 검증해야 합니다. 0:10:14.299,0:10:15.707 공정성을 위해 반드시[br]검증이 필요합니다. 0:10:15.707,0:10:18.094 좋은 소식은 우리가 공정성을[br]검증할 수 있다는 것입니다. 0:10:18.644,0:10:21.643 알고리즘은 조사할 수 있고 0:10:21.903,0:10:23.816 그러면 알고리즘은 매번 우리에게[br]진실을 말해 줄 겁니다. 0:10:24.126,0:10:26.112 그러면 우리는 수정할 수 있죠.[br]알고리즘을 개선할 수 있습니다. 0:10:26.552,0:10:28.399 저는 이걸 알고리즘 감사라고 합니다. 0:10:28.912,0:10:29.939 어떻게 하는지 알려드리죠. 0:10:30.469,0:10:32.639 첫 번째는 자료 진실성 검사입니다. 0:10:34.169,0:10:36.408 제가 말씀드린[br]재범 위험도 알고리즘에서 0:10:37.508,0:10:40.467 자료 진실성 확인은 미국에서[br]흑인과 백인 모두 같은 비율로 0:10:40.467,0:10:44.247 대마초를 피우고 있지만[br]체포율은 흑인이 훨씬 높음을 0:10:44.247,0:10:47.148 인정해야 한다는 겁니다. 0:10:47.148,0:10:50.145 지역마다 다르지만 세 배에서[br]네 배까지 높죠. 0:10:51.445,0:10:53.920 다른 범죄에서는 이런 편견이[br]과연 어떨까요? 0:10:53.920,0:10:55.286 또 이걸 어떻게 반영해야 할까요? 0:10:56.226,0:11:00.425 두 번째, 우리는 성공에 대한[br]정의를 다시 생각하고 따져봐야 합니다. 0:11:00.688,0:11:03.547 고용문제 알고리즘 기억하세요?[br]아까 얘기했는데요. 0:11:03.547,0:11:05.939 4년 근무하면 1번 승진을 한 사람을[br]찾는 알고리즘 말입니다. 0:11:06.539,0:11:08.248 이건 성공한 직장인이긴 합니다만 0:11:08.248,0:11:10.678 또한 그 문화에 잘 동화된[br]직원이기도 합니다. 0:11:11.718,0:11:13.518 이렇게 말하면 이 알고리즘 또한[br]너무 한쪽으로 치우져 있죠. 0:11:13.518,0:11:15.346 우리는 이 둘을 분리할 [br]필요가 있습니다. 0:11:16.226,0:11:19.351 예로 블라인드 오케스트라 오디션을[br]참고할 필요가 있습니다. 0:11:19.362,0:11:22.165 심사자들이 커튼 뒤에 있는 거죠. 0:11:22.945,0:11:24.431 제가 여기서 찾는 것은 0:11:24.431,0:11:27.164 무엇이 중요한지를 결정을 하고 0:11:27.164,0:11:30.108 또 덜 중요한가를 결정하는 게[br]듣는 사람이라는 거죠 0:11:30.108,0:11:32.343 그 어떤 것에도 간섭받지 않는 거죠. 0:11:32.983,0:11:35.117 블라인드 오케스트라 오디션이 시작되면서 0:11:35.688,0:11:38.780 오케스트라의 여성 단원 수가[br]5배 정도 증가했습니다. 0:11:40.210,0:11:42.035 다음으로 정확성도 생각해봐야 합니다. 0:11:43.146,0:11:46.345 바로 여기서 선생님들에게 적용한[br]가치 증강 모델이 금방 탈락합니다. 0:11:47.570,0:11:49.378 물론 어느 알고리즘도[br]완벽하지 않습니다. 0:11:50.654,0:11:54.261 그래서 모든 알고리즘의 오류를[br]고려해야 합니다. 0:11:54.771,0:11:58.859 얼마나 자주 오류가 발생하고[br]이 모델이 안 맞는 사람은 누군가요? 0:11:59.729,0:12:01.306 그 오류의 댓가는 얼마나 되나요? 0:12:02.416,0:12:04.566 그리고 마지막으로[br]반드시 고려해야 하는 것은 0:12:05.936,0:12:08.310 알고리즘의 장기적 영향과 0:12:08.830,0:12:10.945 여기서 생겨나는 피드백 고리죠. 0:12:11.631,0:12:13.090 구체적으로 와닿진 않겠지만 0:12:13.090,0:12:16.630 페이스북 엔지니어가 친구들이[br]올린 글만 보여주도록 결정하기 전에 0:12:16.840,0:12:21.067 이 점을 먼저 생각해 봤다면[br]과연 어땠을까요? 0:12:21.787,0:12:24.771 제가 드릴 메세지가 둘 있는데[br]하나는 데이터 과학자분들 겁니다. 0:12:25.429,0:12:28.636 데이터 과학자 여러분, 우리는[br]진실의 결정권자가 아닙니다. 0:12:29.546,0:12:34.102 우리는 더 큰 사회에서 벌어지는[br]윤리적 토론을 번역하는 사람에 불과합니다. 0:12:35.421,0:12:37.889 (박수) 0:12:37.902,0:12:39.850 나머지 비데이터 과학자 0:12:39.850,0:12:41.124 여러분 0:12:41.124,0:12:42.531 이 문제는 수학 시험이 아닙니다. 0:12:43.691,0:12:44.906 이것은 정치적 투쟁입니다. 0:12:46.560,0:12:50.117 알고리즘을 지배하는 이들에게[br]책임을 요구할 필요가 있습니다. 0:12:51.867,0:12:53.631 (박수) 0:12:53.631,0:12:57.711 빅 데이터에 대한 맹신의 시기는[br]반드시 끝나야 합니다. 0:12:57.711,0:12:58.781 대단히 감사합니다 0:12:58.781,0:13:04.761 (박수)