검색 결과 이면의 도덕적 편향
-
0:01 - 0:04저는 학교에서 학생들에게
강연할 때마다 -
0:04 - 0:06항상 똑같은 것을 묻습니다.
-
0:07 - 0:08왜 구글을 쓰니?
-
0:09 - 0:12왜 검색엔진으로 구글을 선택했니?
-
0:13 - 0:15신기하게도, 항상 답은
세 개로 똑같습니다. -
0:15 - 0:17첫 번째는 "잘 되니까요."입니다.
-
0:17 - 0:20훌륭한 대답이죠.
저도 그래서 구글을 씁니다. -
0:20 - 0:22두 번째로 어떤 이들은
이렇게 말합니다. -
0:22 - 0:25"다른 건 뭐가 있는지 잘 몰라요."
-
0:26 - 0:29첫 번째 대답만큼 좋진 않지만
이에 대한 제 대답은 주로 이렇습니다. -
0:29 - 0:31"''검색엔진'을 구글에 쳐 봐.
-
0:31 - 0:33괜찮은 사이트를
한 두 개 찾을 수도 있어." -
0:33 - 0:35마지막으로, 세 번째 대답으로는
-
0:35 - 0:39꼭 한 명의 학생이 손을 들고
이렇게 말합니다. -
0:39 - 0:44"구글은 언제나 편향되지 않은
최고의 검색결과를 가져다 주니까요." -
0:45 - 0:52언제나 편향되지 않은 최고의
검색결과를 가져다 준다고요. -
0:53 - 0:55인류의 한 사람으로서
-
0:56 - 0:58디지털 인류의 사람일지라도.
-
0:58 - 0:59소름이 돋게 만드는 말입니다.
-
0:59 - 1:04비편파적 검색결과에 대한
신뢰와 생각이 우리의 -
1:04 - 1:08구글에 대한 집단적 사랑과 감사의
초석이라는 것을 저도 알지만 말이죠. -
1:09 - 1:13제가 왜 이것이 철학적으로
거의 불가능한지 보여드리겠습니다. -
1:13 - 1:16하지만 먼저 모든 검색어 이면의
우리가 가끔 잊어버리곤 하는 -
1:16 - 1:19기본 원칙에 대해 조금만
설명드리겠습니다. -
1:20 - 1:22뭔가를 구글에 치려고 할 때마다
-
1:22 - 1:26먼저 이 질문을 스스로에게 물어보세요.
"객관적 사실을 찾는 것인가?" -
1:26 - 1:29프랑스의 수도는 어디인가?
-
1:30 - 1:32물 분자의 구성요소는 무엇인가?
-
1:32 - 1:34좋아요-- 마음껏 검색하세요.
-
1:34 - 1:37그 정답이 런던이나 H3O라고 증명할
-
1:37 - 1:39과학자 집단은 하나도 없으니까요.
-
1:39 - 1:42이런 것들에는 큰 음모랄게 없는거죠.
-
1:42 - 1:43세계적으로 우리는
-
1:43 - 1:46이 객관적 사실의 답에 동의하죠.
-
1:46 - 1:52하지만 질문을 약간 더
복잡하게 만들어 -
1:52 - 1:54"왜 이스라엘과 팔레스타인 분쟁이
일어나는가?" 같은 다른 질문을 물으면 -
1:55 - 1:58더 이상 하나의 사실을
찾는 게 아닙니다. -
1:58 - 1:59지식을 찾는거죠.
-
1:59 - 2:02지식은 훨씬 더 복잡하고 까다롭습니다.
-
2:03 - 2:04그리고 지식을 얻으려면
-
2:04 - 2:0710개, 20개 또는 100개의 사실을
논의 대상으로 가져와 -
2:07 - 2:10모두 사실이라는 걸 인정해야 합니다.
-
2:10 - 2:12하지만 자신이 누구냐에 따라
-
2:12 - 2:14젊든 늙었든, 흑인이든 백인이든
동성애자든 이성애자든 -
2:14 - 2:16사람들은 각자 다르게
평가내릴 것입니다. -
2:16 - 2:18저는 이렇게 말하겠죠.
"그래, 이게 사실이지만 -
2:18 - 2:20이게 나한테 저것보다 중요해."
-
2:20 - 2:22여기서부터 재밌어집니다,
-
2:22 - 2:24이 부분에서 인간적인 모습을
보이기 때문이죠. -
2:24 - 2:27여기서 우리는 논쟁하기 시작하고
집단을 형성합니다. -
2:27 - 2:30그리고 정말 어딘가에 도달하려면
친구나, 이웃, 부모님, -
2:30 - 2:33자식, 직장동료, 신문, 잡지를 통해
-
2:33 - 2:35모든 사실을 걸러내야 합니다.
-
2:35 - 2:38궁극적으로 진리 속에
둘러싸이기 위해선 말입니다. -
2:38 - 2:42이건 검색엔진이 도움이
안 되는 부분입니다. -
2:43 - 2:50제가 생각해 볼 거리로
왜 진실되고 깨끗하고 객관적인 -
2:50 - 2:53지식에 도달하는 것이
왜 그렇게 어려운지 보여주는 -
2:53 - 2:55예시를 약속했었죠?
-
2:55 - 2:58한 두 개 간단한 검색어를
검색해보겠습니다, -
2:58 - 3:03미국의 영부인인
-
3:03 - 3:04"미셸 오바마"부터 해보죠.
-
3:04 - 3:06이미지를 누르면
-
3:07 - 3:09보시다시피 정말 잘 되네요.
-
3:09 - 3:12검색결과가 거의 완벽하네요.
-
3:12 - 3:15정말 영부인만 있고
대통령 조차 같이 없습니다. -
3:16 - 3:17어떤 원리일까요?
-
3:18 - 3:19꽤 간단합니다.
-
3:19 - 3:22구글은 기발한 방법도
많이 동원하지만 사실 단순하게, -
3:22 - 3:25다른 것보다 두 가지를
중점적으로 봅니다. -
3:25 - 3:30먼저, 웹사이트 상의 사진 밑에 있는
설명에 뭐라고 쓰여있는가? -
3:30 - 3:32"미셸 오바마"라고 적혀 있는가?
-
3:32 - 3:34그렇다면 정말로 영부인
사진일 가능성이 크죠. -
3:34 - 3:37두 번째로, 구글은
사진 파일을 봅니다. -
3:37 - 3:40웹사이트에 올려진
파일의 이름을 봅니다. -
3:40 - 3:42파일명이 "미셸오바마.jpg"인가?
-
3:43 - 3:46사진이 클린트 이스트우드가
아니라는 걸 잘 말해주죠. -
3:46 - 3:50그렇게 두 가지가 갖춰지면
대개는 이런 검색결과가 나옵니다. -
3:50 - 3:572009년에 미셸 오바마는
인종차별 캠페인의 피해자였습니다. -
3:57 - 4:01사람들은 검색 결과로
그녀에게 모욕을 주려 했죠. -
4:01 - 4:04인터넷에 그녀의 얼굴을 원숭이처럼
-
4:04 - 4:07왜곡시킨 사진이
인터넷에 널리 퍼졌었습니다. -
4:07 - 4:10모든 곳에 게시되었죠.
-
4:10 - 4:14사람들은 다분히 의도적으로
사진이 상위 검색 결과에 -
4:14 - 4:16뜨도록 게시했습니다.
-
4:16 - 4:19사진 설명에 반드시
"미셸 오바마"를 넣었고 -
4:19 - 4:23파일명을 "미셸오바마.jpg" 나
비슷한 이름으로 올렸습니다. -
4:23 - 4:25검색결과를 조작하기
위해서였다는 거 아시겠죠. -
4:25 - 4:27이 수법은 통했습니다.
-
4:27 - 4:292009년에 "미셸 오바마"의
이미지를 검색하면 -
4:29 - 4:33가장 먼저 뜨는 결과들 중에
일그러진 원숭이 사진이 있었습니다. -
4:33 - 4:36검색 결과는 정화능력이 있습니다.
-
4:36 - 4:38그게 사실 좋은 점이죠.
-
4:38 - 4:42구글이 연관성을
매 시간, 매일 체크하기 때문입니다. -
4:42 - 4:44하지만 구글은 이 때
그 이상을 했습니다. -
4:44 - 4:47그들은 이렇게만 생각했습니다.
"인종차별적이고 부적절한 -
4:48 - 4:51검색결과니까 수동으로 정화시켜야겠어.
-
4:51 - 4:54코드를 입력해서 고치자."
-
4:54 - 4:55그리고 그렇게 했습니다.
-
4:55 - 4:59여러분 중에 누구라도 이게
나쁜 생각이라 여기지 않을 겁니다. -
5:00 - 5:01저도 그렇습니다.
-
5:03 - 5:06그런데 2년 후에
-
5:06 - 5:09세계에서 가장 많이 검색된
-
5:09 - 5:11안드레스 베링 브레이비크가
-
5:11 - 5:13사건을 일으켰습니다.
-
5:13 - 5:152011년 7월 22일이었는데
-
5:15 - 5:18노르웨이 역사상 최악의 날이었습니다.
-
5:18 - 5:21테러리스트였던 그는
지금 우리가 있는 곳에서 -
5:21 - 5:24걸어서 갈 수 있을만큼 가까이 있던
정부 청사 두 개를 폭파시키고 -
5:24 - 5:26우퇴야 섬으로 가서
-
5:26 - 5:29아이들을 모아놓고 쏘아 죽였습니다.
-
5:29 - 5:31그 날 거의 80명의 사람들이 죽었죠.
-
5:32 - 5:37많은 사람들이 이 테러행각을
두 단계로 묘사합니다. -
5:37 - 5:40빌딩을 폭파시키고 아이들을 쏴 죽이는
두 가지 사건을 일으켰다고 합니다. -
5:40 - 5:42하지만 사실이 아닙니다.
-
5:42 - 5:44세 단계가 있었죠.
-
5:44 - 5:47건물을 폭파시키고
아이들을 쏜 다음 -
5:47 - 5:50앉아서 세계가 그를 구글에
검색하기를 기다렸습니다. -
5:51 - 5:54그는 세 단계를 다 잘 준비했습니다.
-
5:55 - 5:57이걸 바로 알아차린 사람은
스웨덴인으로 스톡홀름에 사는 -
5:57 - 6:00웹사이트 개발자이자
-
6:01 - 6:03검색 엔진 최적화 전문가인
니키 린드크비스트뿐이었습니다. -
6:03 - 6:04굉장히 정치적인 사람이었죠.
-
6:04 - 6:07소셜미디어와 블로그와 페이스북을
하는 사람이었죠. -
6:07 - 6:09그는 모든 사람에게
-
6:09 - 6:11"이 남자가 지금 바라는 게 있다면
-
6:11 - 6:14바로 자기 이미지를 조종하는 겁니다.
-
6:15 - 6:17그걸 우리가 막아봅시다.
-
6:17 - 6:21문명화된 세상에 사는 우리가
검색 결과로 그에게 모욕을 줘서 -
6:21 - 6:25그가 한 행동에 대해
시위할 수 있는지 봅시다." -
6:25 - 6:26어떻게 하는 걸까요?
-
6:27 - 6:29니키는 모든 구독자에게
이렇게 말했습니다. -
6:29 - 6:31"인터넷에 들어가서
-
6:31 - 6:34길거리에 있는 개똥 사진을 찾아,
-
6:35 - 6:37길거리에 있는 개똥 사진을 찾아,
-
6:37 - 6:40여러분의 뉴스피드, 웹사이트,
블로그에 올리세요. -
6:40 - 6:43제목에 테러리스트의 이름을
넣는 것을 잊지 마세요. -
6:43 - 6:48파일명을 꼭 "브레이비크.jpg"로
붙이세요. -
6:48 - 6:52구글에게 그게 테러리스트의
얼굴이라는 걸 보여줍시다." -
6:54 - 6:55그리고 이게 먹혀들었습니다.
-
6:56 - 6:59미셸 오바마를 반대하는 운동이
일어나고 2년 후에 -
6:59 - 7:02안드레스 베링 브레이비크를
반대하는 조작 운동이 통했습니다. -
7:02 - 7:077월 22일이 몇 주나 지난 시점에서
이미지 검색을 해도 -
7:07 - 7:11여전히 상위 검색 결과에
개똥 사진이 떴습니다. -
7:11 - 7:12일종의 시위였죠.
-
7:13 - 7:18재미있게도 이번엔
구글이 개입하지 않았습니다. -
7:18 - 7:23나서서 수동적으로 검색 결과를
정화하려고 하지 않았습니다. -
7:24 - 7:26그렇다면 중요한 질문은 이겁니다.
-
7:26 - 7:29두 사건 사이에 차이가 있는가?
-
7:29 - 7:32미셸 오바마에게 일어난 일과
브레이비크에게 일어난 일에 -
7:32 - 7:34차이가 있는가?
-
7:34 - 7:36당연히 없습니다.
-
7:37 - 7:38완전히 동일합니다.
-
7:38 - 7:41그런데도 구글은 한 번은 개입하고
다른 한 번은 안했죠. -
7:41 - 7:42왜일까요?
-
7:43 - 7:47미셸 오바마는 존경스러운 인물이고
-
7:47 - 7:50안드레스 베링 브레이비크는
파렴치한 인간이기 때문입니다. -
7:50 - 7:52무슨 일이 벌어지고 있는지 아시겠어요?
-
7:52 - 7:55인물에 대한 평가가 이루어지고,
-
7:55 - 7:59세상에는 누가 어떤 사람인지
말할 수 있는 권위를 가진 -
7:59 - 8:01권력자는 단 하나밖에 없습니다.
-
8:02 - 8:04"우리는 너가 좋아,
우리는 너가 싫어. -
8:04 - 8:06우리는 널 믿어. 우리는 널 안 믿어.
-
8:06 - 8:08너는 맞고 너는 틀려.
너는 사실이고 너는 거짓이야." -
8:08 - 8:10넌 오바마고 넌 브레이비크야."
-
8:11 - 8:13바로 그게 권력입니다.
-
8:15 - 8:19그래서 저는 여러분들께
모든 알고리즘 뒤에는 항상 -
8:19 - 8:21그 어떤 코드도
-
8:21 - 8:23완전히 말살할 수 없는
자기만의 신념을 가진 -
8:23 - 8:26사람이 있다는 걸 기억해달라고
부탁하고 싶습니다. -
8:26 - 8:28그리고 제가 드리는 말씀은
구글뿐만이 아니라 -
8:28 - 8:31코드를 신뢰하는 전세계 모든
사람들에게도 해당됩니다. -
8:31 - 8:34여러분은 자신이 가진 편견을
구분해내야 합니다. -
8:34 - 8:36자신이 인간이라는 걸 받아들이고
-
8:36 - 8:39그에 맞는 책임을 져야 합니다.
-
8:40 - 8:43제가 이 말을 하는 이유는
우리가 인간과 기술 간의 -
8:43 - 8:44유대를 더 공고히해야 하는
-
8:44 - 8:48절대적으로 중요한 시점에
-
8:48 - 8:50다다랐다고 생각하기 때문입니다.
-
8:50 - 8:52그 어느 때보다 끈끈해야 하죠.
-
8:52 - 8:56그리고 정말 매력적으로 보이는
편파적이지 않고 깨끗한 검색 결과는 -
8:56 - 8:58지금도, 앞으로도 허구로 남을 가능성이
-
8:58 - 9:01높다는 걸 최소한
일깨워드리기 위해서입니다. -
9:02 - 9:03시간 내 주셔서 감사합니다.
-
9:03 - 9:06(박수)
- Title:
- 검색 결과 이면의 도덕적 편향
- Speaker:
- 안드레아스 엑스트룀(Andreas Ekström)
- Description:
-
검색 엔진은 이제 가장 신뢰도가 높은 정보의 원천이자 진실의 심판자가 되었습니다. 하지만 편파적이지 않은 검색 결과를 얻는 것이 가능할까요? 스웨덴 작가이자 기자인 안드레아스 엑스트룀은 이것이 철학적으로 불가능하다고 주장합니다. 이 깊이있는 강연을 통해 그는 인간과 기술 간의 유대를 더 공고히하는 것을 촉구하고, 모든 알고리즘 뒤에는 그 어떤 코드도 완전히 말살시키지 못하는 개인적 신념이 존재한다는 것을 일깨워줍니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 09:18
Jihyeon J. Kim approved Korean subtitles for The moral bias behind your search results | ||
Jihyeon J. Kim edited Korean subtitles for The moral bias behind your search results | ||
Jihyeon J. Kim edited Korean subtitles for The moral bias behind your search results | ||
Jihyeon J. Kim edited Korean subtitles for The moral bias behind your search results | ||
Sanghyun Hahn accepted Korean subtitles for The moral bias behind your search results | ||
Sanghyun Hahn edited Korean subtitles for The moral bias behind your search results | ||
Sanghyun Hahn edited Korean subtitles for The moral bias behind your search results | ||
Sanghyun Hahn edited Korean subtitles for The moral bias behind your search results |