Return to Video

꼬부랑 감자의 수수께끼: 왜 소셜미디어의 "좋아요"에 생각지도 못한 의미가 있을까?

  • 0:01 - 0:03
    인터넷의 초기 10년을 생각하면
  • 0:03 - 0:05
    거긴 정말 정적인 곳이었습니다.
  • 0:05 - 0:07
    온라인으로 페이지들을 볼 수 있었죠
  • 0:07 - 0:10
    그것은 팀으로 이루어진 단체에서
  • 0:10 - 0:11
    올린 것이거나
  • 0:11 - 0:13
    그 당시 컴퓨터 기술에 능숙한
  • 0:13 - 0:15
    개인들이 올린 것이었습니다.
  • 0:15 - 0:17
    2000년대 초기에 부상하기 시작한
  • 0:17 - 0:19
    소셜미디어와 네트워크로 인해
  • 0:19 - 0:21
    인터넷은 완전히 바뀌었습니다.
  • 0:21 - 0:25
    우리가 보는 어마어마한 콘텐츠들을
  • 0:25 - 0:28
    보통의 사용자들이 올리는 장소로 말입니다.
  • 0:28 - 0:31
    유투브 동영상이라든지 블로그,
  • 0:31 - 0:34
    또는 상품후기나 소셜미디어 글들이요.
  • 0:34 - 0:37
    사람들이 서로 소통하는
  • 0:37 - 0:39
    훨씬 상호적인 장소가 되었습니다.
  • 0:39 - 0:41
    답글을 남기고, 공유합니다.
  • 0:41 - 0:43
    그저 읽기만 하지 않습니다.
  • 0:43 - 0:44
    페이스북은 이런 것을 할 수 있는
    유일한 곳일 뿐만 아니라
  • 0:44 - 0:46
    가장 큰 곳이기도 합니다.
  • 0:46 - 0:47
    숫자가 바로 설명해주죠.
  • 0:47 - 0:51
    페이스북은 한 달기준으로
    12억명이 사용합니다.
  • 0:51 - 0:53
    그러니까 지구상의 인터넷 사용자 중
  • 0:53 - 0:54
    절반이 페이스북을 쓰고 있어요.
  • 0:54 - 0:56
    다른 사이트들과 같이
  • 0:56 - 1:00
    별다른 기술이 없어도 온라인 상의 인물을
  • 1:00 - 1:01
    만들수 있도록 해줍니다.
  • 1:01 - 1:04
    사람들은 엄청난 양의 개인적인 내용을
  • 1:04 - 1:06
    올리는 것으로 그것을 사용하죠.
  • 1:06 - 1:08
    그것으로 인한 결과는 역사에 선례없는
  • 1:08 - 1:10
    수 십억 명의 사람들에 관한
  • 1:10 - 1:12
    행동패턴, 선호도, 인구적 데이타를
  • 1:12 - 1:14
    얻게 된 것입니다.
  • 1:14 - 1:17
    컴퓨터 과학자로서, 이것의 의미는
  • 1:17 - 1:19
    여러분들이 공유하고 있는 줄도 모르는 정보들로
  • 1:19 - 1:21
    그 안에 숨겨진 여러분의 의도를
  • 1:21 - 1:23
    예측해 낼 수 있는 모형을
  • 1:23 - 1:25
    만들어 낼 수 있었다는 겁니다.
  • 1:25 - 1:28
    과학자로서, 우리는 사람들이 온라인상에서
  • 1:28 - 1:30
    상호작용하는 방식에 도움을 주는데 씁니다.
  • 1:30 - 1:32
    그러나 도움이 되는 쪽은 좀 적습니다.
  • 1:32 - 1:35
    사용자들은 이 기술이나 과정이 어떤지
  • 1:35 - 1:37
    실제로 이해하지 못한다는 게 문제입니다.
  • 1:37 - 1:40
    안다고 해도, 그것을 통제할 수가 없죠.
  • 1:40 - 1:42
    그래서 오늘 말씀드리려고 하는 것은
  • 1:42 - 1:45
    이에 대해 우리가 할 수 있는 것에 대한 것과
  • 1:45 - 1:47
    어떻게 하면 사용자들에게
    그 통제권을 돌려 주도록
  • 1:47 - 1:50
    할 수 있는가에 관한 생각들입니다.
  • 1:50 - 1:52
    이건 타겟이라는 회사입니다.
  • 1:52 - 1:54
    여기 임신한 여성의 배에 있는 로고는
  • 1:54 - 1:55
    제가 넣은 게 아닙니다.
  • 1:55 - 1:57
    이 이야기를 들어 보신 적이 있으실 거에요.
  • 1:57 - 1:59
    포브스 잡지에 실린 것인데
  • 1:59 - 2:02
    타겟 회사에서 15살짜리 소녀에게
  • 2:02 - 2:04
    젖병, 기저귀, 요람를 위한 광고와 쿠폰 전단지를
  • 2:04 - 2:06
    그녀가 자신의 부모님에게
  • 2:06 - 2:08
    임신했다는 사실을 말하기 2주 전에
  • 2:08 - 2:09
    보냈다는 겁니다.
  • 2:09 - 2:12
    네, 그래요. 아버지가 무척 화가 나셨죠.
  • 2:12 - 2:14
    그가, "어떻게 고등학생이 임신했다는 것을
  • 2:14 - 2:16
    부모가 알기도 전에
  • 2:16 - 2:18
    타겟이 먼저 알 수가 있죠?" 라고 말했어요.
  • 2:18 - 2:20
    알고 보니 그들은 수 십만명의 고객들에 대한
  • 2:20 - 2:22
    구매이력을 가지고 있었고
  • 2:22 - 2:25
    그들만의 임신척도라고 하는 것을 계산했어요.
  • 2:25 - 2:28
    단지 임신을 했는지 안했는지만 보는게 아니라
  • 2:28 - 2:29
    예정일이 언제인지 까지요.
  • 2:29 - 2:31
    그들이 계산 해낸 것이
  • 2:31 - 2:32
    아기요람이나 옷을 사는 것과 같은
  • 2:32 - 2:35
    뻔한 것을 통해서 알아 낸 것이 아니고
  • 2:35 - 2:37
    평소에 샀던 것보다
  • 2:37 - 2:39
    더 많은 비타민을 산다든지
  • 2:39 - 2:41
    아니면 기저귀를 넣을 수 있을 만큼
  • 2:41 - 2:43
    큰 가방을 산다든지 하는 것으로 아는 겁니다.
  • 2:43 - 2:45
    그 구매자체만 봐서는
  • 2:45 - 2:47
    별로 보여주는 게 없습니다.
  • 2:47 - 2:49
    그것은 행동 패턴으로
  • 2:49 - 2:52
    수 천명의 다른 사람들 속에서 보면
  • 2:52 - 2:55
    이해할 만한 것이 보입니다.
  • 2:55 - 2:57
    그게 우리가 하는 일인데요
  • 2:57 - 2:59
    소셜미디어에서 여러분에 대한 것을 예측하는 겁니다.
  • 2:59 - 3:02
    여러분이 수 백만명의 사람들 속에서 무언가 발견하면
  • 3:02 - 3:05
    여러가지 것들을 알 수 있게 해주는
  • 3:05 - 3:07
    어떤 행동 패턴들을 찾습니다.
  • 3:07 - 3:09
    연구실에서 동료들과
  • 3:09 - 3:11
    꽤 정확하게 예측할 수 있는
  • 3:11 - 3:13
    방법을 개발했습니다.
  • 3:13 - 3:14
    여러분의 정치적 성향,
  • 3:14 - 3:18
    성격 점수, 성별, 성적 성향,
  • 3:18 - 3:21
    종교, 나이, 지능,
  • 3:21 - 3:22
    거기에다가
  • 3:22 - 3:24
    사람들을 얼마나 신뢰하고 있고
  • 3:24 - 3:26
    관계가 얼마나 두터운지도요.
  • 3:26 - 3:28
    저희는 이런 걸 정말 잘합니다.
  • 3:28 - 3:30
    다시 말씀드리지만,
    여러분이 생각하실 만한 뻔한 정보로
  • 3:30 - 3:32
    이런 것들을 알아내는 게 아닙니다.
  • 3:32 - 3:34
    올해 미국 국립과학원 회보에 실린
  • 3:34 - 3:36
    이 연구에서
  • 3:36 - 3:37
    제가 제일 좋아하는 부분입니다.
  • 3:37 - 3:39
    구글 검색을 해보시면 나옵니다.
  • 3:39 - 3:41
    읽기 쉬운 4페이지 분량이에요.
  • 3:41 - 3:44
    여러분들이 좋아하시는 것들에 표시하는
  • 3:44 - 3:45
    페이스북의 "좋아요"를 보고서
  • 3:45 - 3:48
    다른 것들과 함께
  • 3:48 - 3:49
    어떤 요인을 예측하는데 쓰는 겁니다.
  • 3:49 - 3:52
    보고서에는 5개의 "좋아요" 리스트가 있는데
  • 3:52 - 3:55
    높은 지능을 나타내는 강력한 지표였습니다.
  • 3:55 - 3:57
    그 다섯 가지 중 하나가
  • 3:57 - 3:59
    꼬부랑 감자에 대한 페이지를
    "좋아요"하는 것이었어요. (웃음)
  • 3:59 - 4:01
    꼬부랑 감자는 맛있지만,
  • 4:01 - 4:04
    그것을 좋다고 하는 것이
  • 4:04 - 4:06
    꼭 평균보다 똑똑하다는 것을
    의미하진 않습니다.
  • 4:06 - 4:09
    그럼 어떻게 여러분의 지능에 관한
  • 4:09 - 4:11
    확실한 지표중 하나가
  • 4:11 - 4:12
    이 페이지를 좋다고 하는 걸까요?
  • 4:12 - 4:14
    이 내용이 지능이라는 요인과는
  • 4:14 - 4:17
    아무런 관련성이 없는데도 말이에요.
  • 4:17 - 4:19
    왜 그런지 보려면
  • 4:19 - 4:21
    그 이면에 있는 여러 가지 이론들을
  • 4:21 - 4:23
    알아 봐야 합니다.
  • 4:23 - 4:26
    그 중의 하나가 호모필리라고 하는 사회이론입니다.
  • 4:26 - 4:29
    비슷한 사람들끼리 친구가 된다는 이론입니다.
  • 4:29 - 4:31
    똑똑한 사람은 똑똑한 사람끼리
  • 4:31 - 4:33
    젊은 사람은 젊은 사람끼리
    친구가 되는 경향이 있고
  • 4:33 - 4:35
    이것은 수 백년 동안
  • 4:35 - 4:37
    그렇게 굳어졌습니다.
  • 4:37 - 4:38
    우리는 잘 압니다.
  • 4:38 - 4:41
    정보가 어떻게 인맥을 통해 퍼지는지요.
  • 4:41 - 4:42
    히트 동영상이나
  • 4:42 - 4:45
    페이스북의 "좋아요", 또는 다른 정보들이
  • 4:45 - 4:47
    사회적 망을 통해서
  • 4:47 - 4:49
    질병이 퍼지는 방법과 똑같다는 것입니다.
  • 4:49 - 4:51
    이것이 저희가 오랫동안 연구한 것입니다.
  • 4:51 - 4:52
    잘 설명해 줄 수 있는 모델이 있죠.
  • 4:52 - 4:55
    그러니까 이 모든 정보들을 모아서
  • 4:55 - 4:58
    왜 이런 일이 생기는지 알 수 있는 것이죠.
  • 4:58 - 4:59
    가능한 가설을 말씀드리자면,
  • 4:59 - 5:03
    어떤 똑똑한 사람이 이 페이지를 시작했거나
  • 5:03 - 5:05
    "좋아요" 라고 시작한 사람이
  • 5:05 - 5:06
    지능테스트에서 높은 점수를 받았던 거죠.
  • 5:06 - 5:09
    "좋아요" 한 후에 그 친구들이 봤고,
  • 5:09 - 5:12
    호모필리 이론상, 그에겐 똑똑한 친구들이 있을겁니다.
  • 5:12 - 5:15
    그게 그들에게 퍼진 것이고,
    몇몇은 "좋아요"를 눌렀을 거구요.
  • 5:15 - 5:16
    그들에게 있는 똑똑한 친구들에게
  • 5:16 - 5:17
    다시 퍼지는 겁니다.
  • 5:17 - 5:19
    그래서 그 관계를 통해 선전이 되는 것이죠.
  • 5:19 - 5:21
    똑똑한 사람들 집단에게요.
  • 5:21 - 5:23
    그래서 마침내 꼬부랑 감자를
  • 5:23 - 5:26
    "좋아요" 한 행동이
  • 5:26 - 5:28
    높은 지능의 표시가 되는 겁니다.
  • 5:28 - 5:29
    그것이 내용 때문이 아니라
  • 5:29 - 5:32
    "좋아요"를 누르는
  • 5:32 - 5:34
    행동을 한 사람들의
  • 5:34 - 5:36
    공통적인 요인 때문인 것이죠.
  • 5:36 - 5:39
    꽤 복잡하게 들리시죠?
  • 5:39 - 5:41
    이걸 보통 사람들에게 설명하기가
  • 5:41 - 5:44
    어렵습니다. 한다고 해도
  • 5:44 - 5:46
    그들이 이걸 갖고 뭘 할까요?
  • 5:46 - 5:48
    여러분이 어떤 것을 좋다고 하는 것이
  • 5:48 - 5:51
    좋아하는 내용과는 전혀 관련이 없는
  • 5:51 - 5:53
    어떤 특징을 보여주는 것을 어떻게 알겠어요?
  • 5:53 - 5:56
    이런 데이타가 사용되는 방법에 대해
  • 5:56 - 5:58
    사용자들은 통제력이 거의 없습니다.
  • 5:58 - 6:01
    이것이 앞으로 나아가는데 큰 문제라고 봅니다.
  • 6:01 - 6:03
    우리가 살펴봐야 할
  • 6:03 - 6:04
    몇 가지 경우가 있다고 생각합니다.
  • 6:04 - 6:06
    데이타가 사용되는 것에 대한 통제권을
  • 6:06 - 6:08
    사용자에게 주고 싶은지에 대해서요.
  • 6:08 - 6:10
    왜냐하면 이것이 언제나 사용자에게
  • 6:10 - 6:11
    좋은 쪽으로만 사용되는 것은 아니니까요.
  • 6:11 - 6:13
    제가 자주 드는 예가 있는데요,
  • 6:13 - 6:14
    제가 만약 교수직을 하는 것이 싫어진다면
  • 6:14 - 6:16
    이런 모든 요인들을 예측하는
  • 6:16 - 6:17
    회사를 차릴 수 있을 겁니다.
  • 6:17 - 6:19
    여러분이 팀에서 일을 잘 할 지,
  • 6:19 - 6:22
    마약복용자인지, 알콜 중독자인지 알려주는 회사요.
  • 6:22 - 6:23
    예측하는 방법을 알고 있거든요.
  • 6:23 - 6:25
    저는 그 보고서를 판매하는 거죠.
  • 6:25 - 6:27
    여러분을 고용하려는 대기업이나
  • 6:27 - 6:29
    인력회사에 말이에요.
  • 6:29 - 6:31
    지금 그 일들을 할 수가 있어요.
  • 6:31 - 6:32
    내일 그 사업을 시작할 수도 있죠.
  • 6:32 - 6:34
    제가 그런 데이타를 쓰는 것에 대해
  • 6:34 - 6:36
    여러분은 통제권이 아예 없습니다.
  • 6:36 - 6:39
    그게 저에게는 문제로 느껴집니다.
  • 6:39 - 6:41
    우리가 택할 수 있는 방법 중 하나는
  • 6:41 - 6:43
    정책과 법률입니다.
  • 6:43 - 6:46
    어떤 면에서, 제 생각엔 가장 효과적일 것 같습니다.
  • 6:46 - 6:49
    문제는 실제로 그렇게 해야 한다는 겁니다.
  • 6:49 - 6:51
    정치적인 과정이 돌아가는 것을 보면
  • 6:51 - 6:54
    그렇게 될 것 같지가 않습니다.
  • 6:54 - 6:55
    수 많은 의원님들을 데리고
  • 6:55 - 6:57
    앉혀 놓고, 상황을 알려 준 다음에
  • 6:57 - 6:59
    미국의 지적재산권법에
  • 6:59 - 7:02
    엄청난 변화를 줄 법을 제정해서
  • 7:02 - 7:04
    사용자들이 데이타를 통제하게 하는 것이죠.
  • 7:04 - 7:05
    소셜미디어 회사들이 말하는
  • 7:05 - 7:07
    정책적인 방법을 선택할 수 도 있어요.
  • 7:07 - 7:08
    아세요? 데이타는 여러분 것입니다.
  • 7:08 - 7:11
    데이타 사용에 대한 통제권이 여러분에게 있어요.
  • 7:11 - 7:13
    문제는 대부분의 소셜미디어 기업들이
  • 7:13 - 7:14
    어떤 방식으로든 사용자들의 데이타를
  • 7:14 - 7:18
    공유하고 이용하는 것으로 매출을 얻고 있다는 것입니다.
  • 7:18 - 7:20
    페이스북에는 사용자가 있는게 아니라
  • 7:20 - 7:23
    상품들이 있는 거라고 얘기하기도 합니다.
  • 7:23 - 7:25
    어떻게 해야 회사들이
  • 7:25 - 7:28
    주요 자산의 통제권을
  • 7:28 - 7:29
    사용자들에게 돌려 줄까요?
  • 7:29 - 7:31
    가능한 일이지만, 제 생각엔
  • 7:31 - 7:33
    당장 벌어지진 않을 겁니다.
  • 7:33 - 7:35
    그래서 다른 방법으로
  • 7:35 - 7:37
    훨씬 효과적으로 대응할 수 있는 것이
  • 7:37 - 7:38
    과학적인 방법을 쓰는 겁니다.
  • 7:38 - 7:41
    애초에 개인적인 데이타를
  • 7:41 - 7:43
    계산해내는 메카니즘을
  • 7:43 - 7:45
    만들어 내는 것이 과학입니다.
  • 7:45 - 7:47
    사실 이건 우리가 해야 하는 연구와
  • 7:47 - 7:48
    아주 비슷합니다.
  • 7:48 - 7:51
    사용자에게 이런 경고를 해주는
  • 7:51 - 7:52
    프로그램을 만들려면요.
  • 7:52 - 7:54
    "방금 하신 일에는 위험이 따릅니다."
  • 7:54 - 7:56
    페이스북의 "좋아요"를 누르시고
  • 7:56 - 7:59
    개인 정보를 공유하심으로써
  • 7:59 - 8:00
    제가 예측하는 능력을 키워 주시는 거에요.
  • 8:00 - 8:03
    여러분이 마약을 하시는지
  • 8:03 - 8:05
    회사에서 잘 지내시는지요.
  • 8:05 - 8:07
    제 생각엔, 그게 영향을 줄 수 있습니다.
  • 8:07 - 8:09
    어떤 것을 공유할 지
  • 8:09 - 8:12
    비밀로 할지, 아예 오프라인으로만 갖고 있을지요.
  • 8:12 - 8:14
    이런 것도 생각 해 볼 수 있습니다.
  • 8:14 - 8:16
    업로드하는 데이타를 암호화해서
  • 8:16 - 8:18
    페이스북 같은 사이트나
  • 8:18 - 8:20
    제3자가 아예 추적도 못하고
  • 8:20 - 8:22
    쓸 수도 없게 말입니다.
  • 8:22 - 8:25
    하지만 업로드한 사용자가 지정한 사람만
  • 8:25 - 8:28
    그것을 보게 해 주는 것이죠.
  • 8:28 - 8:30
    지적인 관점에서 보면
  • 8:30 - 8:32
    이것은 대단히 설레는 연구입니다.
  • 8:32 - 8:34
    과학자들은 기꺼이 하려고 합니다.
  • 8:34 - 8:37
    그래서 법률적인 측면에서
    우리에게 유리하도록 말입니다.
  • 8:37 - 8:39
    제가 이런 말을 할때
  • 8:39 - 8:41
    사람들이 제기하는 문제가 있는데요,
  • 8:41 - 8:43
    "모두가 데이타를 비밀로 한다면
  • 8:43 - 8:45
    당신이 예측하려고 개발하는 방법들이
  • 8:45 - 8:48
    다 실패할 겁니다." 라고 말이에요.
  • 8:48 - 8:52
    그럼 저는, "맞아요, 그럼 성공한 거에요" 라고요.
  • 8:52 - 8:53
    저는 과학자로서
  • 8:53 - 8:57
    사용자들에 대한 정보를 추측하는게 아니라
  • 8:57 - 9:00
    온라인에서 더 좋은 방법으로
    교류하도록 하는게 목표이니까요.
  • 9:00 - 9:03
    어떤 때는 그들에 대한 정보를 추측하는 일이 생깁니다.
  • 9:03 - 9:06
    하지만 사용자가 원치 않으면,
  • 9:06 - 9:08
    제 생각엔 그들에게 그럴 권리가 있습니다.
  • 9:08 - 9:11
    우리가 개발한 방법들을
  • 9:11 - 9:13
    사용자들에게 알려주고 동의를 받고 싶습니다.
  • 9:13 - 9:16
    이러한 과학을 장려하고
  • 9:16 - 9:17
    사용자들에게
  • 9:17 - 9:20
    통제권을 돌려주고 소셜미디어 회사들로부터
  • 9:20 - 9:23
    멀어지도록 하는 연구자들을 지원하는 것이
  • 9:23 - 9:25
    이 개발도구들이 변화하고 발전하면서
  • 9:25 - 9:27
    앞으로 나아가는 것입니다.
  • 9:27 - 9:28
    또한 지식이 있고
  • 9:28 - 9:30
    권리가 있는 사용자들이 생긴다는 것이죠.
  • 9:30 - 9:31
    저는 앞으로 나아가기 위해
  • 9:31 - 9:33
    모두가 동의할 만한 것이라고 생각합니다.
  • 9:33 - 9:36
    감사합니다.
  • 9:36 - 9:39
    (박수)
Title:
꼬부랑 감자의 수수께끼: 왜 소셜미디어의 "좋아요"에 생각지도 못한 의미가 있을까?
Speaker:
제니퍼 골벡
Description:

온라인상의 데이타로 엄청난 일들을 할 수 있습니다. 페이스북의 꼬부랑 감자를 "좋아요"라고 선택하는 것이 여러분이 지적인 사람이라는 것을 의미 한다고 컴퓨터공학자들이 알아냈다는 것을 아십니까? 사실입니다. 컴퓨터 과학자 제니퍼 골벡은 어떻게 해서 이런 일이 생기고, 어째서 과학기술의 적용이 아주 해가 없는 것이 아닌지, 그리고 왜 정보의 통제권을 원래의 소유자에게 돌려 주어야 한다고 생각하는지 설명합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01
  • 거의 고친 건 없습니다. 영어적 표현 몇개와 싱크에 부자연스럽게 맞는 부분 몇가지를 수정했습니다. 수고하셨습니다!

Korean subtitles

Revisions