Return to Video

인공지능 시대에 더 중요해진 인간 윤리

  • 0:01 - 0:05
    저는 제 첫 번째 직업인
    컴퓨터 프로그래머 일을
  • 0:05 - 0:07
    대학 1학년 때 시작했습니다.
  • 0:07 - 0:08
    아직 십대였죠.
  • 0:09 - 0:11
    일을 시작한 지 얼마 안 되어
  • 0:11 - 0:12
    회사에서 프로그래밍을 하고 있는데
  • 0:13 - 0:16
    회사의 한 관리자 제 자리로 와서는
  • 0:16 - 0:18
    저한테 속삭였어요.
  • 0:18 - 0:21
    "내가 거짓말하면 쟤가 알아챌까요?"
  • 0:22 - 0:24
    하지만 방에는 둘밖에 없었어요.
  • 0:25 - 0:29
    "누가 알아챈다는 거죠?
    아무도 없는데 왜 속삭이시는 거예요?"
  • 0:30 - 0:33
    매니저는 방에 있는
    컴퓨터를 가리켰어요.
  • 0:33 - 0:36
    "저놈이 알아챌 수 있을까요?"
  • 0:38 - 0:42
    그 매니저는 회사 접수계
    직원과 바람을 피우고 있었죠.
  • 0:42 - 0:43
    (웃음)
  • 0:43 - 0:45
    전 아직 십대였기에
  • 0:45 - 0:47
    그 사람 귀에 대고 소리쳤죠.
  • 0:47 - 0:51
    "네, 저 컴퓨터는 당신 부정을
    알 수 있을 거예요."
  • 0:51 - 0:53
    (웃음)
  • 0:53 - 0:56
    전 웃고 말았지만,
    결국 제가 어리석었죠.
  • 0:56 - 0:59
    요즘 컴퓨터 시스템은
  • 0:59 - 1:03
    감정 상태나, 심지어 거짓말까지
  • 1:03 - 1:05
    인간 표정으로 알아낼 수 있거든요.
  • 1:05 - 1:09
    광고 업체와 정부까지도
    이 기술에 관심을 기울이고 있죠.
  • 1:10 - 1:13
    저는 어릴 때 수학과
    과학을 매우 좋아해서
  • 1:13 - 1:15
    자연스레 프로그래머가 되었습니다.
  • 1:16 - 1:19
    그런데 언젠가 핵무기를 알게 되었을 때
  • 1:19 - 1:22
    저는 과학 윤리에 대해
    괌심이 많아졌습니다.
  • 1:22 - 1:23
    고민을 많이 했죠.
  • 1:23 - 1:26
    하지만 집안 사정 때문에
  • 1:26 - 1:29
    최대한 빨리 일을 해야 했죠.
  • 1:29 - 1:33
    그래서 과학기술 분야 중에서
  • 1:33 - 1:34
    직업을 쉽게 가질 수 있으면서도
  • 1:34 - 1:38
    복잡한 윤리적 고민을 할 필요가
    없는 일을 고르기로 했습니다.
  • 1:39 - 1:41
    그래서 컴퓨터 관련된 일을 골랐죠.
  • 1:41 - 1:42
    (웃음)
  • 1:42 - 1:45
    하하하! 그런데 또
    어리석은 생각이었네요.
  • 1:45 - 1:48
    요즘 컴퓨터 과학자들이
    만드는 플랫폼은
  • 1:48 - 1:52
    십억 명이 매일 접하게 되는
    시스템을 통제합니다.
  • 1:53 - 1:57
    누굴 치게 될지도 모를 차를 개발하고
  • 1:58 - 2:01
    전쟁에서 사람을 죽일 수 있는
  • 2:01 - 2:03
    기계나 무기도 설계하고 있죠.
  • 2:03 - 2:06
    모두 윤리에 관한 거죠.
  • 2:07 - 2:09
    인공지능의 시대입니다.
  • 2:10 - 2:13
    컴퓨터는 점점 다양한
    의사결정에 사용되고 있고
  • 2:13 - 2:15
    그 중엔 새로운 것도 있죠.
  • 2:15 - 2:18
    주관적이고 가치 판단이 필요한
  • 2:18 - 2:24
    정답이 없는 열린 질문까지도
    컴퓨터에게 묻고 있습니다.
  • 2:24 - 2:26
    이를테면 이런 질문들이죠.
  • 2:26 - 2:27
    "누굴 채용해야 할까요?"
  • 2:28 - 2:31
    "어느 친구의 어떤 소식을
    업데이트해야 할까요?
  • 2:31 - 2:33
    "어느 재소자가 재범
    가능성이 더 높을까요?"
  • 2:34 - 2:37
    "어떤 뉴스 기사나 영화를
    추천 목록에 넣을까요?"
  • 2:37 - 2:40
    인간은 컴퓨터를 꽤 오래 사용했지만
  • 2:40 - 2:42
    이건 좀 다른 문제죠.
  • 2:42 - 2:44
    역사적 반전입니다.
  • 2:44 - 2:49
    왜냐하면 그런 주관적인 결정까지
    컴퓨터에 의지할 수는 없거든요.
  • 2:49 - 2:56
    비행기 조종이나 다리를 짓거나
    달에 가는 것과 다르죠.
  • 2:56 - 3:00
    비행기가 안전할 것인가.
    다리가 흔들리고 무너질 것인가.
  • 3:00 - 3:04
    이런 문제는 명확하고
    모두가 동의할 만한 기준이 있고
  • 3:04 - 3:06
    자연법칙에 따라 판단하면 되죠.
  • 3:07 - 3:10
    하지만 인간 사회의
    일을 판단하는 데에는
  • 3:10 - 3:14
    그런 기준이 존재하지 않습니다.
  • 3:14 - 3:18
    더욱이 요즘 소프트웨어는
    점점 더 강력해지고 있지만
  • 3:18 - 3:22
    동시에 더욱 불투명해지고
    이해하기 힘들어지고 있습니다.
  • 3:23 - 3:25
    지난 십 년 동안
  • 3:25 - 3:27
    복합 알고리즘에는
    굉장한 진전이 있었죠.
  • 3:27 - 3:29
    사람 얼굴을 인식할 수 있고
  • 3:30 - 3:32
    손글씨도 읽어내며
  • 3:32 - 3:35
    신용카드 사기를 간파하고
  • 3:35 - 3:36
    스팸을 막고
  • 3:36 - 3:38
    번역도 할 수 있어요.
  • 3:38 - 3:40
    영상 의료 사진에서
    종양을 식별할 수 있고
  • 3:40 - 3:43
    인간과 체스나 바둑을 두어
    이길 수 있습니다.
  • 3:43 - 3:48
    이 진전에는 '기계 학습'이라는
    기법의 공이 큽니다.
  • 3:48 - 3:51
    기계 학습은 기존의
    프로그래밍과는 다릅니다.
  • 3:51 - 3:55
    기존에는 컴퓨터에게 명확하고
    자세한 지시를 내려야 했죠.
  • 3:55 - 4:00
    이제는 시스템을 만든 뒤에
    대량의 데이터를 입력합니다.
  • 4:00 - 4:01
    우리의 디지털 시대에 생성된
  • 4:01 - 4:04
    구조화되지 않은 데이터들까지
    포함해서 말이죠.
  • 4:04 - 4:06
    시스템은 이 데이터를
    헤쳐나가면서 학습합니다.
  • 4:07 - 4:08
    또 중요한 사실이 있는데
  • 4:08 - 4:13
    이 시스템은 정답을 단정짓는
    논리로 작동하지 않습니다.
  • 4:13 - 4:16
    확정적인 정답을 내기보다는
    확률적 결론을 내리죠.
  • 4:16 - 4:19
    "이게 당신이 찾던 결과일
    가능성이 높습니다."라고요.
  • 4:20 - 4:23
    장점은 이 방식이
    정말 강력하다는 겁니다.
  • 4:23 - 4:25
    구글의 인공지능 시스템
    책임자는 이를 두고
  • 4:25 - 4:28
    '정보의 과잉 효율성'이라고 표현했죠.
  • 4:28 - 4:29
    단점은
  • 4:30 - 4:33
    그 시스템이 무엇을 배웠는지
    우리는 알 수 없다는 겁니다.
  • 4:33 - 4:34
    사실 장점이기도 하죠.
  • 4:35 - 4:39
    컴퓨터에 명령을 내린다기 보다
  • 4:39 - 4:43
    우리가 이해하거나 통제하지
    못하는 강아지 같은 기계를
  • 4:43 - 4:46
    훈련시키는 거라고 할 수 있죠.
  • 4:46 - 4:48
    그런데 문제가 있어요.
  • 4:48 - 4:53
    이 인공지능이 잘못된 것을
    학습할 때 문제가 발생하죠.
  • 4:53 - 4:56
    그리고 잘 학습했어도 문제가 됩니다.
  • 4:56 - 5:00
    왜냐하면 주관적인 문제에서는
    뭐가 뭔지도 모르니까요.
  • 5:00 - 5:03
    무슨 생각으로 이런 판단을
    했는지 알 수가 없는 거죠.
  • 5:03 - 5:07
    채용 알고리즘을 생각해 보세요.
  • 5:08 - 5:12
    사람을 가려내는
    기계 학습 시스템입니다.
  • 5:13 - 5:17
    이런 시스템은 이전 직원들 데이터를
    바탕으로 훈련되었을 것이고
  • 5:17 - 5:19
    성과가 좋을 만한 직원들을
  • 5:19 - 5:22
    미리 찾아서 고용하려고 하겠죠.
  • 5:23 - 5:24
    괜찮아 보입니다.
  • 5:24 - 5:26
    저는 인사부와 임원들
  • 5:26 - 5:29
    회사 고위직들이 한데 모인
    그런 채용 시스템 도입을
  • 5:29 - 5:32
    주제로 한 컨퍼런스에
    참석한 적이 있습니다.
  • 5:32 - 5:34
    그 분들은 정말 들떠 있었죠.
  • 5:34 - 5:38
    그들은 이 시스템이 편파적이지 않고
    객관적인 채용을 가능케 하고
  • 5:38 - 5:41
    편견을 가진 인간 관리자보다
    여성과 소수자에게
  • 5:41 - 5:44
    더 많은 기회를 주리라 기대했습니다.
  • 5:44 - 5:46
    사람에 의한 고용은 편향됐죠.
  • 5:47 - 5:48
    저도 알아요.
  • 5:48 - 5:51
    프로그래머로서의 제 초기
    직장 중 하나에서
  • 5:51 - 5:55
    제 직속 상사는 가끔
    제가 아침 일찍부터
  • 5:55 - 5:59
    밤 늦게까지 일하던 자리로 와서
  • 5:59 - 6:02
    "제이넵, 점심 먹으러 갑시다"
    라고 말했었어요.
  • 6:03 - 6:05
    시계를 보고 의아해했죠.
  • 6:05 - 6:07
    오후 4시에 점심이라니?
  • 6:07 - 6:10
    전 돈이 없었으니
    점심 사 준다니까 항상 갔죠.
  • 6:11 - 6:13
    나중에 무슨 이유인지 알게 되었어요.
  • 6:13 - 6:17
    제 직속 상사는
    그녀가 고용한 프로그래머가
  • 6:17 - 6:21
    청바지에 운동화를 신고
    일터에 오는 십대 학생이란 걸
  • 6:21 - 6:24
    말하지 않았던 거죠.
  • 6:25 - 6:28
    일은 잘 하고 있었지만
    입은 옷과 나이와 성별이
  • 6:28 - 6:29
    '적절치 않았던' 거죠.
  • 6:29 - 6:32
    그래서 나이와 인종을
    가리지 않은 채용은
  • 6:32 - 6:34
    저에게는 좋아 보입니다.
  • 6:35 - 6:38
    하지만 이 시스템이 양날의
    칼인 이유는 따로 있죠.
  • 6:39 - 6:45
    현재 이런 시스템은 여러분이
    공개하지 않은 개인 정보도
  • 6:45 - 6:49
    여러분이 남긴 정보 부스러기에서
    추론할 수 있기 때문입니다.
  • 6:50 - 6:52
    여러분의 성적 취향을 추측할 수 있고
  • 6:53 - 6:54
    성격 특성과
  • 6:55 - 6:56
    정치 성향까지 추측하죠.
  • 6:57 - 7:01
    상당히 높은 수준의 적중률로요.
  • 7:01 - 7:04
    공개하지도 않은 정보를 알아냅니다.
  • 7:04 - 7:06
    추론한 것이죠.
  • 7:06 - 7:09
    제 친구 하나가 SNS 자료를 통해
  • 7:09 - 7:14
    질병이나 산후 우울증 가능성을
    예측하는 시스템을 개발했습니다.
  • 7:15 - 7:16
    결과는 인상적이었습니다.
  • 7:16 - 7:20
    그녀가 만든 시스템은
    증상이 시작되기 몇 달 전에
  • 7:20 - 7:24
    우울증 발생 가능성을
    예측할 수 있었어요.
  • 7:24 - 7:25
    몇 달 전에요.
  • 7:25 - 7:27
    증상도 없이 예측한 것이죠.
  • 7:27 - 7:32
    그녀는 이게 우울증 예방에
    사용될 거라 생각했어요. 좋은 일이죠?
  • 7:33 - 7:35
    하지만 지금 그 기술은
    채용 시스템에 적용되었습니다.
  • 7:36 - 7:39
    저는 인사 담당자들이 모인
    아까 그 학회에서
  • 7:39 - 7:45
    대기업의 고위직 관리자에게
    다가가서 이렇게 말했습니다.
  • 7:45 - 7:48
    "당신이 모르는 사이에 프로그램이
  • 7:48 - 7:55
    우울증 발병 가능성이 높은 사람들을
    가려내고 있다면 어떻게 될까요?
  • 7:56 - 7:59
    지금은 우울증이 없지만,
    미래에 위험 가능성이 있죠.
  • 8:00 - 8:02
    지금은 임신하지 않았지만
  • 8:02 - 8:06
    1,2년 내에 출산 휴가를 낼 만한
    여성들을 미리 가려내고 있다면요?
  • 8:07 - 8:12
    직장 문화에 적합하다는 이유로
    공격적인 사람만을 고용한다면요?"
  • 8:13 - 8:16
    이건 남녀 성비만으로는
    판단할 수 없어요.
  • 8:16 - 8:17
    성비는 이미 균형잡혀 있겠죠.
  • 8:17 - 8:21
    그리고 전통적인 프로그래밍
    방식이 아닌 기계 학습이기 때문에
  • 8:21 - 8:26
    '우울증 위험성 높음'이라는
    변수명은 존재하지 않아요.
  • 8:26 - 8:28
    '임신 가능성 높음'
  • 8:28 - 8:30
    '남성 공격성 척도'도 없죠.
  • 8:30 - 8:34
    시스템이 어떤 기준으로
    선택하는지 모르는 것은 물론
  • 8:34 - 8:36
    어디부터 봐야 할지조차 모르는 거죠.
  • 8:36 - 8:37
    블랙박스입니다.
  • 8:37 - 8:40
    그 예측 능력을 우리는 알지 못하죠.
  • 8:40 - 8:42
    그래서 제가 물었죠.
  • 8:42 - 8:47
    "블랙박스가 뭔가 이상한 짓을 못하도록
    어떤 안전 장치를 마련하시겠어요?"
  • 8:49 - 8:53
    제가 엄청난 사건을 일으킨
    것처럼 쳐다보더라고요.
  • 8:53 - 8:54
    (웃음)
  • 8:54 - 8:56
    저를 빤히 쳐다보곤 이렇게 말하더군요.
  • 8:57 - 9:01
    "이것에 대해서는 더 이상
    듣고 싶지 않네요."
  • 9:01 - 9:03
    그리고 돌아서서 가 버렸어요.
  • 9:04 - 9:06
    그렇다고 무례했던 건 아니에요.
  • 9:06 - 9:12
    자기가 모르는 건 자기 문제가 아니니
    신경쓰게 하지 말라는 경고였죠.
  • 9:12 - 9:13
    (웃음)
  • 9:14 - 9:20
    시스템은 인간 관리자와 달리
    편견이 없을 수도 있어요.
  • 9:20 - 9:22
    인사 업무에 돈도 덜 써도 되겠죠.
  • 9:23 - 9:27
    하지만 이 시스템은
    지속적이고 암묵적으로
  • 9:27 - 9:31
    우울증 위험이 높은 사람들의
    고용 기회를 박탈할 수 있습니다.
  • 9:32 - 9:37
    이해하지도 못하는 기계에게
    의사결정을 맡기면서
  • 9:37 - 9:41
    우리 모르게 기회를 박탈하는 게
    바람직한 사회인가요?
  • 9:41 - 9:43
    또 다른 문제도 있습니다.
  • 9:43 - 9:48
    이 시스템은 우리 인간의 행동방식이
    만들어 낸 정보들로 학습을 합니다.
  • 9:48 - 9:50
    인간이 남긴 흔적들이죠.
  • 9:50 - 9:54
    그러면 우리의 편견을
    그대로 반영하게 되고
  • 9:54 - 10:00
    시스템은 그 편견을 익히고 확대시켜
    우리에게 결과로 보여주게 됩니다.
  • 10:00 - 10:02
    우리는 그걸 합리화하죠.
  • 10:02 - 10:05
    "지금 객관적이고 공정한 계산
    결과를 뽑는 중이야~" 라면서요.
  • 10:06 - 10:09
    연구 결과에 따르면
    구글 검색의 경우에는
  • 10:10 - 10:15
    여성은 남성보다 고소득 구인
    광고에 덜 노출된다고 합니다.
  • 10:16 - 10:19
    그리고 흑인계 이름으로 검색해 보면
  • 10:19 - 10:24
    범죄 전과를 시사하는 광고가
    더 많이 나온다고 해요.
  • 10:24 - 10:25
    전과가 없는데도 말이죠.
  • 10:27 - 10:30
    이런 암묵적 편견과
    블랙박스 속 알고리즘은
  • 10:30 - 10:34
    연구자들이 모두 밝혀낼 수 없어
    우리도 모르는 사이에
  • 10:34 - 10:37
    개인의 삶에 영향을 미칠 수 있죠.
  • 10:38 - 10:42
    위스콘신에서는 어느 피고인이
    경찰 수사를 거부한 죄로
  • 10:42 - 10:43
    6년형을 선고받았습니다.
  • 10:45 - 10:46
    알고 계실지 모르겠지만
  • 10:46 - 10:50
    알고리즘이 가석방과 형량 판결에
    점점 더 많이 사용되고 있습니다.
  • 10:50 - 10:53
    그는 대체 그런 결정이
    어떻게 나오는지 알고 싶었죠.
  • 10:54 - 10:55
    그건 상업적인 블랙박스였고
  • 10:55 - 11:00
    개발사는 알고리즘이 법정에서
    심판받는 것을 거부했죠.
  • 11:00 - 11:05
    하지만 ProPublica라는
    비영리 수사 기구가
  • 11:05 - 11:08
    각종 데이터로 그 알고리즘을 검사했고
  • 11:08 - 11:14
    밝혀진 사실은 그 알고리즘 예측 성능이
    우연과 별다르지 않은 수준이었으며
  • 11:14 - 11:18
    흑인 피고를 잠재적 범죄자로
    낙인찍는 확률이
  • 11:18 - 11:22
    백인 피고에 비해 두 배나
    높다는 것이었습니다.
  • 11:24 - 11:26
    다른 경우도 살펴 볼까요.
  • 11:26 - 11:30
    오른쪽 여성은 플로리다 브로워드
    카운티의 학교에 다니는

  • 11:30 - 11:32
    교회 동생을 데리러 갈
    약속에 늦는 바람에
  • 11:33 - 11:35
    친구와 함께 뛰어가고 있었죠.
  • 11:35 - 11:39
    그러다 어느 집 현관에 있던
    자전거와 스쿠터를 발견하고는
  • 11:39 - 11:41
    어리석게도 그걸 집어 탔어요.
  • 11:41 - 11:44
    그들이 속도를 내며 달아날 때
    한 여자가 뛰어나와 소리쳤죠.
  • 11:44 - 11:46
    "우리 애 자전거로 뭐 하는 거야!"
  • 11:46 - 11:49
    그들은 자전거를 버리고 걸어서
    달아났지만 체포되었습니다.
  • 11:49 - 11:53
    그들이 잘못했고, 어리석긴 했어요.
    그런데 겨우 열여덟 살이었죠.
  • 11:53 - 11:55
    그녀는 청소년 범죄
    전과가 몇 건 있었죠.
  • 11:56 - 12:03
    한편, 이 남성은 마트에서 85달러어치
    좀도둑질을 하다가 체포되었습니다.
  • 12:03 - 12:04
    비슷한 범죄죠.
  • 12:05 - 12:09
    하지만 그에게는 두 번의
    무장강도 전과가 있었어요.
  • 12:10 - 12:13
    그런데 알고리즘은 남자가 아니라
    여자를 고위험군으로 분류했죠.
  • 12:15 - 12:16
    2년 뒤에
  • 12:16 - 12:19
    ProPublica가 조사해보니
    여성은 재범하지 않았습니다.
  • 12:19 - 12:21
    전과가 있었기에 취직이 어렵긴 했죠.
  • 12:21 - 12:23
    반면 남자는 재범하였고
  • 12:23 - 12:27
    그 이후 저지른 범죄로
    현재 8년을 복역 중입니다.
  • 12:28 - 12:31
    우리는 블랙박스를 잘 검수해서
  • 12:31 - 12:34
    엉뚱한 권한을 갖지 않도록
    분명히 해야 합니다.
  • 12:34 - 12:37
    (박수)
  • 12:38 - 12:42
    검수는 중요하고 또 유효하지만
    모든 문제를 해결하진 못합니다.
  • 12:42 - 12:45
    페이스북의 강력한 뉴스 피드
    알고리즘을 살펴 보죠.
  • 12:45 - 12:48
    모든 것을 순위대로 나열하고
  • 12:48 - 12:52
    팔로우하는 모든 친구와 페이지에서
    무엇을 보여 줄지를 결정하죠.
  • 12:53 - 12:55
    아기 사진을 또 봐야 할까요?
  • 12:55 - 12:56
    (웃음)
  • 12:56 - 12:59
    아니면 지인의 삐진 듯한 글?
  • 12:59 - 13:01
    어렵지만 중요한 뉴스 기사?
  • 13:01 - 13:03
    정답은 없습니다.
  • 13:03 - 13:05
    알고리즘은 페이스북 활동에
    최적화되어 있습니다.
  • 13:06 - 13:07
    좋아요, 공유, 댓글이죠.
  • 13:08 - 13:11
    2014년 8월에
  • 13:11 - 13:14
    백인 경찰관이
    범행이 불확실한 상황에서
  • 13:14 - 13:18
    십대 흑인에게 발포하여 살해한
    사건 후, 미주리 주 퍼거슨에서
  • 13:18 - 13:20
    시위가 일어났습니다.
  • 13:20 - 13:22
    시위 뉴스는 알고리즘 필터가 없는
  • 13:22 - 13:25
    트위터 글목록에는 나타났지만
  • 13:25 - 13:27
    페이스북에는 흔적이 없었습니다.
  • 13:27 - 13:31
    페이스북 친구 때문인가 생각하고
    알고리즘을 해제해 보았습니다.
  • 13:31 - 13:36
    페이스북은 계속 알고리즘이 추천하는
    글을 보여주려고 해서 좀 까다로웠죠.
  • 13:36 - 13:39
    친구들이 시위 이야기를
    하지 않던 게 아니었습니다.
  • 13:39 - 13:41
    알고리즘이 전달을
    막고 있었던 겁니다.
  • 13:41 - 13:44
    전 이걸 조사하고는
    광범위한 문제임을 알았습니다.
  • 13:44 - 13:48
    퍼거슨 사건은 알고리즘이
    선호할 만한 게 아니죠.
  • 13:48 - 13:49
    좋아요가 적습니다.
  • 13:49 - 13:51
    댓글 남기기도 껄끄러운데
  • 13:52 - 13:54
    누가 좋아요를 누르겠어요?
  • 13:54 - 13:55
    좋아요와 댓글이 적어서
  • 13:55 - 13:58
    알고리즘이 더 보여주고
    싶지 않아했고
  • 13:58 - 14:00
    결국 우리가 보지 못한 겁니다.
  • 14:01 - 14:05
    대신 그 주에 페이스북
    알고리즘이 선호한 것은
  • 14:05 - 14:07
    루게릭 병 모금을 위한
    아이스 버킷 챌린지였습니다.
  • 14:07 - 14:11
    얼음물 세례를 맞고 기부를
    한다는 취지 자체는 괜찮죠.
  • 14:11 - 14:13
    하지만 알고리즘이 과하게
    좋아할 만한 것이었습니다.
  • 14:13 - 14:16
    기계가 결정을 내려 버린 거죠.
  • 14:16 - 14:19
    페이스북이 유일한 소통 창구였다면
  • 14:19 - 14:24
    중요하지만 까다로운
    쟁점이 묻힐 뻔했습니다.
  • 14:24 - 14:28
    마지막으로, 이 시스템은
    인간과는 다른 방식으로
  • 14:28 - 14:31
    오류를 범할 수 있습니다.
  • 14:31 - 14:34
    퀴즈 프로그램에서 인간 참가자를
    누르고 우승을 차지한
  • 14:34 - 14:37
    IBM의 인공지능 왓슨을 기억하시나요?
  • 14:37 - 14:39
    대단한 실력이었죠.
  • 14:39 - 14:42
    하지만 왓슨이 맞이한
    마지막 문제를 보시면
  • 14:43 - 14:45
    "이 도시 최대 공항 이름은
    2차 대전 영웅을,
  • 14:45 - 14:48
    두 번째로 큰 공항은
    2차 대전 전투를 따서 지어졌다.
  • 14:48 - 14:50
    (Jeopardy 대기 음악)
  • 14:50 - 14:51
    답은 시카고죠.
  • 14:51 - 14:52
    인간 참가자는 모두 맞췄습니다.
  • 14:53 - 14:57
    하지만 왓슨은 '토론토'라고 썼죠.
  • 14:57 - 14:59
    주제가 미국 도시였는데도 말이죠.
  • 15:00 - 15:02
    또한 이 뛰어난 시스템은
  • 15:03 - 15:06
    초등학교 2학년생도
    하지 않을 실수를 저질렀죠.
  • 15:07 - 15:13
    인공지능은 인간의 오류와는
    다른 방식으로 오작동할 수 있고
  • 15:13 - 15:16
    그래서 우리가 예상하거나
    대비하기 어렵습니다.
  • 15:16 - 15:20
    능력에 맞는 직업을 갖지
    못한다면 기분 나쁠 거예요.
  • 15:20 - 15:23
    그런데 그 이유가 프로그램 함수의
    과부하 오류 때문이라면
  • 15:23 - 15:25
    몇 배는 더 기분 나쁘겠죠.
  • 15:25 - 15:27
    (웃음)
  • 15:27 - 15:29
    2010년 5월에
  • 15:29 - 15:36
    월가의 매도 알고리즘의 피드백
    반복문 오류로 주가가 폭락했고
  • 15:36 - 15:41
    36분 만에 1조 달러어치의
    가치가 사라진 일이 있었죠.
  • 15:42 - 15:46
    살상 무기의 경우에 '오류'가
    일어나면 어떻게 될지
  • 15:46 - 15:48
    생각하고 싶지도 않습니다.
  • 15:50 - 15:54
    인간의 결정에는 결함이 많죠.
  • 15:54 - 15:56
    의사결정과 보안
  • 15:56 - 15:59
    법정, 언론, 전쟁에서
  • 15:59 - 16:02
    모두 실수가 일어나지만
    저는 그래야 한다고 생각합니다.
  • 16:02 - 16:06
    우리는 어려운 문제를
    피할 수 없습니다.
  • 16:07 - 16:10
    기계에게 책임을 떠넘겨서는 안 됩니다.
  • 16:11 - 16:15
    (박수)
  • 16:17 - 16:22
    인공지능이 '윤리적 문제의
    면죄부'를 주지는 않습니다.
  • 16:23 - 16:26
    데이터 과학자인 프레드 베넨슨은
    이를 두고 '논리 세탁'이라 표현했죠.
  • 16:26 - 16:28
    정반대 태도가 필요합니다.
  • 16:28 - 16:33
    알고리즘을 의심하고 조사하고
    검수하는 능력을 길러야 합니다.
  • 16:33 - 16:37
    알고리즘에 대한 회계와 감사
    그리고 투명성 제고 방법을
  • 16:37 - 16:39
    구축해야 합니다.
  • 16:39 - 16:43
    인간 사회의 가치 판단 문제에
    수학과 컴퓨터를 도입한다고 해서
  • 16:43 - 16:46
    객관적인 일이 되지는 않는다는 걸
  • 16:46 - 16:48
    받아들여야 합니다.
  • 16:48 - 16:52
    오히려 인간 문제의 복잡성이
    알고리즘을 주관적으로 만들죠.
  • 16:52 - 16:58
    물론 더 나은 의사결정을 위해서라면
    컴퓨터를 이용할 수도 있을 겁니다.
  • 16:58 - 17:03
    하지만 우리 판단의 도덕적 책임은
    우리 스스로가 짊어져야 합니다.
  • 17:03 - 17:06
    알고리즘은 그 틀 안에서만
    이용되어야 할 뿐이고
  • 17:06 - 17:13
    우리의 도덕적 책임을 다른 쪽에
    전가하는 수단이 되어서는 안되죠.
  • 17:14 - 17:16
    인공지능의 시대에는
  • 17:16 - 17:20
    인간 가치와 윤리가
  • 17:20 - 17:22
    더욱더 중요합니다.
  • 17:22 - 17:23
    감사합니다.
  • 17:23 - 17:28
    (박수)
Title:
인공지능 시대에 더 중요해진 인간 윤리
Speaker:
제이넵 투펙치(Zeynep Tufekci)
Description:

인공지능의 시대에 우리는 이미 주관적인 결정에까지 인공지능을 사용하고 있습니다. 하지만 인공지능이 성장하고 발달하는 방식의 복잡함은 이를 통제함은 물론이고 이해하는 것조차 어렵게 합니다. 이 강연에서 기술사회학자 제이넵 투펙치는 지능을 가진 기계가 어떻게 인간과 달리 예상하거나 대비할 수 없는 방식으로 실패할 수 있는지 경고합니다. 그녀는 "우리는 책임을 기계에게 떠넘길 수 없습니다. 인간의 가치와 윤리를 더욱 깊이 반영해야 합니다."라고 주장합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Korean subtitles

Revisions