인공지능 시대에 더 중요해진 인간 윤리
-
0:01 - 0:05저는 제 첫 번째 직업인
컴퓨터 프로그래머 일을 -
0:05 - 0:07대학 1학년 때 시작했습니다.
-
0:07 - 0:08아직 십대였죠.
-
0:09 - 0:11일을 시작한 지 얼마 안 되어
-
0:11 - 0:12회사에서 프로그래밍을 하고 있는데
-
0:13 - 0:16회사의 한 관리자 제 자리로 와서는
-
0:16 - 0:18저한테 속삭였어요.
-
0:18 - 0:21"내가 거짓말하면 쟤가 알아챌까요?"
-
0:22 - 0:24하지만 방에는 둘밖에 없었어요.
-
0:25 - 0:29"누가 알아챈다는 거죠?
아무도 없는데 왜 속삭이시는 거예요?" -
0:30 - 0:33매니저는 방에 있는
컴퓨터를 가리켰어요. -
0:33 - 0:36"저놈이 알아챌 수 있을까요?"
-
0:38 - 0:42그 매니저는 회사 접수계
직원과 바람을 피우고 있었죠. -
0:42 - 0:43(웃음)
-
0:43 - 0:45전 아직 십대였기에
-
0:45 - 0:47그 사람 귀에 대고 소리쳤죠.
-
0:47 - 0:51"네, 저 컴퓨터는 당신 부정을
알 수 있을 거예요." -
0:51 - 0:53(웃음)
-
0:53 - 0:56전 웃고 말았지만,
결국 제가 어리석었죠. -
0:56 - 0:59요즘 컴퓨터 시스템은
-
0:59 - 1:03감정 상태나, 심지어 거짓말까지
-
1:03 - 1:05인간 표정으로 알아낼 수 있거든요.
-
1:05 - 1:09광고 업체와 정부까지도
이 기술에 관심을 기울이고 있죠. -
1:10 - 1:13저는 어릴 때 수학과
과학을 매우 좋아해서 -
1:13 - 1:15자연스레 프로그래머가 되었습니다.
-
1:16 - 1:19그런데 언젠가 핵무기를 알게 되었을 때
-
1:19 - 1:22저는 과학 윤리에 대해
괌심이 많아졌습니다. -
1:22 - 1:23고민을 많이 했죠.
-
1:23 - 1:26하지만 집안 사정 때문에
-
1:26 - 1:29최대한 빨리 일을 해야 했죠.
-
1:29 - 1:33그래서 과학기술 분야 중에서
-
1:33 - 1:34직업을 쉽게 가질 수 있으면서도
-
1:34 - 1:38복잡한 윤리적 고민을 할 필요가
없는 일을 고르기로 했습니다. -
1:39 - 1:41그래서 컴퓨터 관련된 일을 골랐죠.
-
1:41 - 1:42(웃음)
-
1:42 - 1:45하하하! 그런데 또
어리석은 생각이었네요. -
1:45 - 1:48요즘 컴퓨터 과학자들이
만드는 플랫폼은 -
1:48 - 1:52십억 명이 매일 접하게 되는
시스템을 통제합니다. -
1:53 - 1:57누굴 치게 될지도 모를 차를 개발하고
-
1:58 - 2:01전쟁에서 사람을 죽일 수 있는
-
2:01 - 2:03기계나 무기도 설계하고 있죠.
-
2:03 - 2:06모두 윤리에 관한 거죠.
-
2:07 - 2:09인공지능의 시대입니다.
-
2:10 - 2:13컴퓨터는 점점 다양한
의사결정에 사용되고 있고 -
2:13 - 2:15그 중엔 새로운 것도 있죠.
-
2:15 - 2:18주관적이고 가치 판단이 필요한
-
2:18 - 2:24정답이 없는 열린 질문까지도
컴퓨터에게 묻고 있습니다. -
2:24 - 2:26이를테면 이런 질문들이죠.
-
2:26 - 2:27"누굴 채용해야 할까요?"
-
2:28 - 2:31"어느 친구의 어떤 소식을
업데이트해야 할까요? -
2:31 - 2:33"어느 재소자가 재범
가능성이 더 높을까요?" -
2:34 - 2:37"어떤 뉴스 기사나 영화를
추천 목록에 넣을까요?" -
2:37 - 2:40인간은 컴퓨터를 꽤 오래 사용했지만
-
2:40 - 2:42이건 좀 다른 문제죠.
-
2:42 - 2:44역사적 반전입니다.
-
2:44 - 2:49왜냐하면 그런 주관적인 결정까지
컴퓨터에 의지할 수는 없거든요. -
2:49 - 2:56비행기 조종이나 다리를 짓거나
달에 가는 것과 다르죠. -
2:56 - 3:00비행기가 안전할 것인가.
다리가 흔들리고 무너질 것인가. -
3:00 - 3:04이런 문제는 명확하고
모두가 동의할 만한 기준이 있고 -
3:04 - 3:06자연법칙에 따라 판단하면 되죠.
-
3:07 - 3:10하지만 인간 사회의
일을 판단하는 데에는 -
3:10 - 3:14그런 기준이 존재하지 않습니다.
-
3:14 - 3:18더욱이 요즘 소프트웨어는
점점 더 강력해지고 있지만 -
3:18 - 3:22동시에 더욱 불투명해지고
이해하기 힘들어지고 있습니다. -
3:23 - 3:25지난 십 년 동안
-
3:25 - 3:27복합 알고리즘에는
굉장한 진전이 있었죠. -
3:27 - 3:29사람 얼굴을 인식할 수 있고
-
3:30 - 3:32손글씨도 읽어내며
-
3:32 - 3:35신용카드 사기를 간파하고
-
3:35 - 3:36스팸을 막고
-
3:36 - 3:38번역도 할 수 있어요.
-
3:38 - 3:40영상 의료 사진에서
종양을 식별할 수 있고 -
3:40 - 3:43인간과 체스나 바둑을 두어
이길 수 있습니다. -
3:43 - 3:48이 진전에는 '기계 학습'이라는
기법의 공이 큽니다. -
3:48 - 3:51기계 학습은 기존의
프로그래밍과는 다릅니다. -
3:51 - 3:55기존에는 컴퓨터에게 명확하고
자세한 지시를 내려야 했죠. -
3:55 - 4:00이제는 시스템을 만든 뒤에
대량의 데이터를 입력합니다. -
4:00 - 4:01우리의 디지털 시대에 생성된
-
4:01 - 4:04구조화되지 않은 데이터들까지
포함해서 말이죠. -
4:04 - 4:06시스템은 이 데이터를
헤쳐나가면서 학습합니다. -
4:07 - 4:08또 중요한 사실이 있는데
-
4:08 - 4:13이 시스템은 정답을 단정짓는
논리로 작동하지 않습니다. -
4:13 - 4:16확정적인 정답을 내기보다는
확률적 결론을 내리죠. -
4:16 - 4:19"이게 당신이 찾던 결과일
가능성이 높습니다."라고요. -
4:20 - 4:23장점은 이 방식이
정말 강력하다는 겁니다. -
4:23 - 4:25구글의 인공지능 시스템
책임자는 이를 두고 -
4:25 - 4:28'정보의 과잉 효율성'이라고 표현했죠.
-
4:28 - 4:29단점은
-
4:30 - 4:33그 시스템이 무엇을 배웠는지
우리는 알 수 없다는 겁니다. -
4:33 - 4:34사실 장점이기도 하죠.
-
4:35 - 4:39컴퓨터에 명령을 내린다기 보다
-
4:39 - 4:43우리가 이해하거나 통제하지
못하는 강아지 같은 기계를 -
4:43 - 4:46훈련시키는 거라고 할 수 있죠.
-
4:46 - 4:48그런데 문제가 있어요.
-
4:48 - 4:53이 인공지능이 잘못된 것을
학습할 때 문제가 발생하죠. -
4:53 - 4:56그리고 잘 학습했어도 문제가 됩니다.
-
4:56 - 5:00왜냐하면 주관적인 문제에서는
뭐가 뭔지도 모르니까요. -
5:00 - 5:03무슨 생각으로 이런 판단을
했는지 알 수가 없는 거죠. -
5:03 - 5:07채용 알고리즘을 생각해 보세요.
-
5:08 - 5:12사람을 가려내는
기계 학습 시스템입니다. -
5:13 - 5:17이런 시스템은 이전 직원들 데이터를
바탕으로 훈련되었을 것이고 -
5:17 - 5:19성과가 좋을 만한 직원들을
-
5:19 - 5:22미리 찾아서 고용하려고 하겠죠.
-
5:23 - 5:24괜찮아 보입니다.
-
5:24 - 5:26저는 인사부와 임원들
-
5:26 - 5:29회사 고위직들이 한데 모인
그런 채용 시스템 도입을 -
5:29 - 5:32주제로 한 컨퍼런스에
참석한 적이 있습니다. -
5:32 - 5:34그 분들은 정말 들떠 있었죠.
-
5:34 - 5:38그들은 이 시스템이 편파적이지 않고
객관적인 채용을 가능케 하고 -
5:38 - 5:41편견을 가진 인간 관리자보다
여성과 소수자에게 -
5:41 - 5:44더 많은 기회를 주리라 기대했습니다.
-
5:44 - 5:46사람에 의한 고용은 편향됐죠.
-
5:47 - 5:48저도 알아요.
-
5:48 - 5:51프로그래머로서의 제 초기
직장 중 하나에서 -
5:51 - 5:55제 직속 상사는 가끔
제가 아침 일찍부터 -
5:55 - 5:59밤 늦게까지 일하던 자리로 와서
-
5:59 - 6:02"제이넵, 점심 먹으러 갑시다"
라고 말했었어요. -
6:03 - 6:05시계를 보고 의아해했죠.
-
6:05 - 6:07오후 4시에 점심이라니?
-
6:07 - 6:10전 돈이 없었으니
점심 사 준다니까 항상 갔죠. -
6:11 - 6:13나중에 무슨 이유인지 알게 되었어요.
-
6:13 - 6:17제 직속 상사는
그녀가 고용한 프로그래머가 -
6:17 - 6:21청바지에 운동화를 신고
일터에 오는 십대 학생이란 걸 -
6:21 - 6:24말하지 않았던 거죠.
-
6:25 - 6:28일은 잘 하고 있었지만
입은 옷과 나이와 성별이 -
6:28 - 6:29'적절치 않았던' 거죠.
-
6:29 - 6:32그래서 나이와 인종을
가리지 않은 채용은 -
6:32 - 6:34저에게는 좋아 보입니다.
-
6:35 - 6:38하지만 이 시스템이 양날의
칼인 이유는 따로 있죠. -
6:39 - 6:45현재 이런 시스템은 여러분이
공개하지 않은 개인 정보도 -
6:45 - 6:49여러분이 남긴 정보 부스러기에서
추론할 수 있기 때문입니다. -
6:50 - 6:52여러분의 성적 취향을 추측할 수 있고
-
6:53 - 6:54성격 특성과
-
6:55 - 6:56정치 성향까지 추측하죠.
-
6:57 - 7:01상당히 높은 수준의 적중률로요.
-
7:01 - 7:04공개하지도 않은 정보를 알아냅니다.
-
7:04 - 7:06추론한 것이죠.
-
7:06 - 7:09제 친구 하나가 SNS 자료를 통해
-
7:09 - 7:14질병이나 산후 우울증 가능성을
예측하는 시스템을 개발했습니다. -
7:15 - 7:16결과는 인상적이었습니다.
-
7:16 - 7:20그녀가 만든 시스템은
증상이 시작되기 몇 달 전에 -
7:20 - 7:24우울증 발생 가능성을
예측할 수 있었어요. -
7:24 - 7:25몇 달 전에요.
-
7:25 - 7:27증상도 없이 예측한 것이죠.
-
7:27 - 7:32그녀는 이게 우울증 예방에
사용될 거라 생각했어요. 좋은 일이죠? -
7:33 - 7:35하지만 지금 그 기술은
채용 시스템에 적용되었습니다. -
7:36 - 7:39저는 인사 담당자들이 모인
아까 그 학회에서 -
7:39 - 7:45대기업의 고위직 관리자에게
다가가서 이렇게 말했습니다. -
7:45 - 7:48"당신이 모르는 사이에 프로그램이
-
7:48 - 7:55우울증 발병 가능성이 높은 사람들을
가려내고 있다면 어떻게 될까요? -
7:56 - 7:59지금은 우울증이 없지만,
미래에 위험 가능성이 있죠. -
8:00 - 8:02지금은 임신하지 않았지만
-
8:02 - 8:061,2년 내에 출산 휴가를 낼 만한
여성들을 미리 가려내고 있다면요? -
8:07 - 8:12직장 문화에 적합하다는 이유로
공격적인 사람만을 고용한다면요?" -
8:13 - 8:16이건 남녀 성비만으로는
판단할 수 없어요. -
8:16 - 8:17성비는 이미 균형잡혀 있겠죠.
-
8:17 - 8:21그리고 전통적인 프로그래밍
방식이 아닌 기계 학습이기 때문에 -
8:21 - 8:26'우울증 위험성 높음'이라는
변수명은 존재하지 않아요. -
8:26 - 8:28'임신 가능성 높음'
-
8:28 - 8:30'남성 공격성 척도'도 없죠.
-
8:30 - 8:34시스템이 어떤 기준으로
선택하는지 모르는 것은 물론 -
8:34 - 8:36어디부터 봐야 할지조차 모르는 거죠.
-
8:36 - 8:37블랙박스입니다.
-
8:37 - 8:40그 예측 능력을 우리는 알지 못하죠.
-
8:40 - 8:42그래서 제가 물었죠.
-
8:42 - 8:47"블랙박스가 뭔가 이상한 짓을 못하도록
어떤 안전 장치를 마련하시겠어요?" -
8:49 - 8:53제가 엄청난 사건을 일으킨
것처럼 쳐다보더라고요. -
8:53 - 8:54(웃음)
-
8:54 - 8:56저를 빤히 쳐다보곤 이렇게 말하더군요.
-
8:57 - 9:01"이것에 대해서는 더 이상
듣고 싶지 않네요." -
9:01 - 9:03그리고 돌아서서 가 버렸어요.
-
9:04 - 9:06그렇다고 무례했던 건 아니에요.
-
9:06 - 9:12자기가 모르는 건 자기 문제가 아니니
신경쓰게 하지 말라는 경고였죠. -
9:12 - 9:13(웃음)
-
9:14 - 9:20시스템은 인간 관리자와 달리
편견이 없을 수도 있어요. -
9:20 - 9:22인사 업무에 돈도 덜 써도 되겠죠.
-
9:23 - 9:27하지만 이 시스템은
지속적이고 암묵적으로 -
9:27 - 9:31우울증 위험이 높은 사람들의
고용 기회를 박탈할 수 있습니다. -
9:32 - 9:37이해하지도 못하는 기계에게
의사결정을 맡기면서 -
9:37 - 9:41우리 모르게 기회를 박탈하는 게
바람직한 사회인가요? -
9:41 - 9:43또 다른 문제도 있습니다.
-
9:43 - 9:48이 시스템은 우리 인간의 행동방식이
만들어 낸 정보들로 학습을 합니다. -
9:48 - 9:50인간이 남긴 흔적들이죠.
-
9:50 - 9:54그러면 우리의 편견을
그대로 반영하게 되고 -
9:54 - 10:00시스템은 그 편견을 익히고 확대시켜
우리에게 결과로 보여주게 됩니다. -
10:00 - 10:02우리는 그걸 합리화하죠.
-
10:02 - 10:05"지금 객관적이고 공정한 계산
결과를 뽑는 중이야~" 라면서요. -
10:06 - 10:09연구 결과에 따르면
구글 검색의 경우에는 -
10:10 - 10:15여성은 남성보다 고소득 구인
광고에 덜 노출된다고 합니다. -
10:16 - 10:19그리고 흑인계 이름으로 검색해 보면
-
10:19 - 10:24범죄 전과를 시사하는 광고가
더 많이 나온다고 해요. -
10:24 - 10:25전과가 없는데도 말이죠.
-
10:27 - 10:30이런 암묵적 편견과
블랙박스 속 알고리즘은 -
10:30 - 10:34연구자들이 모두 밝혀낼 수 없어
우리도 모르는 사이에 -
10:34 - 10:37개인의 삶에 영향을 미칠 수 있죠.
-
10:38 - 10:42위스콘신에서는 어느 피고인이
경찰 수사를 거부한 죄로 -
10:42 - 10:436년형을 선고받았습니다.
-
10:45 - 10:46알고 계실지 모르겠지만
-
10:46 - 10:50알고리즘이 가석방과 형량 판결에
점점 더 많이 사용되고 있습니다. -
10:50 - 10:53그는 대체 그런 결정이
어떻게 나오는지 알고 싶었죠. -
10:54 - 10:55그건 상업적인 블랙박스였고
-
10:55 - 11:00개발사는 알고리즘이 법정에서
심판받는 것을 거부했죠. -
11:00 - 11:05하지만 ProPublica라는
비영리 수사 기구가 -
11:05 - 11:08각종 데이터로 그 알고리즘을 검사했고
-
11:08 - 11:14밝혀진 사실은 그 알고리즘 예측 성능이
우연과 별다르지 않은 수준이었으며 -
11:14 - 11:18흑인 피고를 잠재적 범죄자로
낙인찍는 확률이 -
11:18 - 11:22백인 피고에 비해 두 배나
높다는 것이었습니다. -
11:24 - 11:26다른 경우도 살펴 볼까요.
-
11:26 - 11:30오른쪽 여성은 플로리다 브로워드
카운티의 학교에 다니는 -
11:30 - 11:32교회 동생을 데리러 갈
약속에 늦는 바람에 -
11:33 - 11:35친구와 함께 뛰어가고 있었죠.
-
11:35 - 11:39그러다 어느 집 현관에 있던
자전거와 스쿠터를 발견하고는 -
11:39 - 11:41어리석게도 그걸 집어 탔어요.
-
11:41 - 11:44그들이 속도를 내며 달아날 때
한 여자가 뛰어나와 소리쳤죠. -
11:44 - 11:46"우리 애 자전거로 뭐 하는 거야!"
-
11:46 - 11:49그들은 자전거를 버리고 걸어서
달아났지만 체포되었습니다. -
11:49 - 11:53그들이 잘못했고, 어리석긴 했어요.
그런데 겨우 열여덟 살이었죠. -
11:53 - 11:55그녀는 청소년 범죄
전과가 몇 건 있었죠. -
11:56 - 12:03한편, 이 남성은 마트에서 85달러어치
좀도둑질을 하다가 체포되었습니다. -
12:03 - 12:04비슷한 범죄죠.
-
12:05 - 12:09하지만 그에게는 두 번의
무장강도 전과가 있었어요. -
12:10 - 12:13그런데 알고리즘은 남자가 아니라
여자를 고위험군으로 분류했죠. -
12:15 - 12:162년 뒤에
-
12:16 - 12:19ProPublica가 조사해보니
여성은 재범하지 않았습니다. -
12:19 - 12:21전과가 있었기에 취직이 어렵긴 했죠.
-
12:21 - 12:23반면 남자는 재범하였고
-
12:23 - 12:27그 이후 저지른 범죄로
현재 8년을 복역 중입니다. -
12:28 - 12:31우리는 블랙박스를 잘 검수해서
-
12:31 - 12:34엉뚱한 권한을 갖지 않도록
분명히 해야 합니다. -
12:34 - 12:37(박수)
-
12:38 - 12:42검수는 중요하고 또 유효하지만
모든 문제를 해결하진 못합니다. -
12:42 - 12:45페이스북의 강력한 뉴스 피드
알고리즘을 살펴 보죠. -
12:45 - 12:48모든 것을 순위대로 나열하고
-
12:48 - 12:52팔로우하는 모든 친구와 페이지에서
무엇을 보여 줄지를 결정하죠. -
12:53 - 12:55아기 사진을 또 봐야 할까요?
-
12:55 - 12:56(웃음)
-
12:56 - 12:59아니면 지인의 삐진 듯한 글?
-
12:59 - 13:01어렵지만 중요한 뉴스 기사?
-
13:01 - 13:03정답은 없습니다.
-
13:03 - 13:05알고리즘은 페이스북 활동에
최적화되어 있습니다. -
13:06 - 13:07좋아요, 공유, 댓글이죠.
-
13:08 - 13:112014년 8월에
-
13:11 - 13:14백인 경찰관이
범행이 불확실한 상황에서 -
13:14 - 13:18십대 흑인에게 발포하여 살해한
사건 후, 미주리 주 퍼거슨에서 -
13:18 - 13:20시위가 일어났습니다.
-
13:20 - 13:22시위 뉴스는 알고리즘 필터가 없는
-
13:22 - 13:25트위터 글목록에는 나타났지만
-
13:25 - 13:27페이스북에는 흔적이 없었습니다.
-
13:27 - 13:31페이스북 친구 때문인가 생각하고
알고리즘을 해제해 보았습니다. -
13:31 - 13:36페이스북은 계속 알고리즘이 추천하는
글을 보여주려고 해서 좀 까다로웠죠. -
13:36 - 13:39친구들이 시위 이야기를
하지 않던 게 아니었습니다. -
13:39 - 13:41알고리즘이 전달을
막고 있었던 겁니다. -
13:41 - 13:44전 이걸 조사하고는
광범위한 문제임을 알았습니다. -
13:44 - 13:48퍼거슨 사건은 알고리즘이
선호할 만한 게 아니죠. -
13:48 - 13:49좋아요가 적습니다.
-
13:49 - 13:51댓글 남기기도 껄끄러운데
-
13:52 - 13:54누가 좋아요를 누르겠어요?
-
13:54 - 13:55좋아요와 댓글이 적어서
-
13:55 - 13:58알고리즘이 더 보여주고
싶지 않아했고 -
13:58 - 14:00결국 우리가 보지 못한 겁니다.
-
14:01 - 14:05대신 그 주에 페이스북
알고리즘이 선호한 것은 -
14:05 - 14:07루게릭 병 모금을 위한
아이스 버킷 챌린지였습니다. -
14:07 - 14:11얼음물 세례를 맞고 기부를
한다는 취지 자체는 괜찮죠. -
14:11 - 14:13하지만 알고리즘이 과하게
좋아할 만한 것이었습니다. -
14:13 - 14:16기계가 결정을 내려 버린 거죠.
-
14:16 - 14:19페이스북이 유일한 소통 창구였다면
-
14:19 - 14:24중요하지만 까다로운
쟁점이 묻힐 뻔했습니다. -
14:24 - 14:28마지막으로, 이 시스템은
인간과는 다른 방식으로 -
14:28 - 14:31오류를 범할 수 있습니다.
-
14:31 - 14:34퀴즈 프로그램에서 인간 참가자를
누르고 우승을 차지한 -
14:34 - 14:37IBM의 인공지능 왓슨을 기억하시나요?
-
14:37 - 14:39대단한 실력이었죠.
-
14:39 - 14:42하지만 왓슨이 맞이한
마지막 문제를 보시면 -
14:43 - 14:45"이 도시 최대 공항 이름은
2차 대전 영웅을, -
14:45 - 14:48두 번째로 큰 공항은
2차 대전 전투를 따서 지어졌다. -
14:48 - 14:50(Jeopardy 대기 음악)
-
14:50 - 14:51답은 시카고죠.
-
14:51 - 14:52인간 참가자는 모두 맞췄습니다.
-
14:53 - 14:57하지만 왓슨은 '토론토'라고 썼죠.
-
14:57 - 14:59주제가 미국 도시였는데도 말이죠.
-
15:00 - 15:02또한 이 뛰어난 시스템은
-
15:03 - 15:06초등학교 2학년생도
하지 않을 실수를 저질렀죠. -
15:07 - 15:13인공지능은 인간의 오류와는
다른 방식으로 오작동할 수 있고 -
15:13 - 15:16그래서 우리가 예상하거나
대비하기 어렵습니다. -
15:16 - 15:20능력에 맞는 직업을 갖지
못한다면 기분 나쁠 거예요. -
15:20 - 15:23그런데 그 이유가 프로그램 함수의
과부하 오류 때문이라면 -
15:23 - 15:25몇 배는 더 기분 나쁘겠죠.
-
15:25 - 15:27(웃음)
-
15:27 - 15:292010년 5월에
-
15:29 - 15:36월가의 매도 알고리즘의 피드백
반복문 오류로 주가가 폭락했고 -
15:36 - 15:4136분 만에 1조 달러어치의
가치가 사라진 일이 있었죠. -
15:42 - 15:46살상 무기의 경우에 '오류'가
일어나면 어떻게 될지 -
15:46 - 15:48생각하고 싶지도 않습니다.
-
15:50 - 15:54인간의 결정에는 결함이 많죠.
-
15:54 - 15:56의사결정과 보안
-
15:56 - 15:59법정, 언론, 전쟁에서
-
15:59 - 16:02모두 실수가 일어나지만
저는 그래야 한다고 생각합니다. -
16:02 - 16:06우리는 어려운 문제를
피할 수 없습니다. -
16:07 - 16:10기계에게 책임을 떠넘겨서는 안 됩니다.
-
16:11 - 16:15(박수)
-
16:17 - 16:22인공지능이 '윤리적 문제의
면죄부'를 주지는 않습니다. -
16:23 - 16:26데이터 과학자인 프레드 베넨슨은
이를 두고 '논리 세탁'이라 표현했죠. -
16:26 - 16:28정반대 태도가 필요합니다.
-
16:28 - 16:33알고리즘을 의심하고 조사하고
검수하는 능력을 길러야 합니다. -
16:33 - 16:37알고리즘에 대한 회계와 감사
그리고 투명성 제고 방법을 -
16:37 - 16:39구축해야 합니다.
-
16:39 - 16:43인간 사회의 가치 판단 문제에
수학과 컴퓨터를 도입한다고 해서 -
16:43 - 16:46객관적인 일이 되지는 않는다는 걸
-
16:46 - 16:48받아들여야 합니다.
-
16:48 - 16:52오히려 인간 문제의 복잡성이
알고리즘을 주관적으로 만들죠. -
16:52 - 16:58물론 더 나은 의사결정을 위해서라면
컴퓨터를 이용할 수도 있을 겁니다. -
16:58 - 17:03하지만 우리 판단의 도덕적 책임은
우리 스스로가 짊어져야 합니다. -
17:03 - 17:06알고리즘은 그 틀 안에서만
이용되어야 할 뿐이고 -
17:06 - 17:13우리의 도덕적 책임을 다른 쪽에
전가하는 수단이 되어서는 안되죠. -
17:14 - 17:16인공지능의 시대에는
-
17:16 - 17:20인간 가치와 윤리가
-
17:20 - 17:22더욱더 중요합니다.
-
17:22 - 17:23감사합니다.
-
17:23 - 17:28(박수)
- Title:
- 인공지능 시대에 더 중요해진 인간 윤리
- Speaker:
- 제이넵 투펙치(Zeynep Tufekci)
- Description:
-
인공지능의 시대에 우리는 이미 주관적인 결정에까지 인공지능을 사용하고 있습니다. 하지만 인공지능이 성장하고 발달하는 방식의 복잡함은 이를 통제함은 물론이고 이해하는 것조차 어렵게 합니다. 이 강연에서 기술사회학자 제이넵 투펙치는 지능을 가진 기계가 어떻게 인간과 달리 예상하거나 대비할 수 없는 방식으로 실패할 수 있는지 경고합니다. 그녀는 "우리는 책임을 기계에게 떠넘길 수 없습니다. 인간의 가치와 윤리를 더욱 깊이 반영해야 합니다."라고 주장합니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Jihyeon J. Kim approved Korean subtitles for Machine intelligence makes human morals more important | ||
Jihyeon J. Kim edited Korean subtitles for Machine intelligence makes human morals more important | ||
Jihyeon J. Kim edited Korean subtitles for Machine intelligence makes human morals more important | ||
Jihyeon J. Kim edited Korean subtitles for Machine intelligence makes human morals more important | ||
Jihyeon J. Kim edited Korean subtitles for Machine intelligence makes human morals more important | ||
Jihyeon J. Kim edited Korean subtitles for Machine intelligence makes human morals more important | ||
JY Kang accepted Korean subtitles for Machine intelligence makes human morals more important | ||
JY Kang edited Korean subtitles for Machine intelligence makes human morals more important |