Return to Video

우리가 통제권을 잃지 않으면서 인공지능을 만들수 있을까요?

  • 0:01 - 0:03
    직감이 틀리는 경우에
    대해서 얘기할까 합니다.
  • 0:03 - 0:05
    우리가 흔히 겪는 일이죠.
  • 0:05 - 0:09
    이것은 실제로 어떤 종류의
    위험을 감지하지 못하는 겁니다.
  • 0:09 - 0:11
    가능한 시나리오를 말씀드리겠습니다.
  • 0:11 - 0:14
    아주 무섭기도 하고
  • 0:14 - 0:16
    일어날 가능성도 높죠.
  • 0:17 - 0:20
    이 둘의 조합은 별로
    반길 상황은 아닐 겁니다.
  • 0:20 - 0:23
    하지만 여러분 대부분은
    제가 말씀드릴 내용에 대해서
  • 0:23 - 0:25
    무서워하기 보다는
    멋지다고 생각할 겁니다.
  • 0:25 - 0:30
    제가 말씀드리고 싶은 것은
    인공지능을 만들어서 얻게 될 이점이
  • 0:30 - 0:32
    결국 우리를 파멸시킬 수도
    있다는 사실입니다.
  • 0:32 - 0:34
    사실 인공지능이 우리를
    파멸시키지 않을지
  • 0:34 - 0:37
    우리 스스로 자멸하도록
    만들지는 전혀 알 수 없죠.
  • 0:37 - 0:39
    하지만 여러분이 저와 같다면
  • 0:39 - 0:42
    이 문제를 생각해 보는 것도
    재미있다고 느끼실 겁니다.
  • 0:42 - 0:45
    그런 반응도 문제입니다.
  • 0:45 - 0:47
    걱정스런 반응이어야죠.
  • 0:48 - 0:51
    이 강연에서 여러분들에게
  • 0:51 - 0:57
    기후변화나 다른 재앙으로 인해
    세계적 기근으로 고통받을 거라든지
  • 0:57 - 1:01
    여러분의 손자나 그들의 손자들이
  • 1:01 - 1:03
    이렇게 살게 될 거라고 설명하면
  • 1:03 - 1:05
    이런 생각은 안드시겠죠.
  • 1:05 - 1:07
    "재미있군.
  • 1:07 - 1:08
    이 강연 맘에 들어"라고요.
  • 1:09 - 1:11
    기근은 재미있는 일이 아닙니다.
  • 1:12 - 1:15
    그러나 공상과학에서
    벌어지는 죽음은 재미있죠.
  • 1:15 - 1:19
    지금 이 시점에서 인공지능
    개발에 대해 가장 걱정되는 것은
  • 1:19 - 1:23
    앞으로 있을 위험에 대한
    적절한 감정적 반응을
  • 1:23 - 1:25
    못하는 것 같다는 겁니다.
  • 1:25 - 1:28
    저도 잘 못하면서
    이 강연을 하고 있습니다.
  • 1:30 - 1:33
    마치 두 개의 문 앞에
    서 있는 것과 같습니다.
  • 1:33 - 1:34
    1번 문으로 들어서면
  • 1:34 - 1:37
    인공지능 기계의 구축은
    더이상 진보하지 않습니다.
  • 1:37 - 1:41
    컴퓨터 하드웨어와 소프트웨어가
    더 이상 발전하지 않습니다.
  • 1:41 - 1:44
    왜 그런 일이 일어날지
    한번 생각해보죠.
  • 1:45 - 1:49
    인공지능과 자동화가
    얼마나 가치있는지 안다면
  • 1:49 - 1:52
    할 수 있는 한 계속해서
    기술을 향상시키려 하겠죠.
  • 1:53 - 1:55
    그걸 멈춘다면 이유가 뭘까요?
  • 1:56 - 1:58
    전면적 핵 전쟁일까요?
  • 1:59 - 2:01
    세계적 전염병 재앙일까요?
  • 2:02 - 2:04
    소행성 충돌일까요?
  • 2:06 - 2:08
    저스틴 비버가 미국 대통령이
    된다면 이유가 될까요?
  • 2:08 - 2:11
    (웃음)
  • 2:13 - 2:17
    핵심은 뭔가가 우리가 아는
    문명을 파괴한다는 겁니다.
  • 2:17 - 2:22
    이게 얼마나 나쁠지
    생각해 봐야 합니다.
  • 2:22 - 2:25
    우리의 기술향상을 막을 정도로 말이죠.
  • 2:25 - 2:26
    영원히
  • 2:26 - 2:28
    앞으로 계속이요.
  • 2:28 - 2:32
    말 그대로 그것은
    인류 사상 최악의 일입니다.
  • 2:33 - 2:34
    그래서 유일한 대안은
  • 2:34 - 2:36
    2번 문 뒤에 있는데
  • 2:36 - 2:39
    인공지능을 계속 발전시키는 겁니다.
  • 2:39 - 2:41
    앞으로 수년 동안 계속이요.
  • 2:42 - 2:45
    언젠가는 우리보다
    똑똑한 기계를 만들겠죠.
  • 2:46 - 2:48
    더 똑똑한 기계가 생기면
  • 2:48 - 2:51
    기계 스스로 발전할 겁니다.
  • 2:51 - 2:53
    그러면 수학자 아이 제이 굿의 말대로
  • 2:53 - 2:55
    "지능 폭발"이라는
    위험성을 안게 되는데
  • 2:55 - 2:57
    우리 통제권을 벗어나는
    일이 생기는 거죠.
  • 2:58 - 3:01
    여기 보시는 것처럼
    이런 풍자만화도 있는데요.
  • 3:01 - 3:05
    위험한 로봇 군대가 우리를
    공격하리라는 두려움이죠.
  • 3:05 - 3:08
    하지만 그건 있을만한 일은 아닙니다.
  • 3:08 - 3:13
    기계가 스스로 악해질 리가 없거든요.
  • 3:13 - 3:16
    문제는 우리가 기계를 만드는데
  • 3:16 - 3:18
    우리보다 너무 능력이 뛰어나서
  • 3:18 - 3:23
    기계와 우리의 목표가 살짝만 어긋나도
    우리를 파멸시킬 수 있는 겁니다.
  • 3:24 - 3:26
    개미와 관련지어 생각해 보세요.
  • 3:27 - 3:28
    우리는 개미를 싫어하진 않아요.
  • 3:28 - 3:30
    개미를 해치지도 않죠.
  • 3:30 - 3:33
    사실 때로는 해치지 않으려고 노력하죠.
  • 3:33 - 3:35
    길에서 개미들을 넘어서
    걸음을 딛잖아요.
  • 3:35 - 3:37
    하지만 개미의 존재가
  • 3:37 - 3:39
    우리의 목표와 심각하게 부딪힐 때
  • 3:39 - 3:42
    가령, 이런 건물을 지을 때
  • 3:42 - 3:44
    거리낌없이 전멸시킵니다.
  • 3:44 - 3:47
    문제는 우리가 언젠가 기계를 만들텐데
  • 3:47 - 3:50
    그 기계가 의식이 있든 없든
  • 3:50 - 3:53
    비슷하게 무시하는 태도로
    우리를 대할 수 있다는 거죠.
  • 3:54 - 3:57
    지나친 억측이라고
    생각하는 분이 대다수겠지만
  • 3:57 - 4:04
    초지능 AI가 가능하기나 한지
    의심스러운 분도 분명 계시겠죠.
  • 4:04 - 4:05
    물론 필연적이라고 보지도 않고요.
  • 4:05 - 4:09
    그럼 다음 가정에서 잘못된
    점을 찾으셔야 할 겁니다.
  • 4:09 - 4:11
    단 세 가지입니다.
  • 4:12 - 4:17
    지능이란 물리적 시스템에서
    정보를 처리하는 것입니다.
  • 4:17 - 4:20
    사실 이것은 약간은
    가정 그 이상입니다.
  • 4:20 - 4:23
    우린 이미 기계에
    제한된 지능을 구축했고
  • 4:23 - 4:25
    이 기계들은 이미
  • 4:25 - 4:28
    인간을 뛰어넘는 지능
    수준으로 구동합니다.
  • 4:29 - 4:31
    우리가 알기로 단순한 문제가
  • 4:31 - 4:34
    "일반 지능"이란 것을
    만들어 낼 수도 있죠.
  • 4:34 - 4:38
    다양한 분야에서 융통성 있게
    사고하는 능력인데
  • 4:38 - 4:41
    우리 뇌는 그렇게 해왔잖아요. 그렇죠?
  • 4:41 - 4:45
    여기 원자들이 있고
  • 4:45 - 4:49
    원자 시스템을 계속 구축해서
  • 4:49 - 4:52
    점점 더 지능적인 행동을 하게 하면
  • 4:52 - 4:55
    중간에 멈추지만 않는다면
  • 4:55 - 4:58
    우린 마침내 일반지능을
  • 4:58 - 4:59
    기계에 구축할 겁니다.
  • 4:59 - 5:03
    진보의 속도가 문제되지
    않음을 아는게 중요합니다.
  • 5:03 - 5:06
    어떻게든 발전하면 끝까지
    갈 수 있기 때문이죠.
  • 5:06 - 5:10
    계속 하기 위해 무어의 법칙이나
    기하급수적인 진보가 필요없습니다.
  • 5:10 - 5:12
    그냥 계속 하면 되죠.
  • 5:13 - 5:16
    두 번째 가정은 우리가
    계속 할 것이라는 겁니다.
  • 5:17 - 5:20
    우리는 지능적인 기계를
    계속 향상시킬 겁니다.
  • 5:21 - 5:25
    지능의 가치를 생각해 볼 때
  • 5:25 - 5:29
    지능이란 우리가 가치있게
    여기는 모든 것의 원천이거나
  • 5:29 - 5:32
    가치있는 것을 지키기 위해 필요하죠.
  • 5:32 - 5:34
    우리의 가장 귀한 자원입니다.
  • 5:34 - 5:36
    그래서 개발을 하고 싶은 겁니다.
  • 5:36 - 5:39
    우리는 간절히 해결하고
    싶은 문제들이 있죠.
  • 5:39 - 5:42
    알츠하이머 병이나 암같은
    질병을 치료하고 싶어 합니다.
  • 5:43 - 5:47
    경제 체계를 이해하고 기후 과학을
    발전시키고 싶어하죠.
  • 5:47 - 5:49
    그래서 할 수만 있다면 할 겁니다.
  • 5:49 - 5:52
    기차는 이미 출발했고
    멈출 브레이크가 없습니다.
  • 5:54 - 5:59
    마지막 가정으로 우리는 지능의
    정점에 서있지 않다는 겁니다.
  • 5:59 - 6:01
    그 근처에 가지도 못했을 거예요.
  • 6:02 - 6:04
    사실 이게 중요한 생각입니다.
  • 6:04 - 6:06
    바로 그래서 우리 상황이
    매우 위험한 겁니다.
  • 6:06 - 6:10
    그래서 우리 위험을 인지하는
    우리 직감을 믿을 수가 없는 것이죠.
  • 6:11 - 6:14
    이제 지구상에서 가장
    똑똑한 사람이 있다고 하죠.
  • 6:15 - 6:18
    거의 모든 사람들을 추려내면
    존 폰 노이만이 나옵니다.
  • 6:18 - 6:21
    주변 사람들이 폰 노이만을
    어떻게 생각했는지와
  • 6:21 - 6:25
    그가 당대의 위대한 수학자이자
    물리학자에 포함된다는 사실은
  • 6:26 - 6:27
    잘 알려져 있죠.
  • 6:27 - 6:31
    그에 대한 일화의 절반 중에서
    반만 사실이라 하더라도
  • 6:31 - 6:32
    의심의 여지 없이
  • 6:33 - 6:35
    그는 역사상 가장 똑똑한 사람입니다.
  • 6:35 - 6:38
    지능의 범위를 생각해 보세요.
  • 6:38 - 6:40
    폰 노이만은 여기 있습니다.
  • 6:42 - 6:43
    그리고 여기 여러분과 제가 있죠.
  • 6:44 - 6:45
    그리고 닭은 여기 있습니다.
  • 6:45 - 6:47
    (웃음)
  • 6:47 - 6:49
    닭아 미안하다.
  • 6:49 - 6:50
    (웃음)
  • 6:50 - 6:54
    이 강연을 꼭 우울하게
    할 필요는 없죠.
  • 6:54 - 6:55
    (웃음)
  • 6:56 - 7:00
    하지만 놀랍게도 지능의 범위는
  • 7:00 - 7:03
    우리가 현재 가질 수 있는
    것보다 훨씬 넓게 확장되고
  • 7:04 - 7:07
    우리보다 지능적인 기계를 구축한다면
  • 7:07 - 7:09
    이 범위를 아우를
    가능성이 매우 높습니다.
  • 7:09 - 7:11
    상상할 수 없을 정도로요.
  • 7:11 - 7:14
    또한 상상할 수 없을 정도로
    우리를 능가할 겁니다.
  • 7:15 - 7:19
    속도 하나만 봐도
    그렇다는 걸 알아야 합니다.
  • 7:19 - 7:24
    그렇죠? 초지능 AI를
    구축한다고 해봅시다.
  • 7:24 - 7:30
    스탠포드 대학이나 MIT의 연구팀의
    평균 지능 그 이상은 아닌 정도로요.
  • 7:30 - 7:35
    생화학적인 회로보다 전자 회로가
    백만 배는 빠르게 작동합니다.
  • 7:35 - 7:40
    그러니 이 기계는 그걸 구축한 사람보다
    백만 배의 속도로 빠르게 생각하겠죠.
  • 7:40 - 7:41
    일주일 동안 돌리면
  • 7:41 - 7:46
    인간 수준 지능의 2만 년
    분량을 해치울 겁니다.
  • 7:46 - 7:48
    몇 주 동안 계속 말이죠.
  • 7:50 - 7:51
    별 제한 없이
  • 7:51 - 7:55
    이런 진보를 이루어내는 인공지능을
    어떻게 받아들여야 할까요?
  • 7:57 - 7:59
    솔직히 걱정되는 다른 것은
  • 7:59 - 8:04
    최고의 시나리오를 생각해 보는 겁니다.
  • 8:04 - 8:10
    안전성에 대해 고려하지 않고
    초지능 AI를 설계한다고 상상해 보세요.
  • 8:10 - 8:13
    처음에는 설계가 완벽하죠.
  • 8:13 - 8:17
    의도한 대로 정확히 행동하는
    조력자를 얻은 것 같습니다.
  • 8:17 - 8:21
    노동력을 절감해주는
    완벽한 기계가 될 겁니다.
  • 8:22 - 8:24
    이걸로 물리적인 작업을 할
    기계를 만들어 내는
  • 8:24 - 8:26
    또 다른 기계를 고안할 수 있습니다.
  • 8:26 - 8:27
    태양에너지로 돌아가고
  • 8:27 - 8:30
    원자재 정도의 비용만 들어가죠.
  • 8:30 - 8:33
    인간의 고된 노동이 끝나게
    된다는 걸 의미하는 거예요.
  • 8:33 - 8:36
    그건 대부분의 지적 노동도
    끝나게 된다는 말이기도 합니다.
  • 8:37 - 8:40
    우리 같은 유인원은
    이런 상황에서 뭘 할까요?
  • 8:40 - 8:44
    한가로이 원반 던지기 놀이하면서
    서로 마사지나 해주겠죠.
  • 8:46 - 8:49
    환각제 조금과 이상한 옷만 더하면
  • 8:49 - 8:51
    전 세계가 마치 버닝맨
    축제 같을 겁니다.
  • 8:51 - 8:53
    (웃음)
  • 8:54 - 8:56
    참 괜찮을 것 같지만
  • 8:57 - 9:02
    현재의 정치 경제 상황에서
    무슨 일이 생길지 자문해 보세요.
  • 9:02 - 9:05
    다분히 우리들은
  • 9:05 - 9:11
    이전에 없던 부의 불평등과
    실업문제를 직면하게 될 겁니다.
  • 9:11 - 9:15
    새로운 부를 즉시 모든
    인류와 나누려 하지 않고
  • 9:16 - 9:19
    소수의 백만장자들만이
    경제지 표지를 장식하겠죠.
  • 9:19 - 9:22
    세계의 나머지 인류는
    굶어 죽는 동안에요.
  • 9:22 - 9:25
    러시아나 중국인은 뭘 할까요?
  • 9:25 - 9:27
    실리콘 밸리의 어떤 회사들이
  • 9:27 - 9:30
    초지능 AI를 곧 사용하려고
    한다는 걸 들으면요.
  • 9:30 - 9:33
    이 기계는 전쟁도
    일으킬 수 있을 겁니다.
  • 9:33 - 9:35
    지역분쟁이건 사이버 전쟁이건
  • 9:35 - 9:37
    전례없는 힘을 가지고 말입니다.
  • 9:38 - 9:40
    이건 승자독식의 시나리오입니다.
  • 9:40 - 9:43
    이 경쟁에서 6개월 앞선다는 것은
  • 9:43 - 9:47
    최소한 50만 년 앞서는 것입니다.
  • 9:47 - 9:51
    그래서 이런 혁신적인 일이
  • 9:51 - 9:55
    우리 인류를 미쳐 날뛰게 만들
    거라는 소문이 더욱 떠도는 거죠.
  • 9:55 - 9:58
    이제 가장 두려운 것은
  • 9:58 - 10:00
    지금 현재, 제 생각에는
  • 10:00 - 10:05
    AI연구자가 이런 말을 하는 겁니다.
  • 10:05 - 10:06
    안심시키려고 말이죠.
  • 10:07 - 10:10
    걱정하지 않아도 되는
    이유는 시기 때문이라고 하죠.
  • 10:10 - 10:13
    이것은 완전히 빗나간 말입니다.
  • 10:13 - 10:15
    아마도 50에서 100년 뒤겠죠.
  • 10:16 - 10:17
    한 연구원이 말했습니다.
  • 10:17 - 10:19
    "AI의 안전성에 대한 우려는
  • 10:19 - 10:21
    마치 화성의 과잉 인구를
    걱정하는 것과 같다."
  • 10:22 - 10:24
    실리콘 밸리 식으로
    표현하면 이런 뜻이죠.
  • 10:24 - 10:26
    "그 쬐그만 머리로 걱정하지 마세요."
  • 10:26 - 10:27
    (웃음)
  • 10:28 - 10:29
    아무도 모르는 것 같습니다.
  • 10:29 - 10:34
    시간의 축을 말하는 게
    완전히 잘못된 결론인 것을
  • 10:34 - 10:38
    지능이 그저 정보처리하는 문제라면
  • 10:38 - 10:41
    우리는 기계를 계속 향상시킬 것이고
  • 10:41 - 10:44
    초지능의 형태를 만들게 될 겁니다.
  • 10:44 - 10:51
    그것을 안전하게 할 조건을 만들려면
    얼마나 걸릴지 우린 모릅니다.
  • 10:52 - 10:53
    다시 말씀드리죠.
  • 10:54 - 11:00
    그걸 안전하게 할 조건을 만드는 게
    얼마나 걸릴지 우리는 모른다고요.
  • 11:01 - 11:04
    잘 모르신다면, 지금의 50년은
    과거와 같은 시간이 아닙니다.
  • 11:04 - 11:07
    몇 개월이 50년과 마찬가지죠.
  • 11:07 - 11:09
    아이폰을 갖기까지 그만큼 걸렸습니다.
  • 11:09 - 11:12
    심슨가족이 TV로
    방영되는 데 걸린 시간입니다.
  • 11:13 - 11:15
    50년이란 그리 많은 시간이 아닙니다.
  • 11:15 - 11:18
    우리 인류가 당면한
    최고의 난제를 만나는데요.
  • 11:20 - 11:24
    다시, 우리는 제대로 된 감정적 반응을
    못하고 있는 것 같습니다.
  • 11:24 - 11:26
    앞으로 벌어질 거라고
    생각하는 것들에 대해서요.
  • 11:26 - 11:30
    컴퓨터공학자 스튜어트 러셀이
    멋진 비유를 들었습니다.
  • 11:30 - 11:35
    외계문명이 보낸 메세지를
    받았다고 상상해 보는 겁니다.
  • 11:35 - 11:37
    이런 내용의 메세지죠.
  • 11:37 - 11:39
    "지구인들이여
  • 11:39 - 11:41
    우리는 50년 후에
    지구에 도착할 것이다.
  • 11:42 - 11:43
    이에 준비하라."
  • 11:43 - 11:48
    그럼 외계 우주선이 도착할
    때까지 날짜만 세는 겁니까?
  • 11:48 - 11:51
    그것보다는 좀더 위급함을 느껴야죠.
  • 11:53 - 11:55
    우리에게 걱정말라는 다른 이유는
  • 11:55 - 11:58
    이런 기계들은 우리의 가치를
    공유할 수밖에 없다는 겁니다.
  • 11:58 - 12:00
    말 그대로 우리의 연장선이니까요.
  • 12:00 - 12:02
    기계들은 우리 뇌에 이식될테고
  • 12:02 - 12:04
    우리는 본질적으로 그들의
    감정 표현 시스템으로 전락하겠죠.
  • 12:05 - 12:07
    한 번 생각해 보세요.
  • 12:07 - 12:11
    가장 안전하고 현명한 방법을 추천하자면
  • 12:11 - 12:14
    이 기술을 우리 뇌에
    직접 이식하는 겁니다.
  • 12:15 - 12:18
    앞으로 할 수 있는 가장
    안전하고 현명한 방법이겠지만
  • 12:18 - 12:21
    기술의 안전성에 대한 우려는 보통
  • 12:21 - 12:25
    머릿속에서 꽂아 보기
    전에 해야 할 일이죠.
  • 12:25 - 12:27
    (웃음)
  • 12:27 - 12:29
    좀 더 심오한 문제는
  • 12:29 - 12:32
    초지능의 AI를 만드는 것 자체가
  • 12:32 - 12:34
    오히려 더 쉽다는 거에요.
  • 12:34 - 12:36
    초지능 AI를 만들고
  • 12:36 - 12:38
    완전한 신경과학이 있어서
  • 12:38 - 12:40
    우리의 정신을 AI와 매끄럽게
    접목시키는 것에 비해서 말이죠.
  • 12:41 - 12:44
    기업과 정부가 이 일을 하고 있음을 보면
  • 12:44 - 12:48
    다른 종에 대항하는 존재임을
    스스로 인지할 가능성이 있습니다.
  • 12:48 - 12:51
    이 경쟁에서 이기는 것이 세상을
    이기는 것이라고 한다면요.
  • 12:51 - 12:53
    그것을 바로 파괴하지 않는다면
  • 12:53 - 12:58
    가장 쉬운 일을 가장 먼저
    할 가능성이 있을 겁니다.
  • 12:59 - 13:01
    안타깝게도 저는 이 문제에
    대한 해법은 없습니다.
  • 13:01 - 13:04
    좀 더 생각해 보자고
    하는 것 빼고는요.
  • 13:04 - 13:06
    맨하탄 프로젝트 같은 것이 있어서
  • 13:06 - 13:08
    AI에 대한 연구를 해야
    되지 않을까 싶습니다.
  • 13:09 - 13:11
    만들기 위해서가 아니라,
    필연적으로 하게 될테니까
  • 13:11 - 13:15
    군비경쟁을 피할 방법을 알고
  • 13:15 - 13:18
    우리의 관심과 맞출 수
    있는 방법을 찾기 위해서죠.
  • 13:18 - 13:23
    스스로 변할 수 있는
    초지능 AI를 말할 때는
  • 13:23 - 13:27
    첫 출발을 제대로 할 수 있는
    기회는 단 한 번뿐인 것 같습니다.
  • 13:27 - 13:29
    그때도 우리는
  • 13:29 - 13:32
    제대로 하기 위한 정치 경제적
    결과를 감내해야 할 겁니다.
  • 13:34 - 13:36
    하지만 우리가 인정하는 순간
  • 13:36 - 13:40
    정보처리가 지능의 원천이고
  • 13:41 - 13:46
    적정 연산 체계가 지능의
    기본이라고 하는 순간
  • 13:46 - 13:50
    이 체계를 계속 발전시켜
    나갈 것임을 인정하는 것이며
  • 13:51 - 13:57
    우리가 현재 아는 인지의 한계를 훨씬
    뛰어넘게 될 것임을 인정하는 겁니다.
  • 13:58 - 13:59
    그럼 우리는
  • 13:59 - 14:02
    어떤 신적 존재를 구축하고
    있음을 인정해야 합니다.
  • 14:03 - 14:07
    지금이야말로 신이 우리와 함께 할 수
    있음을 확신하기 좋은 때이겠네요.
  • 14:08 - 14:10
    대단히 감사합니다.
  • 14:10 - 14:13
    (박수)
Title:
우리가 통제권을 잃지 않으면서 인공지능을 만들수 있을까요?
Speaker:
샘 해리스(Sam Harris)
Description:

엄청난 지능의 인공지능(AI)이 두려우신가요? 신경과학자이자 철학자인 샘 해리스는 두려워 해야 하고, 단지 이론적으로만 두려워 할 게 아니라고 말합니다. 우리는 인간을 뛰어 넘는 기계를 만들테지만, 우리가 개미를 대하듯이 우리를 그렇게 대할 수도 있는 기계를 만들지도 모른다는 문제는 아직 고민한 적도 없다고 그는 지적합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Korean subtitles

Revisions Compare revisions