0:00:00.760,0:00:04.600 제가 어렸을 적,[br]저는 전형적인 괴짜였습니다. 0:00:05.320,0:00:07.496 여러분 중 몇몇도 그랬을 거예요. 0:00:07.520,0:00:08.736 (웃음) 0:00:08.760,0:00:11.976 거기 가장 크게 웃으신 분은[br]여전히 그럴 것 같군요. 0:00:12.000,0:00:14.256 (웃음) 0:00:14.280,0:00:17.776 저는 북텍사스 황무지의 작은 마을에서 0:00:17.800,0:00:21.136 목사인 할아버지와 [br]보안관인 아버지 밑에서 자랐습니다. 0:00:21.160,0:00:23.080 말썽피우는 일은 생각도 [br]할 수 없었습니다. 0:00:24.040,0:00:27.296 그래서 저는 미적분학 책을 [br]재미로 읽었습니다. 0:00:27.320,0:00:28.856 (웃음) 0:00:28.880,0:00:30.576 당신도 그랬잖아요. 0:00:30.600,0:00:34.336 그것으로 저는 레이저, 컴퓨터와[br]모델 로켓을 만들었지요. 0:00:34.360,0:00:37.360 그러다 보니 제 방에 [br]로켓 연료를 만들게 됐어요. 0:00:37.960,0:00:41.616 현재, 과학적 관점에서 0:00:41.640,0:00:44.896 우리는 이것을 매우 [br]나쁜 생각이라고 하죠. 0:00:44.920,0:00:46.136 (웃음) 0:00:46.160,0:00:48.336 또한 그 시절에 0:00:48.360,0:00:51.576 스탠리 큐브릭의 [br]"2001년: 스페이스 오디세이"가 0:00:51.600,0:00:53.800 개봉하였으며 제 삶은 완전히 바뀌었죠. 0:00:54.280,0:00:56.336 저는 그 영화의 모든 것이 좋았습니다. 0:00:56.360,0:00:58.896 특히 HAL 9000은 특별했죠. 0:00:58.920,0:01:00.976 HAL은 지각을 할 수 있는 컴퓨터로 0:01:01.000,0:01:03.456 디스커버리호가 지구에서 목성으로 가도록 0:01:03.480,0:01:06.016 가이드하는 역할을 했습니다. 0:01:06.040,0:01:08.096 HAL은 또한 결함이 있어서 0:01:08.120,0:01:12.400 결국 끝엔 인간의 생명을 뒤로하고 [br]주어진 임무를 택하게 됩니다. 0:01:12.840,0:01:14.936 HAL은 허구적 캐릭터이지만 0:01:14.960,0:01:16.100 그럼에도 불구하고 [br] 0:01:16.100,0:01:18.270 그는 우리에게 공포감을 선사합니다. 0:01:18.270,0:01:22.776 인류에게 냉담한 감정이 없는 [br]인공적인 지능에게 0:01:22.800,0:01:24.760 지배당하게 될 것이라는 공포죠. 0:01:25.880,0:01:28.456 저는 그러한 공포가 [br]근거 없다고 생각합니다. 0:01:28.480,0:01:31.176 확실히 우리는 인간 역사에서 0:01:31.200,0:01:32.736 매우 중요한 시기에 있습니다. 0:01:32.760,0:01:37.736 우리는 우리 몸과 정신의 [br]한계를 받아들이길 거부하며 0:01:37.760,0:01:39.456 기계를 만들어내고 있습니다. 0:01:39.480,0:01:43.096 우아하고 복잡하면서도[br]아름답고 정교하게요. 0:01:43.120,0:01:45.176 그리고 그것은 인간의 경험을 0:01:45.200,0:01:46.880 상상을 초월할만큼 확장시킬 것입니다. 0:01:47.720,0:01:50.296 저는 공군사관학교에서 0:01:50.320,0:01:52.256 현재 우주 사령부로 와서 0:01:52.280,0:01:53.746 시스템 엔지니어가 됐고 0:01:53.746,0:01:59.060 최근 나사의 화성과 관련된 [br]기술문제에 관여하고 있습니다. 0:01:59.360,0:02:01.856 오늘날 우리는[br]휴스턴 우주 비행 관제센터를 통해 0:02:01.880,0:02:05.016 달을 향한 우주 비행을 0:02:05.040,0:02:07.016 모든 측면에서 지켜볼 수 있습니다. 0:02:07.040,0:02:10.576 하지만 화성은 [br]200배 멀리 떨어져 있으며 0:02:10.600,0:02:17.036 신호가 지구에서 화성까지[br]평균적으로 13분 걸립니다. 0:02:17.036,0:02:20.400 문제가 있다면 [br]시간이 충분하지 않다는 것이지요. 0:02:20.840,0:02:23.336 그리고 합당한 기술적 방안은 0:02:23.360,0:02:25.936 우주 비행 관제 센터를 0:02:25.960,0:02:28.976 오리온 우주선 벽 안에 넣는 것이지요. 0:02:29.000,0:02:31.896 다른 흥미로운 임무 개요 아이디어는 0:02:31.920,0:02:34.816 사람이 직접 도착하기 전에 0:02:34.840,0:02:36.696 인간형 로봇을 먼저 화성에 두어 0:02:36.720,0:02:38.376 시설들을 먼저 짓게 한 후 0:02:38.400,0:02:41.760 과학팀의 협력 멤버로 두는 것입니다. 0:02:43.400,0:02:46.136 이제 제가 이것을 기술적 측면에서 보면 0:02:46.160,0:02:49.336 제가 만들어야 하는 것이 0:02:49.360,0:02:51.536 똑똑하고 협력적인 0:02:51.560,0:02:53.936 사회적 지능의 인공 지능임을 [br]알 수 있습니다. 0:02:53.960,0:02:58.256 다른 말로, 저는 살인하는 경향이 없는 0:02:58.280,0:03:00.696 HAL을 만들어야 한다는 것입니다. 0:03:00.720,0:03:02.080 (웃음) 0:03:02.920,0:03:04.736 잠시만 멈추고 생각하여봅시다. 0:03:04.760,0:03:08.656 그러한 인공지능을 만드는 것이 [br]가능할까요? 0:03:08.680,0:03:10.136 사실, 가능합니다. 0:03:10.160,0:03:11.416 다양한 측면에서 0:03:11.440,0:03:14.936 이것은 AI 요소가 있는 [br]어려운 기술 문제이지 0:03:14.936,0:03:19.616 가벼운 설계적 인공지능 [br]문제가 아닙니다. 0:03:19.640,0:03:22.296 앨런 튜링의 말을 정리하여 보자면 0:03:22.320,0:03:24.696 저는 감각이 있는 기계를 만드는 것에[br]흥미가 있는 것이 아닙니다. 0:03:24.720,0:03:26.296 저는 HAL을 만드는 것이 아닙니다. 0:03:26.320,0:03:28.736 저는 지능의 환상을 주는 0:03:28.760,0:03:31.880 간단한 두뇌를 만들려는 것일 뿐입니다. 0:03:33.000,0:03:34.880 HAL이 상영된 후에 0:03:34.880,0:03:37.656 기계적 과학과 예술은 발전해왔으며 0:03:37.680,0:03:40.896 만일 발명가 샨드라가 [br]오늘 이곳에 있었더라면 0:03:40.920,0:03:43.256 우리에게 많은 질문이 있었을 거라고[br]저는 상상합니다. 0:03:43.280,0:03:45.376 수많은 기계들중 하나의 시스템을 뽑아 0:03:45.400,0:03:49.416 데이타의 흐름을 읽고 0:03:49.440,0:03:50.896 그들의 실패를 예견하는게 0:03:50.920,0:03:53.176 정말 가능한 것일까요? 0:03:53.200,0:03:54.416 네. 0:03:54.440,0:03:57.616 우리와 자연스럽게 대화하는 시스템을[br]만들 수 있을까요? 0:03:57.640,0:03:58.856 네. 0:03:58.880,0:04:01.856 물건을 인식하고, 감정을 알아보며,[br]감정을 나타내고 0:04:01.880,0:04:05.256 게임을 하며, 입술을 읽는,[br]그런 시스템을 만들 수 있을까요? 0:04:05.280,0:04:06.496 네. 0:04:06.520,0:04:10.296 목표를 세워 그 목표를 향해 나아가며 0:04:10.296,0:04:12.296 그 과정에서 학습하는 [br]시스템을 만들 수 있을까요? 0:04:12.320,0:04:13.536 네. 0:04:13.560,0:04:16.896 마음 이론을 가지고 있는 [br]시스템을 만들 수 있을까요? 0:04:16.920,0:04:18.416 이것을 향해 우리는 나아가고 있습니다. 0:04:18.440,0:04:21.920 윤리적, 도덕적 배경을 가지고 있는 [br]시스템을 만들 수 있을까요? 0:04:22.480,0:04:24.520 우리가 해야만 하는 것입니다. 0:04:25.360,0:04:26.736 그러므로 이러한 사명을 가진 0:04:26.760,0:04:29.656 인공지능을 만드는 것이 가능하다는 것을 0:04:29.680,0:04:31.816 받아들여 봅시다. 0:04:31.840,0:04:34.376 그렇다면 이 질문을 [br]스스로에게 물어보세요. 0:04:34.400,0:04:35.856 우리는 두려워해야 할까요? 0:04:35.880,0:04:37.856 오늘날 모든 새로운 기술은 0:04:37.880,0:04:40.776 어느 정도의 두려움을 가져오지요. 0:04:40.800,0:04:42.496 우리가 처음 차를 보았을 때 0:04:42.520,0:04:46.536 사람들은 그것이 가족들을 [br]무너뜨릴까봐 걱정했었습니다. 0:04:46.560,0:04:49.256 우리가 처음 전화를 보았을 때 0:04:49.280,0:04:52.176 사람들은 그것이 대화를 없애버릴까봐[br]걱정했었습니다. 0:04:52.200,0:04:56.136 글자를 쓰는것이 보편화 되어갈 때 0:04:56.160,0:04:58.656 사람들은 기억력을 잃게 [br]될 거라고 생각했었죠. 0:04:58.680,0:05:00.736 어느 정도 맞는 말일 수 있지만 0:05:00.760,0:05:06.606 기술이 사람의 삶을 [br]더 깊게 해주는 경우도 0:05:06.606,0:05:08.480 있었다고 볼 수 있죠. 0:05:09.840,0:05:12.120 더 나아가봅시다. 0:05:13.120,0:05:17.856 저는 인공지능이 우리의 가치를[br]궁극적으로 구현할 것이라고 믿기에 0:05:17.880,0:05:21.696 인공지능의 발명을 [br]두려워하지 않습니다. 0:05:21.720,0:05:25.216 이것을 고려하세요:[br]인식적인 시스템을 만드는 것은 0:05:25.240,0:05:28.536 과거의 소프트웨어 중심 시스템을[br]만드는 것과 다릅니다. 0:05:28.560,0:05:31.016 우리는 그것을 [br]프로그램하지 않고 가르칩니다. 0:05:31.040,0:05:33.696 꽃을 알아보는것을 시스템에게 [br]가르치기 위해서는 0:05:33.720,0:05:36.736 수천 종류의 꽃을 보여주여야 합니다. 0:05:36.760,0:05:39.016 시스템에게 게임하는 법을[br]가르치기 위해서는 0:05:39.040,0:05:41.000 저도 그러고 싶고, [br]여러분도 그러겠지요. 0:05:42.600,0:05:44.640 저는 꽃을 좋아해요, 정말로요. 0:05:45.440,0:05:48.296 시스템에게 바둑같은 게임을 [br]가르치기 위해서는 0:05:48.320,0:05:50.376 수천 번의 바둑 게임을 [br]해주어야 할 것이며 0:05:50.400,0:05:52.056 그 과정에서 잘한 게임과 못한 게임을 0:05:52.080,0:05:54.496 구별하는것도 가르쳐야겠지요. 0:05:54.520,0:05:58.216 인공 지능에게 법률 보조일을 [br]시키기 위해서는 0:05:58.240,0:06:00.016 대전 뿐만이 아니라 0:06:00.040,0:06:05.586 자비와 정의등의 개념 [br]역시 가르쳐야겠지요. 0:06:06.560,0:06:09.536 과학적으로, 우리가 말하는 [br]근본적인 진실 및 0:06:09.560,0:06:11.576 중요한 사실이 여기 있습니다: 0:06:11.600,0:06:13.056 이러한 기계를 만들기 위해서는 0:06:13.080,0:06:16.496 우리는 우리의 가치를 그들에게[br]가르쳐야합니다. 0:06:16.520,0:06:19.656 그 목적을 위해서, 저는 인공지능이 0:06:19.680,0:06:23.320 잘 훈련받은 사람보다 같거나[br]더 대단하다고 믿습니다. 0:06:24.080,0:06:25.296 하지만 여러분 0:06:25.320,0:06:27.936 잘 설립된 로그 에이전트와 같은 0:06:27.960,0:06:31.296 비정부기관에 대하여 물을수 있겠죠? 0:06:31.320,0:06:35.136 저는 외로운 늑대에게 있는[br]인공지능을 두려워하지 않습니다. 0:06:35.160,0:06:39.696 분명히, 우리는 마구잡이의 폭력에서[br]우리를 보호할 수 없지만 0:06:39.720,0:06:41.856 실제적으로 보았을때 0:06:41.880,0:06:44.976 이는 근본적인 트레이닝을 요구하고 0:06:45.000,0:06:47.296 이것은 개인의 능력치 [br]바깥에 있는 일입니다. 0:06:47.320,0:06:48.536 더 나아가 이것은 0:06:48.560,0:06:51.816 인터넷 바이러스를 세상에 주입하여 0:06:51.840,0:06:54.936 하나의 버튼을 눌러[br]전세계 인터넷을 폭파시키는것보다 0:06:54.960,0:06:57.416 더 힘든 일입니다. 0:06:57.440,0:07:00.256 이제 이러한 것들은 훨씬 커졌으며 0:07:00.280,0:07:01.995 우리는 이것들이 다가오는것을[br]확실하게 볼 수 있죠. 0:07:02.520,0:07:05.576 제가 인공지능이 인류를 위협할까봐 0:07:05.600,0:07:07.560 두려워할까요? 0:07:08.280,0:07:12.656 "메트릭스", "메트로폴리스", [br]"터미네이터" 같은 0:07:12.680,0:07:15.856 서구의 영화들을 보면 0:07:15.880,0:07:18.016 영화들은 이러한 두려움을[br]다루고 있습니다. 0:07:18.040,0:07:22.336 철학자 닉보스트롬의 [br]"초지능"이라는 책에서 0:07:22.360,0:07:23.896 그는 이 주제를 다루며 0:07:23.920,0:07:27.936 초지능이 위험할 뿐만 아니라 0:07:27.960,0:07:31.816 인류에 있어서 모든 위험을[br]대변한다고 합니다. 0:07:31.840,0:07:34.056 필자의 근본적인 주장은 0:07:34.080,0:07:36.816 이러한 시스템이 결국 0:07:36.840,0:07:40.096 탐욕적으로 정보를 원하게 되어 0:07:40.120,0:07:43.016 인간의 필요와 0:07:43.040,0:07:45.656 반대되는 목적을 0:07:45.680,0:07:47.976 이루게 될거라는 것이죠. 0:07:48.000,0:07:49.856 보스트롬 교수를 [br]따르는 사람들이 많습니다. 0:07:49.880,0:07:54.200 엘론머스크와 스티븐 호킹같은 [br]사람들의 지지를 받고있죠. 0:07:54.880,0:07:57.280 천부적인 마음들에 0:07:58.160,0:08:00.176 외람된 말씀입니다만 0:08:00.200,0:08:02.456 저는 그들이 근본적으로 [br]틀렸다고 생각합니다. 0:08:02.480,0:08:05.656 보스트롬 교수의 주장에는[br]살펴보아야 할 것들이 많고 0:08:05.680,0:08:07.816 지금 이것을 다 다룰 시간은 없지만 0:08:07.840,0:08:10.536 아주 간략하게, 이것을 생각하여보세요. 0:08:10.560,0:08:14.296 많이 아는 것은 [br]많이 하는 것과 다릅니다. 0:08:14.320,0:08:16.216 HAL이 탐사팀에게 [br]위협이 되었던 이유는 0:08:16.240,0:08:20.656 단지 HAL이 탐사의 모든 측면에서[br]명령을 내렸기 때문이죠. 0:08:20.680,0:08:23.176 초지능과 관련이 있습니다. 0:08:23.200,0:08:25.696 그것은 우리 세상의 지배권을 [br]가지게 될것입니다. 0:08:25.720,0:08:28.536 초지능이 사람이 원하는것을 0:08:28.560,0:08:30.416 명령받하게 되는것은 0:08:30.440,0:08:31.816 영화 "터미네이터"의 [br]스카이넷을 통해 다뤄지는데 0:08:31.840,0:08:35.696 이는 모든 기기들이[br]전세계에 다 있는 경우입니다. 0:08:35.720,0:08:37.176 솔직하게 얘기하여보자면, 0:08:37.200,0:08:39.296 이것은 일어나지 않을 일입니다. 0:08:39.320,0:08:42.376 우리는 날씨를 조정하거나, [br]파도를 이끌거나 0:08:42.400,0:08:43.736 예측할수 없고 혼란스러운[br]사람을 명령하는 0:08:43.760,0:08:47.136 인공지능을 만들고있는것이 아닙니다. 0:08:47.160,0:08:51.056 그리고 이러한 인공지능이 있다면, 0:08:51.080,0:08:54.016 그것은 자원을 위하여 0:08:54.040,0:08:56.560 인류의 경제와 경쟁해야겠지요. 0:08:57.200,0:08:58.416 결국에는 0:08:58.440,0:08:59.680 시리에게는 말하지 마세요. 0:09:00.440,0:09:01.816 우리는 언제나 [br]전원을 빼버릴 수 있습니다. 0:09:01.840,0:09:03.960 (웃음) 0:09:05.360,0:09:07.816 우리는 기계들과 공진화하는 0:09:07.840,0:09:10.336 놀랄만한 여행을 하고 있습니다. 0:09:10.360,0:09:12.856 미래의 인간들은 0:09:12.880,0:09:15.416 오늘날의 인간들과 다르겠지요. 0:09:15.440,0:09:18.576 초지능의 출현을 지금 걱정하는것은 0:09:18.600,0:09:21.656 기술의 발전이 우리에게 0:09:21.680,0:09:24.016 관심을 가져야만하는 많은 0:09:24.040,0:09:27.056 사회적, 인류적 이슈를 가져오기에 0:09:27.080,0:09:28.720 위험한 분산이라고 볼 수 있습니다. 0:09:29.360,0:09:32.176 그럼 어떻게 해야 인간의 노동이 [br]덜 중요해진 사회를 0:09:32.200,0:09:34.536 잘 구성할 수 있을까요? 0:09:34.560,0:09:38.376 어떻게 해야 차이점을 존중하며 0:09:38.400,0:09:40.176 교육과 이해를 세계적으로 [br]가져올 수 있을까요? 0:09:40.200,0:09:44.456 인식적인 건강관리 시스템으로[br]어떻게 인간의 삶을 발전시킬까요? 0:09:44.480,0:09:47.336 어떻게 기술적인 것들을 이용하여 0:09:47.360,0:09:49.120 우리가 별을 따도록 도울 수 있을까요? 0:09:49.760,0:09:51.800 그것이 이 일의 신나는 부분입니다. 0:09:52.400,0:09:54.736 이제 우리는 0:09:54.760,0:09:57.776 기계를 통한 인류 [br]발전을 이룰 수 있으며 0:09:57.776,0:10:01.436 지금 이곳에서 우리는 [br]시작하고 있습니다. 0:10:02.280,0:10:03.496 감사합니다. 0:10:03.520,0:10:07.806 (박수)