1 00:00:00,832 --> 00:00:02,111 여러분께 묻고 싶습니다. 2 00:00:03,422 --> 00:00:05,365 컴퓨터가 시를 쓸 수 있을까요? 3 00:00:06,959 --> 00:00:09,036 도발적인 질문이지만 4 00:00:09,715 --> 00:00:11,233 잠시 생각해 보신다면 5 00:00:11,267 --> 00:00:14,047 다른 의문이 갑자기 떠오를 것입니다. 6 00:00:14,769 --> 00:00:16,150 컴퓨터가 뭘까? 7 00:00:16,710 --> 00:00:18,285 시는 또 뭐지? 8 00:00:18,707 --> 00:00:20,396 창의성은 뭘까? 9 00:00:21,650 --> 00:00:22,822 하지만 이런 질문들은 10 00:00:22,870 --> 00:00:25,940 인류가 평생을 바쳐 답을 찾아가는 질문들이지 11 00:00:25,964 --> 00:00:28,188 단순히 TED 강연 한 번으로 답할 수 있는게 아닙니다. 12 00:00:28,188 --> 00:00:30,633 그래서, 우리는 다른 방법으로 접근해 보려합니다. 13 00:00:30,697 --> 00:00:32,800 여기, 시가 두 편 있습니다. 14 00:00:33,839 --> 00:00:36,115 하나는 사람이 썼고 15 00:00:36,139 --> 00:00:38,241 다른 하나는 컴퓨터가 썼습니다. 16 00:00:38,754 --> 00:00:41,164 두 시를 보고 각각 누가 지었는지 알아내 보세요. 17 00:00:41,858 --> 00:00:43,014 시작합니다! 18 00:00:43,038 --> 00:00:47,094 시 1: 작은 파리야 / 너의 여름날 놀이를 / 내 부주의한 손이 / 쓸어 버렸구나. 19 00:00:47,118 --> 00:00:50,512 나는 너와 같은 파리가 아니냐? 아니면 너는 / 나와 같은 사람이 아니냐? 20 00:00:50,536 --> 00:00:53,835 시 2 : 우리는 느낄 수 있네 / 네 삶의 아침을 통한 행동가를 21 00:00:53,859 --> 00:00:56,650 잠시 멈춰서 보시오, 교황이여. 나는 싫어하네/모든 아무 밤도 시작하는/위대한 (...) 22 00:00:56,870 --> 00:00:59,049 좋아요, 시간이 다 되었습니다. 23 00:00:59,513 --> 00:01:03,609 1번 시가 사람이 쓴 시라고 생각하신다면 손을 들어보세요. 24 00:01:05,547 --> 00:01:07,037 좋아요, 대부분이 손을 드셨네요. 25 00:01:07,061 --> 00:01:10,084 그러면 2번을 사람이 썼다고 생각하시는 분 손 들어보세요. 26 00:01:11,172 --> 00:01:12,362 대담하신 분들이네요. 27 00:01:12,855 --> 00:01:17,140 첫 번째 시는 시인 윌리엄 블레이크의 시입니다. 28 00:01:17,784 --> 00:01:20,733 두 번째 시는 알고리즘이 썼습니다. 29 00:01:20,757 --> 00:01:24,449 제 페이스북 피드에 있는 모든 글자들을 30 00:01:24,473 --> 00:01:27,236 알고리즘을 통해 재배열하는 방법이 이용됐죠. 31 00:01:27,260 --> 00:01:30,850 그 방법에 대해서는 조금 있다가 설명해 드리도록 하겠습니다. 32 00:01:31,218 --> 00:01:33,622 그럼, 다른 문제를 내 보겠습니다. 33 00:01:34,398 --> 00:01:36,491 이번에도, 시들을 전부 다 읽어 볼 시간은 없습니다. 34 00:01:36,515 --> 00:01:38,127 그냥 여러분들의 직감을 믿으시면 됩니다. 35 00:01:38,151 --> 00:01:42,196 시 1 : 사자는 포효하고 개는 짖네. 흥미롭고 매력적인 것은 36 00:01:42,220 --> 00:01:46,523 새는 포효하거나 짖지 않고 나는 것이네. 동물들의 놀라운 이야기는 37 00:01:46,547 --> 00:01:50,607 내 꿈 속에 나오고 나는 그들을 노래하네 내가 지치거나 피곤하지 않다면. 38 00:01:50,631 --> 00:01:54,616 시 2 : 오! 캥거루, 세퀸장식, 초콜릿 소다! / 너는 참 아름답구나! 39 00:01:54,640 --> 00:01:58,412 진주/ 하모니카, 대추, 아스피린! 모두/ 사람들이 말하는 것이네. (...) 40 00:01:58,492 --> 00:02:00,180 좋아요 시간이 다 되었네요. 41 00:02:00,204 --> 00:02:03,341 첫 번째 시가 사람이 쓴 시라고 생각하신다면 42 00:02:03,365 --> 00:02:04,580 손을 들어주세요. 43 00:02:05,687 --> 00:02:06,841 좋습니다. 44 00:02:06,865 --> 00:02:09,540 그럼 두 번째 시가 사람이 쓴 시라고 생각하시는 분 45 00:02:09,564 --> 00:02:10,719 손을 들어주세요. 46 00:02:11,779 --> 00:02:15,589 절반 정도로 나뉘었네요. 47 00:02:16,157 --> 00:02:17,593 이번 건 좀 더 어러우셨을겁니다. 48 00:02:17,617 --> 00:02:19,329 답을 알려드리죠. 49 00:02:19,353 --> 00:02:22,836 첫 번째 시는 랙터라고 불리는 알고리즘에 의해 지어졌습니다. 50 00:02:22,860 --> 00:02:25,862 1970년대에 만들어진 알고리즘이죠. 51 00:02:25,886 --> 00:02:29,075 두 번째 시는 프랭크 오하라라는 사람이 지었습니다. 52 00:02:29,099 --> 00:02:31,767 제가 가장 좋아하는 '인간' 시인 중 한 명이죠. 53 00:02:32,631 --> 00:02:35,689 (웃음) 54 00:02:36,046 --> 00:02:39,274 지금까지 우리는 시에 대한 '튜링 테스트'를 해 보았습니다. 55 00:02:40,018 --> 00:02:44,565 '튜링 테스트'는 1950년에 앨런 튜링이라는사람에 의해 56 00:02:44,589 --> 00:02:46,153 아래의 질문에 답하려고 제안되었습니다. 57 00:02:46,177 --> 00:02:47,814 '컴퓨터가 생각을 할 수 있는가?' 58 00:02:48,245 --> 00:02:51,645 앨런 튜링은 만약 컴퓨터가 사람과 텍스트를 기반으로 대화를 할 때 59 00:02:51,649 --> 00:02:54,117 상대방이 자신이 인간과 대화하고 있는지 60 00:02:54,141 --> 00:02:56,911 아니면 컴퓨터와 대화하고 있는지를 알아내지 못할 정도의 61 00:02:56,935 --> 00:02:59,901 언어 구사력을 가질 수 있다면 62 00:02:59,925 --> 00:03:02,781 컴퓨터는 지능을 가질 수 있다고 믿었습니다. 63 00:03:03,270 --> 00:03:06,565 그래서 2013년, 저와 제 친구 벤자민 럴드는 64 00:03:06,589 --> 00:03:09,577 시에 대한 '온라인 튜링 테스트 ' 를 만들었습니다. 65 00:03:09,601 --> 00:03:10,512 이름은 bot or not 이고 66 00:03:10,512 --> 00:03:12,946 여러분 혼자 해 볼 수도 있습니다. 67 00:03:12,970 --> 00:03:15,221 하지만, 기본적으로, 그것은 우리가 조금 전 한 게임과 같습니다. 68 00:03:15,245 --> 00:03:16,773 여러분은 시를 보게 될 것이고 69 00:03:16,797 --> 00:03:18,955 그 시를 사람이 지었는지, 컴퓨터가 지었는지 모릅니다. 70 00:03:18,955 --> 00:03:20,121 그걸 추측해야만 하죠. 71 00:03:20,599 --> 00:03:24,230 수많은 사람들이 테스트에 참가하였습니다. 72 00:03:24,254 --> 00:03:25,703 테스트 결과가 나왔죠. 73 00:03:25,727 --> 00:03:27,155 결과는 어땠을까요? 74 00:03:27,704 --> 00:03:30,583 글쎄요, 튜링은 만약 컴퓨터가 30% 확률로 75 00:03:30,607 --> 00:03:33,626 자신이 사람인 것처럼 상대방을 속일 수 있다면 76 00:03:33,650 --> 00:03:36,047 그 컴퓨터는 지능에 대한 튜링테스트를 통과한 것이라고 말했습니다. 77 00:03:36,625 --> 00:03:39,063 'bot or not' 프로그램 데이터 베이스에는 78 00:03:39,087 --> 00:03:42,066 65% 정도의 확룰로 사람들을 속인 79 00:03:42,090 --> 00:03:43,485 시들이 존재합니다. 80 00:03:43,959 --> 00:03:46,776 자, 질문에 대한 답이 나온 것 같군요. 81 00:03:47,546 --> 00:03:49,894 '튜링 테스트'의 논리에 따르면 82 00:03:49,918 --> 00:03:51,846 컴퓨터는 시를 쓸 수 있을까요? 83 00:03:51,870 --> 00:03:54,221 네, 물론 쓸 수 있습니다. 84 00:03:55,782 --> 00:03:59,008 하지만 이 대답이 기분이 좀 나쁘시다면 85 00:03:59,008 --> 00:04:00,099 괜찮습니다, 그럴 수 있어요. 86 00:04:00,189 --> 00:04:02,019 만약 본능적으로 수많은 반응들이 나온다면 87 00:04:02,053 --> 00:04:05,258 그것도 괜찮습니다. 왜냐하면 이게 끝이 아니기 때문이죠. 88 00:04:06,594 --> 00:04:08,918 그럼 마자막 테스트를 해 봅시다. 89 00:04:10,000 --> 00:04:11,234 다시 한번, 시를 읽으시고 90 00:04:11,254 --> 00:04:13,683 어떤 것이 사람이 쓴 시인지 말해 주세요. 91 00:04:13,707 --> 00:04:17,425 시 1 : 레그 깃발은 예쁜 깃발. / 그리고 리본들. 92 00:04:17,449 --> 00:04:21,770 깃발의 리본들/ 착용하는 물건/ 착용하는 물건들인 이유. (...) 93 00:04:21,794 --> 00:04:25,712 시 2 : 다친 사슴이 가장 높이 뛴다, / 수선화의 소리가 들린다. 94 00:04:25,736 --> 00:04:29,182 지금까지 깃발의 소리를 듣는다 / 나는 사냥꾼이 말하는 소리를 듣는다. 95 00:04:29,206 --> 00:04:32,042 이것은 죽음의 황홀함, / 그리고 나면 거의 끝난다. 96 00:04:32,042 --> 00:04:34,531 좋아요 시간이 다 되었네요. 97 00:04:34,555 --> 00:04:38,392 1번 시가 사람이 썼다고 생각하시면 손을 들어보세요. 98 00:04:39,973 --> 00:04:43,011 그럼 두 번째 시라고 생각하시면 손 들어주세요. 99 00:04:43,035 --> 00:04:45,366 오, 손을 많이 드셨네요 100 00:04:46,327 --> 00:04:49,295 그럼 여러분들은 첫 번째 시가 101 00:04:49,319 --> 00:04:53,312 사람 시인인 거트루드 슈타인이 썼다는 걸 알면 놀라시겠네요. 102 00:04:54,100 --> 00:04:59,138 그리고 두 번째 시는 RKCP라고 불리는 알고리즘이 썼습니다. 103 00:04:59,162 --> 00:05:02,481 자 그럼 이야기를 이어가기 전에, 제가 짧고 단순하게 104 00:05:02,505 --> 00:05:04,286 어떻게 RKCP가 작동하는지 알려드리겠습니다. 105 00:05:04,873 --> 00:05:08,673 RKCP는 레이 커즈와일이 고안한 알고리즘입니다. 106 00:05:08,687 --> 00:05:10,643 그는 구글에서 엔지니어 이사를 맡고 있고 107 00:05:10,643 --> 00:05:13,353 인공 지능에 대한 확고한 믿음을 가지고 있죠. 108 00:05:13,822 --> 00:05:17,813 RKCP에 원시 텍스트가 투입되면 109 00:05:17,837 --> 00:05:22,306 RKCP는 그것을 분석해 어떤 형식으로 쓰여졌는지 알아낸 후 110 00:05:22,330 --> 00:05:24,278 원시 텍스트을 모방하여 111 00:05:24,302 --> 00:05:26,830 새 문장을 만들어 냅니다. 112 00:05:26,854 --> 00:05:28,967 우리가 전에 보았던 시들도 모두 그렇게 만들어졌습니다. 113 00:05:28,991 --> 00:05:31,616 여러분들이 모두 사람이 쓴 것이라고 생각했던 두 번째 시 또한 114 00:05:31,640 --> 00:05:34,240 시인 에밀이 디킨슨의 수많은 시들이 115 00:05:34,240 --> 00:05:35,249 투입되었습니다. 116 00:05:35,273 --> 00:05:37,462 RKCP는 그녀의 문체를 알아냈고 117 00:05:37,486 --> 00:05:38,651 그 문체를 학습하여 118 00:05:38,675 --> 00:05:42,933 같은 형식의 문체를 이용해 시를 재생산했습니다. 119 00:05:44,732 --> 00:05:46,910 하지만 RKCP에 대해 알아야 할 중요한 것은 120 00:05:46,934 --> 00:05:49,772 RKCP는 시에 사용되는 어휘들의 뜻을 모른다는 것입니다. 121 00:05:50,359 --> 00:05:52,635 언어는 단지 원자재일 뿐입니다. 122 00:05:52,659 --> 00:05:54,819 중국어가 될 수도, 스웨덴어가 될 수도, 123 00:05:54,843 --> 00:05:59,022 여러분의 페이스북 피드에서 수집된 언어일 수도 있습니다. 124 00:05:59,046 --> 00:06:00,698 그건 단지 원자재일 뿐이죠. 125 00:06:01,380 --> 00:06:05,587 그럼에도 불구하고, RKCP는 사람인 거트루드 슈타인의 시보다도 126 00:06:05,587 --> 00:06:07,408 사람이 쓴 것 같은 127 00:06:07,452 --> 00:06:09,605 시를 창조해 낼 수 있습니다. 128 00:06:10,846 --> 00:06:14,918 우리는 지금까지 '튜링테스트'를 역으로 생각해 보았습니다. 129 00:06:15,940 --> 00:06:21,119 그러니까, 사람인 거트루드 슈타인은 130 00:06:21,143 --> 00:06:24,881 자신의 시를 컴퓨터가 썼다고 믿게 131 00:06:24,905 --> 00:06:26,731 대다수의 사람을 속인 겁니다. 132 00:06:27,176 --> 00:06:31,317 그러므로, '튜링테스트'를 역으로 생각해 본 결과는, 133 00:06:31,341 --> 00:06:33,257 거트루드 슈타인이 컴퓨터라는 거네요. 134 00:06:33,281 --> 00:06:34,743 (웃음) 135 00:06:35,358 --> 00:06:36,652 혼란스러우신가요? 136 00:06:37,193 --> 00:06:38,708 이 정도면 충분한 것 같습니다. 137 00:06:39,546 --> 00:06:43,662 지금까지 우리는 사람처럼 글을 쓰는 사람도 138 00:06:43,686 --> 00:06:46,797 컴퓨터처럼 글을 쓰는 컴퓨터도 139 00:06:46,821 --> 00:06:49,876 사람처럼 글을 쓰는 컴퓨터도 140 00:06:49,900 --> 00:06:53,532 심지어 아마 가장 혼란스러우시겠지만 141 00:06:53,556 --> 00:06:55,931 컴퓨터처럼 글을 쓰는 사람도 보았습니다. 142 00:06:56,938 --> 00:06:58,704 그래서 우리가 이것들부터 얻을 수 있는게 도대체 뭘까요? 143 00:06:59,611 --> 00:07:02,768 윌리엄 블레이크가 거트루드 슈타인보다 144 00:07:02,792 --> 00:07:04,041 더 인간답다고 해야 하나요? 145 00:07:04,065 --> 00:07:07,111 아니면, 거트루드 슈타인이 윌리엄 블레이크보다 더 컴퓨터답다고요? 146 00:07:07,135 --> 00:07:08,687 (웃음) 147 00:07:08,711 --> 00:07:11,034 이 질문들은 거의 2년 동안 제가 제 자신에게 148 00:07:11,058 --> 00:07:12,523 묻고 있는 질문입니다. 149 00:07:12,547 --> 00:07:14,856 그리고 저는 답을 얻지 못했습니다. 150 00:07:14,880 --> 00:07:17,210 하지만 제가 한 질문들은 인간과 기술간의 151 00:07:17,234 --> 00:07:19,768 관계에 대한 큰 통찰들입니다. 152 00:07:20,999 --> 00:07:24,608 제 첫 번째 통찰은, 어떤 이유에선지 153 00:07:24,632 --> 00:07:27,743 우리는 시를 '인간이라는 것'과 연관시킨다는 것입니다. 154 00:07:28,197 --> 00:07:31,912 우리가 '컴퓨터가 시를 쓸 수 있을까?' 라고 질문하는 것은 155 00:07:31,936 --> 00:07:33,129 다음 질문들과 같습니다. 156 00:07:33,153 --> 00:07:34,951 '인간이라는 것'은 무엇인가?' 157 00:07:34,975 --> 00:07:38,147 '인간이라는 범주에 어떤 경계를 세워야 하는가?' 158 00:07:38,171 --> 00:07:41,829 어떻게 '누구 또는 무엇'이 이 범주에 속한다고 말할 수 있는가? ' 159 00:07:42,376 --> 00:07:45,727 이건 본질적으로 철학적 질문이라고 저는 믿습니다. 160 00:07:45,751 --> 00:07:47,980 그리고 이 질문들은 '튜링 테스트' 처럼 '예' 또는 '아니요' 테스트를 통해 161 00:07:48,004 --> 00:07:49,331 답해질 수 있는 것이 아닙니다. 162 00:07:49,805 --> 00:07:52,850 저는 또한 앨런 튜링이 이것을 이해했었으며 163 00:07:52,874 --> 00:07:56,179 1950년, 그가 '철학적 도발'로써 이 테스트를 고안했고, 164 00:07:56,203 --> 00:07:59,005 실행했다고 믿습니다. 165 00:08:01,124 --> 00:08:06,665 제 두번째 통찰에 대해 설명하자면, 우리는 시에 대해 튜링테스트를 할 때 166 00:08:06,689 --> 00:08:10,149 컴퓨터의 역량을 시험하고 있는 것이 아닙니다. 167 00:08:10,173 --> 00:08:13,066 왜냐하면 시 - 생산 알고리즘들은 168 00:08:13,090 --> 00:08:17,653 매우 간단하고, 1950년대 정도부터 존재했으니까요. 169 00:08:19,055 --> 00:08:22,173 우리가 '튜링 테스트'를 통해 정말로 하고 있는 것은 170 00:08:22,197 --> 00:08:26,812 '무엇이 인간성을 구성하는가'에 대한 의견을 모으는 것입니다. 171 00:08:28,313 --> 00:08:31,042 제가 알아낸 것은 172 00:08:31,066 --> 00:08:34,038 우리가 좀 전에 알아낸 것과 같습니다. 173 00:08:34,062 --> 00:08:36,540 우리는 윌리엄 블레이크가 거트루드 슈타인보다 174 00:08:36,564 --> 00:08:38,129 더 인간답다고 말했었습니다. 175 00:08:38,153 --> 00:08:40,615 물론, 이건 정말로 윌리엄 블레이크가 176 00:08:40,639 --> 00:08:42,467 더 인간답다는 의미는 아닙니다. 177 00:08:42,491 --> 00:08:44,818 또는, 거트루드 슈타인이 더 컴퓨터답다는 의미도 아닙니다. 178 00:08:45,533 --> 00:08:50,247 이건 단순히 '인간'이라는 범주가 불안정하다는 뜻입니다. 179 00:08:51,450 --> 00:08:53,524 이것은 제가 '인간이라는 것' 이 180 00:08:53,548 --> 00:08:56,311 차갑고, 딱딱한 사실이 아닌 181 00:08:56,832 --> 00:08:59,964 우리의 의견들로 구성되어 있으며, 시간이 지남에 따라 182 00:08:59,988 --> 00:09:02,843 변하는 것이라는 것을 이해하게 해 주었습니다. 183 00:09:04,671 --> 00:09:08,054 제 마지막 통찰은 '컴퓨터'라는 것이 184 00:09:08,054 --> 00:09:13,180 우리가 보여주는 인간의 생각을 반영하는 '거울' 처럼 185 00:09:13,204 --> 00:09:14,579 작동한다는 것입니다. 186 00:09:14,958 --> 00:09:16,842 우리가 에밀리 디킨슨을 보여주면 187 00:09:16,866 --> 00:09:19,187 그것은 우리에게 에밀리 디킨슨을 돌려줍니다. 188 00:09:19,768 --> 00:09:21,602 우리가 윌리엄 블레이크를 보여주면 189 00:09:21,626 --> 00:09:23,911 그것은 우리에게 윌리엄 블레이크를 반영해 줍니다. 190 00:09:23,935 --> 00:09:25,774 우리가 거트루드 슈타인을 보여주면 191 00:09:25,798 --> 00:09:28,268 우리는 거트루드 슈타인을 다시 받습니다. 192 00:09:29,083 --> 00:09:31,451 어떠한 다른 기술보다도 193 00:09:31,475 --> 00:09:36,640 컴퓨터는 우리가 가르치는 인간의 생각을 반영하는 거울입니다. 194 00:09:38,061 --> 00:09:40,348 여러분은 아마도 최근 들어 195 00:09:40,372 --> 00:09:43,234 인공지능에 대한 많은 이야기를 들었을 겁니다. 196 00:09:44,694 --> 00:09:47,524 그리고 대부분 대화의 주제는 197 00:09:48,292 --> 00:09:49,481 우리가 만들 수 있을까? 198 00:09:50,383 --> 00:09:53,518 우리가 지능적인 컴퓨터를 만들 수 있을까? 199 00:09:53,542 --> 00:09:56,305 우리가 창조적인 컴퓨터를 만들 수 있을까? 200 00:09:56,329 --> 00:09:59,342 우리는 끝없이 인간 같은 컴퓨터를 만들 수 있을까?' 201 00:09:59,342 --> 00:10:01,190 라고 질문하는 것처럼 보입니다. 202 00:10:01,961 --> 00:10:03,517 하지만 우리는 방금 203 00:10:03,541 --> 00:10:06,629 '인간이라는 것'이 과학적 사실이 아닌 204 00:10:06,653 --> 00:10:10,183 영원히 가변적인, 시간이 지남에 따라 변해가는 205 00:10:10,207 --> 00:10:12,738 사슬과 같은 생각이라는 사실을 보았습니다. 206 00:10:12,762 --> 00:10:15,914 그러므로 미래에 우리가 인공지능에 대해 207 00:10:15,938 --> 00:10:18,324 고심하기 시작할 때 208 00:10:18,348 --> 00:10:20,253 우리는 단지 우리자신에게 '우리가 만들 수 있을까?' 209 00:10:20,277 --> 00:10:21,645 라고 질문해서는 안됩니다. 210 00:10:21,669 --> 00:10:23,563 우리는 자신에게 이 질문을 해야 합니다. 211 00:10:23,587 --> 00:10:27,710 '우리는 컴퓨터가 인간의 어떤 생각을 반영해 나타내기를 원하는가? ' 212 00:10:27,820 --> 00:10:30,513 이것은 본질적으로 철학적 생각이며 213 00:10:30,537 --> 00:10:33,534 소프트웨어 만으로는 답할 수 없는 질문입니다. 214 00:10:33,558 --> 00:10:38,535 저는 '인간'이라는 종의 존재적 반영의 순간이 필요하다고 믿습니다. 215 00:10:39,040 --> 00:10:40,193 감사합니다. 216 00:10:40,217 --> 00:10:42,912 (박수)