1 00:00:00,750 --> 00:00:04,660 在我还是孩子的时候 , 我是一个典型的书呆子。 2 00:00:05,440 --> 00:00:07,546 我猜你们的一部分人和我一样。 3 00:00:07,546 --> 00:00:08,776 (笑声) 4 00:00:08,776 --> 00:00:12,026 还有你,那位先生,笑得最大声, 说不定你现在还是呢。 5 00:00:12,026 --> 00:00:14,306 (笑声) 6 00:00:14,306 --> 00:00:17,826 我成长在德克萨斯州北部 荒凉平原上的一个小镇。 7 00:00:17,826 --> 00:00:21,166 我的爸爸是警长,爷爷是一位牧师, 8 00:00:21,166 --> 00:00:23,800 所以自找麻烦从来不是一个好的选项。 9 00:00:24,040 --> 00:00:27,336 所以我开始看有关 微积分的书来打发时间。 10 00:00:27,336 --> 00:00:28,916 (笑声) 11 00:00:28,916 --> 00:00:30,626 你也是这样。 12 00:00:30,626 --> 00:00:34,386 于是我学着制作了一个激光器, 一台电脑,和一个火箭模型, 13 00:00:34,386 --> 00:00:37,360 并且在自己的卧室制取火箭燃料。 14 00:00:37,960 --> 00:00:41,656 现在,从科学的角度而言, 15 00:00:41,656 --> 00:00:44,936 我们把这个叫做 一个糟糕透顶的主意。 16 00:00:44,936 --> 00:00:46,176 (笑声) 17 00:00:46,176 --> 00:00:48,376 在差不多同一时间, 18 00:00:48,376 --> 00:00:51,616 Stanley Kubrick的 “2001:太空漫游”上映了, 19 00:00:51,616 --> 00:00:54,360 我的生活从此改变。 20 00:00:54,360 --> 00:00:56,366 我喜欢关于那部电影的一切, 21 00:00:56,366 --> 00:00:58,936 特别是 HAL 9000。 22 00:00:58,936 --> 00:01:01,016 HAL是一台有情感的电脑, 23 00:01:01,016 --> 00:01:03,496 为引导“发现一号”飞船从地球 24 00:01:03,496 --> 00:01:06,066 前往木星而设计出来。 25 00:01:06,066 --> 00:01:08,136 HAL 也是一个有缺陷的角色, 26 00:01:08,136 --> 00:01:13,020 因为在结尾他将任务的 价值置于生命之上。 27 00:01:13,020 --> 00:01:14,996 HAL 是一个虚构的角色, 28 00:01:14,996 --> 00:01:17,656 但尽管如此,他挑战了我们的恐惧, 29 00:01:17,656 --> 00:01:19,786 被一些冷漠无情的 30 00:01:19,786 --> 00:01:22,856 人工智能(AI) 31 00:01:22,856 --> 00:01:24,760 所统治的恐惧。 32 00:01:25,880 --> 00:01:28,450 但我相信这些恐惧只是杞人忧天。 33 00:01:28,450 --> 00:01:31,080 的确,我们正处于人类历史上 34 00:01:31,080 --> 00:01:32,720 一个值得铭记的时间点, 35 00:01:32,720 --> 00:01:37,720 不甘被自身肉体和头脑所局限, 36 00:01:37,720 --> 00:01:39,440 我们正在制造 37 00:01:39,440 --> 00:01:43,146 那些可以通过我们无法想象的方式 38 00:01:43,146 --> 00:01:45,226 来拓展人类体验的机器, 39 00:01:45,226 --> 00:01:46,880 它们精美,复杂,而且优雅。 40 00:01:47,720 --> 00:01:50,336 我在空军学院 41 00:01:50,336 --> 00:01:52,286 和航天司令部工作过, 42 00:01:52,286 --> 00:01:54,016 现在是一个系统工程师。 43 00:01:54,016 --> 00:01:56,796 最近我碰到了一个和 NASA火星任务相关的 44 00:01:56,796 --> 00:01:59,386 工程问题。 45 00:01:59,386 --> 00:02:01,946 当前,前往月球的宇宙飞行, 46 00:02:01,946 --> 00:02:05,046 我们可以依靠休斯顿的指挥中心 47 00:02:05,046 --> 00:02:07,036 来密切关注飞行的各个方面。 48 00:02:07,046 --> 00:02:10,656 但是,火星相比而言 多出了200倍的距离, 49 00:02:10,656 --> 00:02:13,906 这使得一个信号从地球到火星 50 00:02:13,906 --> 00:02:17,016 平均要花费13分钟。 51 00:02:17,016 --> 00:02:20,400 如果有了麻烦, 我们并没有足够的时间来解决。 52 00:02:20,840 --> 00:02:23,376 所以一个可靠的工程解决方案 53 00:02:23,376 --> 00:02:25,956 促使我们把一个指挥中枢 54 00:02:25,960 --> 00:02:29,046 放在“猎户星”飞船之中。 55 00:02:29,046 --> 00:02:31,936 在任务档案中的另一个创意 56 00:02:31,936 --> 00:02:34,846 是在人类抵达火星之前,把人形机器人 57 00:02:34,846 --> 00:02:36,786 先一步放在火星表面, 58 00:02:36,786 --> 00:02:38,370 它们可以先建造据点, 59 00:02:38,370 --> 00:02:41,760 然后作为科学团队的合作伙伴驻扎。 60 00:02:43,400 --> 00:02:46,186 当我从工程师的角度看待这个想法, 61 00:02:46,186 --> 00:02:49,356 对于建造一个聪明,懂得合作, 62 00:02:49,360 --> 00:02:51,566 擅长社交的人工智能的需求 63 00:02:51,566 --> 00:02:53,936 是十分明显的。 64 00:02:53,940 --> 00:02:58,296 换句话说,我需要建造一个和HAL一样, 65 00:02:58,296 --> 00:03:00,746 但是没有谋杀倾向的机器。 66 00:03:00,746 --> 00:03:02,080 (笑声) 67 00:03:02,920 --> 00:03:04,766 待会儿再回到这个话题。 68 00:03:04,766 --> 00:03:08,686 真的有可能打造一个 类似的人工智能吗? 69 00:03:08,686 --> 00:03:10,136 是的,当然可以。 70 00:03:10,140 --> 00:03:11,416 在许多方面, 71 00:03:11,420 --> 00:03:13,400 一个困难的工程问题来自于 72 00:03:13,400 --> 00:03:14,880 AI的各个零件, 73 00:03:14,880 --> 00:03:19,590 而不是什么琐碎的AI问题。 74 00:03:19,590 --> 00:03:22,270 借用Alan Turing的话来说, 75 00:03:22,270 --> 00:03:24,690 我没有兴趣建造一台有情感的机器。 76 00:03:24,690 --> 00:03:26,296 我不是要建造HAL。 77 00:03:26,300 --> 00:03:28,710 我只想要一个简单的大脑, 78 00:03:28,710 --> 00:03:31,880 一个能让你以为它有智能的东西。 79 00:03:33,000 --> 00:03:36,110 自从HAL登上荧幕, 关于编程的技术和艺术 80 00:03:36,110 --> 00:03:37,620 已经发展了许多, 81 00:03:37,620 --> 00:03:40,870 我能想象如果它的发明者 Chandra博士今天在这里的话, 82 00:03:40,870 --> 00:03:43,250 他会有很多的问题问我们。 83 00:03:43,250 --> 00:03:45,360 我们真的可能 84 00:03:45,360 --> 00:03:49,410 用一个连接了无数设备的系统, 85 00:03:49,410 --> 00:03:50,870 通过读取数据流, 86 00:03:50,870 --> 00:03:53,140 来预测它们的失败并提前行动吗? 87 00:03:53,140 --> 00:03:54,350 是的。 88 00:03:54,350 --> 00:03:57,560 我们能建造一个和人类 用语言交流的系统吗? 89 00:03:57,560 --> 00:03:58,480 能。 90 00:03:58,480 --> 00:04:01,850 我们能够打造一个能 辨识目标,鉴别情绪, 91 00:04:01,850 --> 00:04:05,230 表现自身情感,打游戏, 甚至读唇的系统吗? 92 00:04:05,230 --> 00:04:06,330 可以。 93 00:04:06,330 --> 00:04:08,600 我们可以建造一个能设定目标, 94 00:04:08,600 --> 00:04:12,230 通过各种达成目的的 方法来学习的系统吗? 95 00:04:12,230 --> 00:04:13,420 也可以。 96 00:04:13,420 --> 00:04:16,790 我们可以建造一个类似人脑的系统吗? 97 00:04:16,790 --> 00:04:18,330 这是我们正在努力做的。 98 00:04:18,330 --> 00:04:21,920 我们可以建造一个有道德 和感情基础的系统吗? 99 00:04:22,480 --> 00:04:24,520 这是我们必须要学习的。 100 00:04:25,360 --> 00:04:26,700 总而言之, 101 00:04:26,700 --> 00:04:29,620 建造一个类似的用于这类任务的 102 00:04:29,620 --> 00:04:31,780 人工智能是可行的。 103 00:04:31,780 --> 00:04:34,330 另一个你必须扪心自问的问题是, 104 00:04:34,330 --> 00:04:35,830 我们应该害怕它吗? 105 00:04:35,830 --> 00:04:37,830 毕竟,每一种新技术 106 00:04:37,830 --> 00:04:40,730 都给我们带来某种程度的不安。 107 00:04:40,730 --> 00:04:42,470 我们第一次看见汽车的时候, 108 00:04:42,470 --> 00:04:46,510 人们悲叹我们会看到家庭的毁灭。 109 00:04:46,510 --> 00:04:49,250 我们第一次看见电话的时候, 110 00:04:49,250 --> 00:04:52,150 人们担忧这会破坏所有的文明交流。 111 00:04:52,150 --> 00:04:56,110 在某个时间点我们看到书写文字的蔓延, 112 00:04:56,110 --> 00:04:58,650 人们认为我们会丧失记忆的能力。 113 00:04:58,650 --> 00:05:00,710 这些在某个程度上是合理的, 114 00:05:00,710 --> 00:05:03,160 但也正是这些技术 115 00:05:03,160 --> 00:05:06,540 给人类的生活在某些方面 116 00:05:06,540 --> 00:05:08,480 带来了前所未有的体验。 117 00:05:09,840 --> 00:05:12,120 我们再稍稍扩展一下。 118 00:05:13,120 --> 00:05:17,840 我并不畏惧这类人工智能的诞生, 119 00:05:17,840 --> 00:05:21,696 因为它最终会融入我们的部分价值观。 120 00:05:21,700 --> 00:05:25,210 想想这个:建造一个认知系统 121 00:05:25,210 --> 00:05:28,576 与建造一个以传统的软件为主的 系统有着本质的不同。 122 00:05:28,576 --> 00:05:31,010 我们不编译它们。我们教导它们。 123 00:05:31,010 --> 00:05:33,670 为了教会系统如何识别花朵, 124 00:05:33,670 --> 00:05:36,730 我给它看了上千种我喜欢的花。 125 00:05:36,730 --> 00:05:39,010 为了教会系统怎么打游戏—— 126 00:05:39,010 --> 00:05:41,000 当然,我会。你们也会。 127 00:05:42,600 --> 00:05:44,640 我喜欢花。这没什么。 128 00:05:45,440 --> 00:05:48,280 为了教会系统如何玩像围棋一样的游戏, 129 00:05:48,280 --> 00:05:50,370 我玩了许多围棋的游戏, 130 00:05:50,370 --> 00:05:52,030 但是在这个过程中 131 00:05:52,030 --> 00:05:54,470 我也教会它如何分别差游戏和好游戏。 132 00:05:54,470 --> 00:05:58,210 如果我想要一个人工智能法律助手, 133 00:05:58,210 --> 00:06:00,016 我会给它一些法律文集, 134 00:06:00,020 --> 00:06:02,896 但同时我会将 怜悯和正义 135 00:06:02,900 --> 00:06:06,500 也是法律的一部分 这种观点融入其中。 136 00:06:06,500 --> 00:06:09,800 用一个术语来解释, 就是我们所说的真相, 137 00:06:09,800 --> 00:06:11,550 而关键在于: 138 00:06:11,550 --> 00:06:13,106 为了制造这些机器, 139 00:06:13,106 --> 00:06:16,546 我们正教给它们我们的价值观。 140 00:06:16,546 --> 00:06:19,650 正因如此,我相信一个人工智能 141 00:06:19,650 --> 00:06:23,320 绝不逊于一个经过良好训练的人类。 142 00:06:24,080 --> 00:06:25,346 但是,你或许会问, 143 00:06:25,346 --> 00:06:27,976 要是流氓组织, 144 00:06:27,976 --> 00:06:31,336 和资金充沛的无政府组织 也在利用它们呢? 145 00:06:31,336 --> 00:06:35,136 我并不害怕独狼掌控的人工智能。 146 00:06:35,140 --> 00:06:39,690 很明显,我们无法从 随机的暴力行为中保护自己, 147 00:06:39,690 --> 00:06:41,916 但是现实是,制造这样一个系统 148 00:06:41,916 --> 00:06:45,026 超越了个人所拥有资源的极限, 149 00:06:45,026 --> 00:06:47,396 因为它需要踏实细致的训练和培养。 150 00:06:47,396 --> 00:06:48,230 还有, 151 00:06:48,230 --> 00:06:51,780 这远比向世界散播一个网络病毒, 152 00:06:51,780 --> 00:06:54,750 比如你按下一个按钮, 瞬间全世界都被感染, 153 00:06:54,750 --> 00:06:57,390 并且在各处的笔记本电脑中 开始爆发来的复杂。 154 00:06:57,390 --> 00:07:00,336 这类东西正在越来越强大, 155 00:07:00,336 --> 00:07:01,995 我们必然会看到它们的来临。 156 00:07:02,520 --> 00:07:05,656 我会害怕一个有可能威胁所有人类的 157 00:07:05,656 --> 00:07:07,560 人工智能吗? 158 00:07:08,280 --> 00:07:12,630 如果你看过《黑客帝国》,《大都会》, 159 00:07:12,630 --> 00:07:15,830 《终结者》,或者 《西部世界》这类电视剧, 160 00:07:15,830 --> 00:07:18,000 它们都在表达这种恐惧。 161 00:07:18,000 --> 00:07:22,310 的确,在哲学家Nick Bostrom 写的《超级智能》中, 162 00:07:22,310 --> 00:07:23,880 他选择了这个主题, 163 00:07:23,880 --> 00:07:27,930 并且观察到超级智能不仅仅危险, 164 00:07:27,930 --> 00:07:31,800 它还对所有人类的存在造成了威胁。 165 00:07:31,800 --> 00:07:34,050 Bostrom博士的基础观点认为, 166 00:07:34,050 --> 00:07:36,800 这样的系统迟早会 167 00:07:36,800 --> 00:07:40,060 产生对信息的无止境渴求, 168 00:07:40,060 --> 00:07:42,990 也许它们会开始学习, 169 00:07:42,990 --> 00:07:45,610 并且最终发现它们的目的 170 00:07:45,610 --> 00:07:47,960 和人类的需求背道而驰。 171 00:07:47,960 --> 00:07:49,850 Bostrom博士有一群粉丝。 172 00:07:49,850 --> 00:07:54,200 Elon Musk和Stephen Hawking也支持他。 173 00:07:54,880 --> 00:07:57,280 虽然要向这些伟大的头脑 174 00:07:58,160 --> 00:08:00,140 致以崇高的敬意, 175 00:08:00,140 --> 00:08:02,450 但我还是相信他们从一开始就错了。 176 00:08:02,450 --> 00:08:05,996 Bostrom博士的观点 有很多地方可以细细体会, 177 00:08:05,996 --> 00:08:07,846 但现在我没有时间一一解读, 178 00:08:07,846 --> 00:08:10,566 简要而言,请考虑这句话: 179 00:08:10,566 --> 00:08:14,280 全知并非全能。 180 00:08:14,280 --> 00:08:16,210 HAL成为了对发现一号成员的威胁, 181 00:08:16,210 --> 00:08:20,650 只是因为它控制了 发现一号的各个方面。 182 00:08:20,650 --> 00:08:23,170 正因如此它才需要是一个人工智能。 183 00:08:23,170 --> 00:08:25,650 它需要对于我们世界的完全掌控。 184 00:08:25,650 --> 00:08:28,510 这就是《终结者》中的天网, 185 00:08:28,510 --> 00:08:30,380 一个控制了人们意志, 186 00:08:30,380 --> 00:08:31,956 控制了世界各处 187 00:08:31,956 --> 00:08:35,690 各个机器的超级智能。 188 00:08:35,690 --> 00:08:37,170 说实在的, 189 00:08:37,170 --> 00:08:39,280 这完全是杞人忧天。 190 00:08:39,280 --> 00:08:42,360 我们不是在制造可以控制天气, 191 00:08:42,360 --> 00:08:43,730 引导潮水, 192 00:08:43,730 --> 00:08:47,186 指挥我们这些 多变,混乱的人类的人工智能。 193 00:08:47,186 --> 00:08:51,050 另外,即使这类人工智能存在, 194 00:08:51,050 --> 00:08:54,010 它需要和人类的经济竞争, 195 00:08:54,010 --> 00:08:56,560 进而和我们拥有的资源竞争。 196 00:08:57,200 --> 00:08:58,390 最后—— 197 00:08:58,390 --> 00:08:59,680 不要告诉Siri—— 198 00:09:00,380 --> 00:09:01,896 我们可以随时拔掉电源。 199 00:09:01,896 --> 00:09:03,960 (笑声) 200 00:09:05,360 --> 00:09:07,886 我们正处于和机器共同演化的 201 00:09:07,886 --> 00:09:10,426 奇妙旅途之中。 202 00:09:10,426 --> 00:09:12,820 未来的人类 203 00:09:12,820 --> 00:09:15,410 将与今天的人类大相径庭。 204 00:09:15,410 --> 00:09:18,636 当前对人工智能崛起的担忧, 205 00:09:18,636 --> 00:09:21,620 从各方面来说都是 一个危险的错误指引, 206 00:09:21,620 --> 00:09:24,000 因为电脑的崛起 207 00:09:24,000 --> 00:09:27,106 带给了我们许多必须参与的 208 00:09:27,106 --> 00:09:28,720 关乎人类和社会的问题。 209 00:09:29,360 --> 00:09:32,130 我应该如何管理社会 210 00:09:32,130 --> 00:09:34,556 来应对人类劳工需求量的降低? 211 00:09:34,560 --> 00:09:38,370 我应该怎样在进行全球化 交流和教育的同时, 212 00:09:38,370 --> 00:09:40,170 依旧尊重彼此的不同? 213 00:09:40,170 --> 00:09:44,536 我应该如何通过可认知医疗 来延长并强化人类的生命? 214 00:09:44,536 --> 00:09:47,330 我应该如何通过计算机 215 00:09:47,330 --> 00:09:49,120 来帮助我们前往其他星球? 216 00:09:49,760 --> 00:09:51,800 这些都很令人兴奋。 217 00:09:52,400 --> 00:09:54,710 通过计算机来升级 218 00:09:54,710 --> 00:09:56,386 人类体验的机会 219 00:09:56,386 --> 00:09:57,730 就在我们手中, 220 00:09:57,730 --> 00:09:59,600 就在此时此刻, 221 00:09:59,600 --> 00:10:01,320 我们的旅途才刚刚开始。 222 00:10:02,280 --> 00:10:03,496 谢谢大家。 223 00:10:03,500 --> 00:10:07,806 (掌声)