0:00:00.750,0:00:04.660 在我还是孩子的时候 ,[br]我是一个典型的书呆子。 0:00:05.440,0:00:07.546 我猜你们的一部分人和我一样。 0:00:07.546,0:00:08.776 (笑声) 0:00:08.776,0:00:12.026 还有你,那位先生,笑得最大声,[br]说不定你现在还是呢。 0:00:12.026,0:00:14.306 (笑声) 0:00:14.306,0:00:17.826 我成长在德克萨斯州北部[br]荒凉平原上的一个小镇。 0:00:17.826,0:00:21.166 我的爸爸是警长,爷爷是一位牧师, 0:00:21.166,0:00:23.800 所以自找麻烦从来不是一个好的选项。 0:00:24.040,0:00:27.336 所以我开始看有关[br]微积分的书来打发时间。 0:00:27.336,0:00:28.916 (笑声) 0:00:28.916,0:00:30.626 你也是这样。 0:00:30.626,0:00:34.386 于是我学着制作了一个激光器,[br]一台电脑,和一个火箭模型, 0:00:34.386,0:00:37.360 并且在自己的卧室制取火箭燃料。 0:00:37.960,0:00:41.656 现在,从科学的角度而言, 0:00:41.656,0:00:44.936 我们把这个叫做[br]一个糟糕透顶的主意。 0:00:44.936,0:00:46.176 (笑声) 0:00:46.176,0:00:48.376 在差不多同一时间, 0:00:48.376,0:00:51.616 Stanley Kubrick的[br]“2001:太空漫游”上映了, 0:00:51.616,0:00:54.360 我的生活从此改变。 0:00:54.360,0:00:56.366 我喜欢关于那部电影的一切, 0:00:56.366,0:00:58.936 特别是 HAL 9000。 0:00:58.936,0:01:01.016 HAL是一台有情感的电脑, 0:01:01.016,0:01:03.496 为引导“发现一号”飞船从地球 0:01:03.496,0:01:06.066 前往木星而设计出来。 0:01:06.066,0:01:08.136 HAL 也是一个有缺陷的角色, 0:01:08.136,0:01:13.020 因为在结尾他将任务的[br]价值置于生命之上。 0:01:13.020,0:01:14.996 HAL 是一个虚构的角色, 0:01:14.996,0:01:17.656 但尽管如此,他挑战了我们的恐惧, 0:01:17.656,0:01:19.786 被一些冷漠无情的 0:01:19.786,0:01:22.856 人工智能(AI) 0:01:22.856,0:01:24.760 所统治的恐惧。 0:01:25.880,0:01:28.450 但我相信这些恐惧只是杞人忧天。 0:01:28.450,0:01:31.080 的确,我们正处于人类历史上 0:01:31.080,0:01:32.720 一个值得铭记的时间点, 0:01:32.720,0:01:37.720 不甘被自身肉体和头脑所局限, 0:01:37.720,0:01:39.440 我们正在制造 0:01:39.440,0:01:43.146 那些可以通过我们无法想象的方式 0:01:43.146,0:01:45.226 来拓展人类体验的机器, 0:01:45.226,0:01:46.880 它们精美,复杂,而且优雅。 0:01:47.720,0:01:50.336 我在空军学院 0:01:50.336,0:01:52.286 和航天司令部工作过, 0:01:52.286,0:01:54.016 现在是一个系统工程师。 0:01:54.016,0:01:56.796 最近我碰到了一个和[br]NASA火星任务相关的 0:01:56.796,0:01:59.386 工程问题。 0:01:59.386,0:02:01.946 当前,前往月球的宇宙飞行, 0:02:01.946,0:02:05.046 我们可以依靠休斯顿的指挥中心 0:02:05.046,0:02:07.036 来密切关注飞行的各个方面。 0:02:07.046,0:02:10.656 但是,火星相比而言[br]多出了200倍的距离, 0:02:10.656,0:02:13.906 这使得一个信号从地球到火星 0:02:13.906,0:02:17.016 平均要花费13分钟。 0:02:17.016,0:02:20.400 如果有了麻烦,[br]我们并没有足够的时间来解决。 0:02:20.840,0:02:23.376 所以一个可靠的工程解决方案 0:02:23.376,0:02:25.956 促使我们把一个指挥中枢 0:02:25.960,0:02:29.046 放在“猎户星”飞船之中。 0:02:29.046,0:02:31.936 在任务档案中的另一个创意 0:02:31.936,0:02:34.846 是在人类抵达火星之前,把人形机器人 0:02:34.846,0:02:36.786 先一步放在火星表面, 0:02:36.786,0:02:38.370 它们可以先建造据点, 0:02:38.370,0:02:41.760 然后作为科学团队的合作伙伴驻扎。 0:02:43.400,0:02:46.186 当我从工程师的角度看待这个想法, 0:02:46.186,0:02:49.356 对于建造一个聪明,懂得合作, 0:02:49.360,0:02:51.566 擅长社交的人工智能的需求 0:02:51.566,0:02:53.936 是十分明显的。 0:02:53.940,0:02:58.296 换句话说,我需要建造一个和HAL一样, 0:02:58.296,0:03:00.746 但是没有谋杀倾向的机器。 0:03:00.746,0:03:02.080 (笑声) 0:03:02.920,0:03:04.766 待会儿再回到这个话题。 0:03:04.766,0:03:08.686 真的有可能打造一个[br]类似的人工智能吗? 0:03:08.686,0:03:10.136 是的,当然可以。 0:03:10.140,0:03:11.416 在许多方面, 0:03:11.420,0:03:13.400 一个困难的工程问题来自于 0:03:13.400,0:03:14.880 AI的各个零件, 0:03:14.880,0:03:19.590 而不是什么琐碎的AI问题。 0:03:19.590,0:03:22.270 借用Alan Turing的话来说, 0:03:22.270,0:03:24.690 我没有兴趣建造一台有情感的机器。 0:03:24.690,0:03:26.296 我不是要建造HAL。 0:03:26.300,0:03:28.710 我只想要一个简单的大脑, 0:03:28.710,0:03:31.880 一个能让你以为它有智能的东西。 0:03:33.000,0:03:36.110 自从HAL登上荧幕,[br]关于编程的技术和艺术 0:03:36.110,0:03:37.620 已经发展了许多, 0:03:37.620,0:03:40.870 我能想象如果它的发明者[br]Chandra博士今天在这里的话, 0:03:40.870,0:03:43.250 他会有很多的问题问我们。 0:03:43.250,0:03:45.360 我们真的可能 0:03:45.360,0:03:49.410 用一个连接了无数设备的系统, 0:03:49.410,0:03:50.870 通过读取数据流, 0:03:50.870,0:03:53.140 来预测它们的失败并提前行动吗? 0:03:53.140,0:03:54.350 是的。 0:03:54.350,0:03:57.560 我们能建造一个和人类[br]用语言交流的系统吗? 0:03:57.560,0:03:58.480 能。 0:03:58.480,0:04:01.850 我们能够打造一个能[br]辨识目标,鉴别情绪, 0:04:01.850,0:04:05.230 表现自身情感,打游戏,[br]甚至读唇的系统吗? 0:04:05.230,0:04:06.330 可以。 0:04:06.330,0:04:08.600 我们可以建造一个能设定目标, 0:04:08.600,0:04:12.230 通过各种达成目的的[br]方法来学习的系统吗? 0:04:12.230,0:04:13.420 也可以。 0:04:13.420,0:04:16.790 我们可以建造一个类似人脑的系统吗? 0:04:16.790,0:04:18.330 这是我们正在努力做的。 0:04:18.330,0:04:21.920 我们可以建造一个有道德[br]和感情基础的系统吗? 0:04:22.480,0:04:24.520 这是我们必须要学习的。 0:04:25.360,0:04:26.700 总而言之, 0:04:26.700,0:04:29.620 建造一个类似的用于这类任务的 0:04:29.620,0:04:31.780 人工智能是可行的。 0:04:31.780,0:04:34.330 另一个你必须扪心自问的问题是, 0:04:34.330,0:04:35.830 我们应该害怕它吗? 0:04:35.830,0:04:37.830 毕竟,每一种新技术 0:04:37.830,0:04:40.730 都给我们带来某种程度的不安。 0:04:40.730,0:04:42.470 我们第一次看见汽车的时候, 0:04:42.470,0:04:46.510 人们悲叹我们会看到家庭的毁灭。 0:04:46.510,0:04:49.250 我们第一次看见电话的时候, 0:04:49.250,0:04:52.150 人们担忧这会破坏所有的文明交流。 0:04:52.150,0:04:56.110 在某个时间点我们看到书写文字的蔓延, 0:04:56.110,0:04:58.650 人们认为我们会丧失记忆的能力。 0:04:58.650,0:05:00.710 这些在某个程度上是合理的, 0:05:00.710,0:05:03.160 但也正是这些技术 0:05:03.160,0:05:06.540 给人类的生活在某些方面 0:05:06.540,0:05:08.480 带来了前所未有的体验。 0:05:09.840,0:05:12.120 我们再稍稍扩展一下。 0:05:13.120,0:05:17.840 我并不畏惧这类人工智能的诞生, 0:05:17.840,0:05:21.696 因为它最终会融入我们的部分价值观。 0:05:21.700,0:05:25.210 想想这个:建造一个认知系统 0:05:25.210,0:05:28.576 与建造一个以传统的软件为主的[br]系统有着本质的不同。 0:05:28.576,0:05:31.010 我们不编译它们。我们教导它们。 0:05:31.010,0:05:33.670 为了教会系统如何识别花朵, 0:05:33.670,0:05:36.730 我给它看了上千种我喜欢的花。 0:05:36.730,0:05:39.010 为了教会系统怎么打游戏—— 0:05:39.010,0:05:41.000 当然,我会。你们也会。 0:05:42.600,0:05:44.640 我喜欢花。这没什么。 0:05:45.440,0:05:48.280 为了教会系统如何玩像围棋一样的游戏, 0:05:48.280,0:05:50.370 我玩了许多围棋的游戏, 0:05:50.370,0:05:52.030 但是在这个过程中 0:05:52.030,0:05:54.470 我也教会它如何分别差游戏和好游戏。 0:05:54.470,0:05:58.210 如果我想要一个人工智能法律助手, 0:05:58.210,0:06:00.016 我会给它一些法律文集, 0:06:00.020,0:06:02.896 但同时我会将 怜悯和正义 0:06:02.900,0:06:06.500 也是法律的一部分 这种观点融入其中。 0:06:06.500,0:06:09.800 用一个术语来解释,[br]就是我们所说的真相, 0:06:09.800,0:06:11.550 而关键在于: 0:06:11.550,0:06:13.106 为了制造这些机器, 0:06:13.106,0:06:16.546 我们正教给它们我们的价值观。 0:06:16.546,0:06:19.650 正因如此,我相信一个人工智能 0:06:19.650,0:06:23.320 绝不逊于一个经过良好训练的人类。 0:06:24.080,0:06:25.346 但是,你或许会问, 0:06:25.346,0:06:27.976 要是流氓组织, 0:06:27.976,0:06:31.336 和资金充沛的无政府组织[br]也在利用它们呢? 0:06:31.336,0:06:35.136 我并不害怕独狼掌控的人工智能。 0:06:35.140,0:06:39.690 很明显,我们无法从[br]随机的暴力行为中保护自己, 0:06:39.690,0:06:41.916 但是现实是,制造这样一个系统 0:06:41.916,0:06:45.026 超越了个人所拥有资源的极限, 0:06:45.026,0:06:47.396 因为它需要踏实细致的训练和培养。 0:06:47.396,0:06:48.230 还有, 0:06:48.230,0:06:51.780 这远比向世界散播一个网络病毒, 0:06:51.780,0:06:54.750 比如你按下一个按钮,[br]瞬间全世界都被感染, 0:06:54.750,0:06:57.390 并且在各处的笔记本电脑中[br]开始爆发来的复杂。 0:06:57.390,0:07:00.336 这类东西正在越来越强大, 0:07:00.336,0:07:01.995 我们必然会看到它们的来临。 0:07:02.520,0:07:05.656 我会害怕一个有可能威胁所有人类的 0:07:05.656,0:07:07.560 人工智能吗? 0:07:08.280,0:07:12.630 如果你看过《黑客帝国》,《大都会》, 0:07:12.630,0:07:15.830 《终结者》,或者[br]《西部世界》这类电视剧, 0:07:15.830,0:07:18.000 它们都在表达这种恐惧。 0:07:18.000,0:07:22.310 的确,在哲学家Nick Bostrom[br]写的《超级智能》中, 0:07:22.310,0:07:23.880 他选择了这个主题, 0:07:23.880,0:07:27.930 并且观察到超级智能不仅仅危险, 0:07:27.930,0:07:31.800 它还对所有人类的存在造成了威胁。 0:07:31.800,0:07:34.050 Bostrom博士的基础观点认为, 0:07:34.050,0:07:36.800 这样的系统迟早会 0:07:36.800,0:07:40.060 产生对信息的无止境渴求, 0:07:40.060,0:07:42.990 也许它们会开始学习, 0:07:42.990,0:07:45.610 并且最终发现它们的目的 0:07:45.610,0:07:47.960 和人类的需求背道而驰。 0:07:47.960,0:07:49.850 Bostrom博士有一群粉丝。 0:07:49.850,0:07:54.200 Elon Musk和Stephen Hawking也支持他。 0:07:54.880,0:07:57.280 虽然要向这些伟大的头脑 0:07:58.160,0:08:00.140 致以崇高的敬意, 0:08:00.140,0:08:02.450 但我还是相信他们从一开始就错了。 0:08:02.450,0:08:05.996 Bostrom博士的观点[br]有很多地方可以细细体会, 0:08:05.996,0:08:07.846 但现在我没有时间一一解读, 0:08:07.846,0:08:10.566 简要而言,请考虑这句话: 0:08:10.566,0:08:14.280 全知并非全能。 0:08:14.280,0:08:16.210 HAL成为了对发现一号成员的威胁, 0:08:16.210,0:08:20.650 只是因为它控制了[br]发现一号的各个方面。 0:08:20.650,0:08:23.170 正因如此它才需要是一个人工智能。 0:08:23.170,0:08:25.650 它需要对于我们世界的完全掌控。 0:08:25.650,0:08:28.510 这就是《终结者》中的天网, 0:08:28.510,0:08:30.380 一个控制了人们意志, 0:08:30.380,0:08:31.956 控制了世界各处 0:08:31.956,0:08:35.690 各个机器的超级智能。 0:08:35.690,0:08:37.170 说实在的, 0:08:37.170,0:08:39.280 这完全是杞人忧天。 0:08:39.280,0:08:42.360 我们不是在制造可以控制天气, 0:08:42.360,0:08:43.730 引导潮水, 0:08:43.730,0:08:47.186 指挥我们这些[br]多变,混乱的人类的人工智能。 0:08:47.186,0:08:51.050 另外,即使这类人工智能存在, 0:08:51.050,0:08:54.010 它需要和人类的经济竞争, 0:08:54.010,0:08:56.560 进而和我们拥有的资源竞争。 0:08:57.200,0:08:58.390 最后—— 0:08:58.390,0:08:59.680 不要告诉Siri—— 0:09:00.380,0:09:01.896 我们可以随时拔掉电源。 0:09:01.896,0:09:03.960 (笑声) 0:09:05.360,0:09:07.886 我们正处于和机器共同演化的 0:09:07.886,0:09:10.426 奇妙旅途之中。 0:09:10.426,0:09:12.820 未来的人类 0:09:12.820,0:09:15.410 将与今天的人类大相径庭。 0:09:15.410,0:09:18.636 当前对人工智能崛起的担忧, 0:09:18.636,0:09:21.620 从各方面来说都是[br]一个危险的错误指引, 0:09:21.620,0:09:24.000 因为电脑的崛起 0:09:24.000,0:09:27.106 带给了我们许多必须参与的 0:09:27.106,0:09:28.720 关乎人类和社会的问题。 0:09:29.360,0:09:32.130 我应该如何管理社会 0:09:32.130,0:09:34.556 来应对人类劳工需求量的降低? 0:09:34.560,0:09:38.370 我应该怎样在进行全球化[br]交流和教育的同时, 0:09:38.370,0:09:40.170 依旧尊重彼此的不同? 0:09:40.170,0:09:44.536 我应该如何通过可认知医疗[br]来延长并强化人类的生命? 0:09:44.536,0:09:47.330 我应该如何通过计算机 0:09:47.330,0:09:49.120 来帮助我们前往其他星球? 0:09:49.760,0:09:51.800 这些都很令人兴奋。 0:09:52.400,0:09:54.710 通过计算机来升级 0:09:54.710,0:09:56.386 人类体验的机会 0:09:56.386,0:09:57.730 就在我们手中, 0:09:57.730,0:09:59.600 就在此时此刻, 0:09:59.600,0:10:01.320 我们的旅途才刚刚开始。 0:10:02.280,0:10:03.496 谢谢大家。 0:10:03.500,0:10:07.806 (掌声)