0:00:00.528,0:00:04.477 在1885年,卡尔本茨发明了汽车。 0:00:04.707,0:00:08.469 那年年末,他把车开出去[br]进行第一次户外测试, 0:00:08.469,0:00:11.844 然后——真实是——他撞墙了。 0:00:12.184,0:00:14.227 在过去的130年里, 0:00:14.227,0:00:18.546 我们一直在为汽车的最薄弱环节,[br]驾驶员,做着努力。 0:00:18.546,0:00:20.210 我们把车做得更坚固, 0:00:20.210,0:00:22.748 我们增加了安全带,增加了安全气囊。 0:00:22.748,0:00:26.719 在过去十年里,[br]我们开始让车变得更智能, 0:00:26.719,0:00:29.657 是为弥补驾驶员方面的缺陷。 0:00:29.657,0:00:32.918 那么,今天我将给大家讲讲, 0:00:32.918,0:00:36.726 用驾驶员辅助系统解决问题, 0:00:36.726,0:00:39.290 和真正使用全面自动驾驶汽车的区别, 0:00:39.290,0:00:41.170 以及它们对世界的贡献。 0:00:41.170,0:00:44.165 我也会介绍一下我们的车, 0:00:44.165,0:00:48.164 让你们了解它是如何观察这个世界的,[br]以及如何应对各种情况, 0:00:48.164,0:00:51.351 但首先我先说说存在的问题。 0:00:51.651,0:00:52.999 这是个很严重的问题, 0:00:52.999,0:00:56.388 每年全世界都有120万人[br]因交通事故丧命。 0:00:56.388,0:01:00.172 仅仅在美国,[br]每年就有3万3千人死于车祸。 0:01:00.172,0:01:02.200 换个方式说, 0:01:02.200,0:01:06.997 等同于每天都有一架737飞机失事。 0:01:07.342,0:01:09.128 有点不可思议。 0:01:09.548,0:01:11.846 汽车卖给我们后应该是这样一番景象, 0:01:11.846,0:01:14.563 但事实上,驾驶过程通常是这样。 0:01:14.563,0:01:16.722 对吧?这不是晴天,是雨天, 0:01:16.722,0:01:19.210 而且除了开车,[br]你还想做点别的事情。 0:01:19.210,0:01:20.832 原因就是: 0:01:20.832,0:01:22.690 交通状况变得越来越糟。 0:01:22.690,0:01:26.196 在美国,从1990年到2010年, 0:01:26.196,0:01:29.700 交通工具的里程数增加了38%。 0:01:30.213,0:01:32.962 而我们只增修了6%的路, 0:01:32.962,0:01:34.564 所以不单单是你的感觉如此。 0:01:34.564,0:01:38.840 交通状况的确比以前糟糕得多。 0:01:38.840,0:01:41.249 所有的这一切也都伴随着人力成本。 0:01:41.529,0:01:45.477 如果你把在美的平均通勤时间,[br]约50分钟, 0:01:45.477,0:01:49.126 乘以我们的1亿2000万工作者, 0:01:49.126,0:01:51.351 结果就是60亿分钟, 0:01:51.351,0:01:53.377 每天会被浪费在路上。 0:01:53.377,0:01:56.204 这是个很大的数字,[br]那么我们换个方式, 0:01:56.204,0:01:57.978 你把这60亿分钟, 0:01:57.978,0:02:01.762 除以人均寿命, 0:02:01.762,0:02:04.897 得出数字是162个生命周期。 0:02:04.897,0:02:07.822 仅仅从A地到B地,每天就有这么多 0:02:07.822,0:02:09.866 生命白白浪费掉了。 0:02:09.866,0:02:11.596 太难以置信了。 0:02:11.596,0:02:14.440 当然,我们当中还有一些人无法享有 0:02:14.440,0:02:16.112 坐到车流中来的权利。 0:02:16.112,0:02:17.180 这个人叫史蒂夫。 0:02:17.180,0:02:19.455 他是个很有才能的人。 0:02:19.455,0:02:21.971 但很不幸,他是盲人, 0:02:21.971,0:02:25.188 这意味着本来早上[br]上班路上的30分钟, 0:02:25.188,0:02:29.167 变成了两个小时的[br]各种转乘公共交通的折磨, 0:02:29.167,0:02:31.552 或者是请求朋友或家人载他一程。 0:02:31.552,0:02:35.221 他并没有像你我一样[br]想去哪儿就去哪儿的自由。 0:02:35.221,0:02:37.911 我们应该改变这种现状。 0:02:37.911,0:02:39.648 现在,传统观点认为, 0:02:39.648,0:02:42.140 我们应该使用驾驶员辅助系统, 0:02:42.140,0:02:45.480 然后不停改进它们, 0:02:45.480,0:02:48.432 总有一天,它们能够实现自动驾驶。 0:02:48.432,0:02:50.841 事实上我今天来就是想告诉你们,[br]这就跟 0:02:50.841,0:02:54.898 如果我努力练习弹跳,[br]有一天我就能飞翔一样不现实。 0:02:54.898,0:02:57.626 我们需要做点不同的东西。 0:02:57.626,0:02:59.737 我会跟你们介绍 0:02:59.737,0:03:03.683 自动驾驶系统和驾驶员辅助系统的[br]三个不同方面。 0:03:03.683,0:03:06.334 我先从自己的经历说起。 0:03:06.334,0:03:08.587 在2013年, 0:03:08.587,0:03:11.250 我们进行了第一次自动驾驶测试, 0:03:11.250,0:03:13.277 让普通人来操作。 0:03:13.277,0:03:15.479 算是普通人吧——[br]他们是100名谷歌员工, 0:03:15.479,0:03:17.482 但他们没有参与开发这个项目。 0:03:17.482,0:03:21.103 我们把车给他们,[br]让他们在日常生活中使用。 0:03:21.103,0:03:24.822 但与真的自动驾驶汽车不同,[br]这一辆得加个星号上去: 0:03:24.822,0:03:26.326 他们得留多个心眼儿, 0:03:26.326,0:03:28.959 因为这只是一辆试验车。 0:03:28.959,0:03:32.484 我们虽然进行了很多测试,[br]但还是有风险。 0:03:32.484,0:03:34.543 我们对他们进行了两个小时的训练, 0:03:34.543,0:03:36.635 然后让他们进行实际操作, 0:03:36.635,0:03:38.762 然后我们得到了一些很好的反馈, 0:03:38.762,0:03:41.136 因为有人把产品带到现实中来了。 0:03:41.136,0:03:43.211 每个人都对它赞不绝口。 0:03:43.211,0:03:46.777 事实上,在第一天[br]有一个保时捷驾驶员进来跟我们说, 0:03:46.777,0:03:49.440 “这实在是太无厘头了。[br]你们到底怎么想的?” 0:03:49.850,0:03:52.480 但最后,他说,“不单是我需要它, 0:03:52.480,0:03:55.865 每个人都需要有一辆,[br]大家的车技都太烂了。” 0:03:57.135,0:03:58.870 这番话就是我们的福音, 0:03:58.870,0:04:02.673 然后我们开始观察[br]人们在车里都在做什么, 0:04:02.673,0:04:04.252 真让人大开眼界。 0:04:04.252,0:04:06.690 我最喜欢的故事,是一位先生 0:04:06.690,0:04:10.519 低头看手机,发现手机快没电了, 0:04:10.519,0:04:15.067 然后他在车里这样转过身,[br]在背包里四处摸索着, 0:04:15.067,0:04:16.980 拿出他的笔记本电脑, 0:04:16.980,0:04:18.787 放到副驾驶座位上, 0:04:18.787,0:04:20.551 再转过身, 0:04:20.551,0:04:23.918 又摸了一通,拿出手机充电线, 0:04:23.918,0:04:27.285 理一下线,插进电脑里,连上手机。 0:04:27.285,0:04:29.328 棒极了,手机有电了。 0:04:29.328,0:04:33.322 而他那时正行驶在时速65英里的高速上[br](约104公里每小时)。 0:04:33.322,0:04:35.806 能想象到吗?太难以置信了。 0:04:35.806,0:04:38.927 所以我们想了想,说,[br]这挺明显的对吧? 0:04:38.927,0:04:41.190 科技越来越发达, 0:04:41.190,0:04:43.311 驾驶员就不需要太负责任。 0:04:43.311,0:04:45.707 所以只是把车变得更加智能, 0:04:45.707,0:04:48.609 并没法让我们看到真正需要的成功。 0:04:48.609,0:04:52.510 我在这里要暂时说一点技术上的东西。 0:04:52.510,0:04:54.948 在这张图上,底部的线 0:04:54.948,0:04:57.999 代表着在不必要的时候[br]制动刹车发生的频率。 0:04:57.999,0:04:59.620 你可以忽略这条轴的大部分. 0:04:59.620,0:05:03.339 因为如果你在城里开车,[br]然后车时不时自己停下来。 0:05:03.339,0:05:05.040 你永远都不会买这辆车。 0:05:05.040,0:05:08.415 竖直的轴线表示车会[br]在你需要避免事故时 0:05:08.415,0:05:11.464 采取制动刹车的频率。 0:05:11.464,0:05:13.685 如果我们看左下角, 0:05:13.685,0:05:15.530 这是你们正在开的普通汽车。 0:05:15.530,0:05:18.663 它不会自动为你刹车,[br]也不至于刹车失灵, 0:05:18.663,0:05:21.442 但它无法为你避免事故。 0:05:21.442,0:05:24.090 如果我们把驾驶员辅助系统[br]装进车里, 0:05:24.090,0:05:25.988 比如说撞击缓冲刹车系统, 0:05:25.988,0:05:28.240 我们会导入一系列的科技, 0:05:28.240,0:05:31.428 也就是这条曲线,[br]它有了一些操作属性, 0:05:31.428,0:05:33.708 但也不会完全规避事故, 0:05:33.708,0:05:35.727 因为它没有这个能力。 0:05:35.727,0:05:37.796 但我们会在曲线上取某个点, 0:05:37.796,0:05:41.370 也许它可以避免一半[br]因驾驶员失误引起的事故。 0:05:41.370,0:05:42.697 挺赞的,对吧? 0:05:42.697,0:05:46.394 我们可以减少一半的交通事故。 0:05:46.394,0:05:50.381 这样每年在美国就有1万7千人[br]幸免于难。 0:05:50.381,0:05:52.401 但如果我们想要一辆自动驾驶汽车, 0:05:52.401,0:05:54.708 我们需要一条这样的曲线。 0:05:54.708,0:05:57.307 我们得在车里加装更多的传感器, 0:05:57.307,0:05:59.138 然后在这里挑某个操作点, 0:05:59.138,0:06:01.347 在这个点上基本[br]永远不会有事故发生。 0:06:01.347,0:06:03.790 多少还是会发生,但概率极低。 0:06:03.790,0:06:05.751 现在我们可以看看这里, 0:06:05.751,0:06:09.076 探讨一下是否有所增加,[br]我会提到比方说“80-20规则”, 0:06:09.076,0:06:11.594 而且很难再上升了。 0:06:11.594,0:06:14.628 但让我们暂时从另一个角度看一看。 0:06:14.628,0:06:18.870 我们看看这种科技应用的频率多高。 0:06:18.870,0:06:22.376 这个绿点表示驾驶员辅助系统。 0:06:22.376,0:06:24.861 调查发现人类驾驶员 0:06:24.861,0:06:27.508 因为自身错误导致的交通事故, 0:06:27.508,0:06:30.680 在美国是每10万英里(约16万公里)[br]发生一次。 0:06:30.680,0:06:35.227 对比之下,自动驾驶系统约在每秒 0:06:35.227,0:06:37.220 会自行做10次决定。 0:06:37.220,0:06:38.932 所以就数量级而言, 0:06:38.932,0:06:41.764 约是每英里(1.6公里)1000次。 0:06:41.764,0:06:44.249 如果你对比一下两者的差距, 0:06:44.249,0:06:46.849 就是10的八次方,对吧? 0:06:46.849,0:06:48.614 8个数量级, 0:06:48.614,0:06:51.423 这就像拿我跑步的速度 0:06:51.423,0:06:53.629 和光速比较, 0:06:53.629,0:06:57.414 即便我再刻苦训练,[br]也永远达不到光速。 0:06:57.414,0:06:59.852 所以这个跨度非常大。 0:06:59.852,0:07:03.581 最后,就是这个系统如何[br]处理不确定性。 0:07:03.581,0:07:06.904 那么这个行人可能会走到路上,[br]也可能不会。 0:07:06.904,0:07:09.929 我不确定,也没有任何算法能确定, 0:07:09.929,0:07:12.594 但对于驾驶员辅助系统来说, 0:07:12.594,0:07:14.720 这意味着它无法采取措施, 0:07:14.720,0:07:18.739 因为如果它在预期之外采取制动,[br]是完全不合适的。 0:07:18.739,0:07:21.872 但自动驾驶系统则会观察行人, 0:07:21.872,0:07:23.762 然后说我不知道他们要做什么, 0:07:23.762,0:07:27.524 于是减速,再仔细观察,[br]然后采取适当措施。 0:07:27.524,0:07:31.226 所以这就比驾驶员辅助系统[br]要安全得多, 0:07:31.226,0:07:33.956 那么以上的例子就[br]足以体现这两者的区别了。 0:07:33.956,0:07:37.140 现在我们再花点时间聊聊[br]车是如何观察环境的。 0:07:37.140,0:07:38.692 这是我们的车。 0:07:38.692,0:07:40.890 它从识别自己的位置开始, 0:07:40.890,0:07:43.917 通过将它的地图和[br]传感器数据进行叠加, 0:07:43.917,0:07:46.865 然后我们再加上它当时看到的东西, 0:07:46.865,0:07:50.520 所以在这里所有你能看到的紫色盒子[br]是路上的其他车辆, 0:07:50.520,0:07:53.048 旁边红色的物体则是一位骑单车的人, 0:07:53.048,0:07:55.450 如果你再仔细点看,在远处, 0:07:55.450,0:07:57.244 你能看到一些锥形路障。 0:07:57.244,0:08:00.017 这样我们就能知道汽车现在的位置了, 0:08:00.017,0:08:03.130 但我们还得再改善:[br]我们得预测将发生的事情。 0:08:03.130,0:08:06.698 这里右上角的小卡车正准备换到左道, 0:08:06.698,0:08:08.961 因为前面的路被封了, 0:08:08.961,0:08:11.292 所以它得驶离原车道。 0:08:11.292,0:08:13.155 能知道一辆小卡车的轨迹确实不错, 0:08:13.155,0:08:15.634 但我们真正需要的是[br]了解每个人的想法, 0:08:15.634,0:08:18.141 所以问题就变得十分复杂了。 0:08:18.141,0:08:22.460 了解这些之后,[br]我们就可以算出汽车该如何应对, 0:08:22.460,0:08:26.756 该跟随哪条线路,[br]要多快实现减速或者加速。 0:08:26.756,0:08:29.821 所有的这一切最终都会[br]变成跟随一条路径: 0:08:29.821,0:08:33.018 向左或还是右打方向盘,[br]踩刹车还是油门。 0:08:33.018,0:08:35.482 所有的一切最终都[br]简化成了两个数值, 0:08:35.482,0:08:37.723 那这能有多难呢? 0:08:38.433,0:08:40.385 在2009年我们刚开始测试的时候, 0:08:40.385,0:08:41.983 我们的系统看起来是这样的。 0:08:41.983,0:08:44.714 你能看到我们的车在中间,[br]路上还有其他盒子, 0:08:44.714,0:08:46.075 同时在高速上行驶着。 0:08:46.075,0:08:49.503 这辆车需要知道自己的位置[br]以及其他车辆的大概方位。 0:08:49.503,0:08:53.092 基本上就是一种几何的分析方式。 0:08:53.092,0:08:56.040 当我们开始在社区和[br]城市道路上行驶时, 0:08:56.040,0:08:58.485 问题又上升到了一个新的难度。 0:08:58.485,0:09:01.979 你能看到行人在我们面前穿梭,[br]还有汽车, 0:09:01.979,0:09:03.460 横纵交错, 0:09:03.460,0:09:05.317 还有红绿灯,人行横道。 0:09:05.317,0:09:08.114 相比之下问题变得极度复杂。 0:09:08.114,0:09:10.217 当你把这个问题解决后, 0:09:10.217,0:09:12.729 接下来汽车还得能应付建筑施工。 0:09:12.729,0:09:15.880 所以左边的锥形路障会[br]迫使汽车开到右边, 0:09:15.880,0:09:18.282 当然不仅需要避开施工区域, 0:09:18.282,0:09:22.005 它还得应付在其间走动的其他人。 0:09:22.005,0:09:24.808 当然,如果有人违规了,[br]有警察在那里, 0:09:24.808,0:09:28.070 汽车就得明白车上闪着灯 0:09:28.070,0:09:31.385 意味着这不仅仅是一辆车,[br]还有一位警官。 0:09:31.385,0:09:33.577 类似的,这里路边橘黄色的盒子, 0:09:33.577,0:09:35.136 是校车, 0:09:35.136,0:09:37.656 我们也得分开来处理。 0:09:38.576,0:09:41.369 当我们在路上时,[br]其他人会表达各种意图: 0:09:41.369,0:09:43.149 当骑单车的人举起他们的手臂, 0:09:43.149,0:09:46.667 这就意味着他们希望有车能[br]让给他们点空间 0:09:46.667,0:09:48.720 以便进行换道。 0:09:49.030,0:09:51.203 当路中间站着一位警官, 0:09:51.203,0:09:53.943 我们的车得明白这手势是要你停下来, 0:09:53.943,0:09:57.449 当他们示意我们可以走了,[br]我们才能继续。 0:09:57.449,0:10:01.210 我们达成这些目标,[br]是通过和其他车辆分享数据。 0:10:01.210,0:10:02.906 首先,最简单粗制的模型, 0:10:02.906,0:10:05.019 就是当一辆车看到建筑施工地带时, 0:10:05.019,0:10:08.081 告知另一辆车,让它驶上正确的车道 0:10:08.081,0:10:09.651 以避免麻烦。 0:10:09.651,0:10:12.315 但我们对此有更深的认识。 0:10:12.315,0:10:15.324 我们可以搜集车辆在一段时间内[br]看到的数据, 0:10:15.324,0:10:17.700 数以千计在路上的行人,骑单车的人, 0:10:17.700,0:10:19.487 以及其他车辆, 0:10:19.487,0:10:21.182 了解他们的外形, 0:10:21.182,0:10:23.823 再用之去推理其他车辆 0:10:23.823,0:10:25.939 以及其他行人的外形。 0:10:25.939,0:10:28.960 然后,更重要的是,[br]我们可以从中得出一个模型, 0:10:28.960,0:10:31.290 预测所有交通参与者的去向。 0:10:31.290,0:10:34.253 这里的黄色盒子是[br]我们面前过马路的行人。 0:10:34.253,0:10:36.503 这个蓝色盒子是个骑单车的人,[br]而且我们预测 0:10:36.503,0:10:39.815 他会一直保持在车辆右侧。 0:10:40.115,0:10:42.207 这里有个在路上骑单车的人, 0:10:42.207,0:10:44.813 我们知道他会沿着路一直骑下去。 0:10:44.813,0:10:47.160 这里有人右转了, 0:10:47.160,0:10:50.290 而在这里,有人会在我们面前调头, 0:10:50.290,0:10:53.324 我们可以预测这个行为并安全应对。 0:10:53.324,0:10:55.922 目前为止,对于我们见过的场景[br]都没什么问题, 0:10:55.922,0:10:57.927 但当然,你还会遇见很多 0:10:57.927,0:10:59.698 之前没见过的东西。 0:10:59.698,0:11:01.439 几个月前, 0:11:01.439,0:11:03.484 我们的车辆在通过Mountain View[br](硅谷地名)的时候, 0:11:03.484,0:11:04.848 就遇到了这样的情景。 0:11:04.848,0:11:07.220 这是个坐着电动轮椅的女士, 0:11:07.220,0:11:10.677 在路中央绕着圈追赶一只鸭子。[br](笑声) 0:11:10.677,0:11:13.788 结果呢,在机动车驾驶管理处的手册里 0:11:13.788,0:11:16.033 没有一条告诉你该怎么做, 0:11:16.033,0:11:17.916 但我们的车辆却能灵活应对, 0:11:17.916,0:11:20.431 减速并安全通过。 0:11:20.431,0:11:22.272 我们应付的不只是鸭子, 0:11:22.272,0:11:26.180 看看这只飞过我们面前的鸟,[br]汽车也会对之做出处理。 0:11:26.180,0:11:27.795 这里还有一个骑车的, 0:11:27.795,0:11:31.085 估计除了在Mountain View,[br]其他地方很难见到。 0:11:31.085,0:11:33.153 当然,我们还得应付其他驾驶员, 0:11:33.153,0:11:36.868 甚至那些幼龄的。 0:11:36.868,0:11:40.999 注意右边,那个从货车上跳下来的人。 0:11:42.210,0:11:45.389 现在,注意左边绿盒子那辆车, 0:11:45.389,0:11:48.714 它决定在最后的时刻右转。 0:11:48.714,0:11:51.245 这里,当我们变道时,我们左边的车 0:11:51.245,0:11:55.118 也同样想变道。 0:11:55.118,0:11:57.811 还有这里,我们看到一辆车闯了红灯, 0:11:57.811,0:11:59.901 我们就先让它通过。 0:11:59.901,0:12:03.755 同样这里,骑单车的人也闯红灯了, 0:12:03.755,0:12:06.501 不出所料,[br]我们的车也能安全应对。 0:12:06.501,0:12:09.102 当然还有一些莫名其妙的人, 0:12:09.102,0:12:12.645 就像这家伙一样,[br]直接就从两辆自动驾驶汽车中窜出来。 0:12:12.645,0:12:14.970 你会想问,“你脑子是怎么想的?” 0:12:14.970,0:12:16.182 (笑声) 0:12:16.182,0:12:18.113 我已经给你们看了大量的例子, 0:12:18.113,0:12:20.863 我快速地讲一下其中的一个案例。 0:12:20.863,0:12:23.363 我们现在看到的还是骑单车的人, 0:12:23.363,0:12:27.034 你们可能会发现在下面的视角,[br]我们还看不到那个人, 0:12:27.034,0:12:29.968 但车能看到:就是那里的小蓝盒子, 0:12:29.968,0:12:31.999 这来自于激光数据。 0:12:31.999,0:12:33.897 这并不是很容易理解, 0:12:33.897,0:12:36.661 那么我接下来要做的,[br]就是调出激光数据看一下, 0:12:36.661,0:12:39.000 如果你擅长分析激光数据,你能发现 0:12:39.000,0:12:40.787 曲线上的一些点, 0:12:40.787,0:12:44.099 就在那儿,[br]那个蓝色小盒子就是骑单车的人。 0:12:44.099,0:12:45.978 这会儿面对我们的还是红灯, 0:12:45.978,0:12:47.560 自行车道的灯已经变黄了, 0:12:47.560,0:12:50.778 如果你瞥一眼的话,就能看到了。 0:12:50.778,0:12:54.034 但是骑单车的人,[br]我们看到他准备穿过这个十字路口, 0:12:54.034,0:12:56.718 我们的灯已经变绿,[br]他的方向也变红了, 0:12:56.718,0:13:01.010 我们预期到这辆单车将会横穿马路。 0:13:01.010,0:13:04.752 但不幸的是,[br]我们旁边的其他司机并没有注意到。 0:13:04.752,0:13:07.909 他们开始踩油门,[br]不过幸运的是, 0:13:07.909,0:13:10.280 骑单车的人及时避开了, 0:13:10.280,0:13:13.111 然后平安地穿过了十字路口。 0:13:13.111,0:13:14.679 之后我们才又继续前进。 0:13:14.679,0:13:17.627 正如你们所见,[br]我们已取得了一些激动人心的成就, 0:13:17.627,0:13:19.529 此时我们深信 0:13:19.529,0:13:21.539 这项技术将会进入市场。 0:13:21.539,0:13:26.322 我们每天用虚拟器做[br]3百万英里的测试, 0:13:26.322,0:13:29.011 所以你就能够想象到[br]我们的车辆获得了多少经验。 0:13:29.011,0:13:31.875 我们期待这项技术能在道路上使用, 0:13:31.875,0:13:34.765 并且认为正确的选择是自动驾驶, 0:13:34.765,0:13:36.609 而非驾驶员辅助系统, 0:13:36.609,0:13:39.230 因为情况已经刻不容缓了。 0:13:39.230,0:13:41.623 就在我演讲的时间段内, 0:13:41.623,0:13:44.758 在美国的公路上已经有34人丧生。 0:13:44.758,0:13:47.126 我们多久能实现这个目标呢? 0:13:47.126,0:13:50.958 嗯,很难说,[br]因为这是个很复杂的问题, 0:13:50.958,0:13:53.172 这两个是我的儿子。 0:13:53.172,0:13:56.795 大的11岁,也就是说在四年半后, 0:13:56.795,0:13:59.372 他就能去考驾照了。 0:13:59.372,0:14:02.576 我和我的团队承诺[br]尽量不让他去考(已经不需要了)。 0:14:02.576,0:14:04.480 谢谢。 0:14:04.480,0:14:08.147 (笑声)(掌声) 0:14:08.890,0:14:11.068 克利斯·安德森(CA):[br]克里斯,我有个问题要问你。 0:14:11.068,0:14:12.707 克里斯·厄姆森(CU):问吧。 0:14:14.487,0:14:18.411 CA:显而易见,[br]你们的车有着让人惊奇的大脑。 0:14:18.411,0:14:22.870 在驾驶辅助和无人驾驶这场辩论上—— 0:14:22.870,0:14:25.911 我是说,现在就有一场真正的辩论。 0:14:25.911,0:14:28.744 一些公司,例如,特斯拉, 0:14:28.744,0:14:30.903 正在走驾驶辅助的路线。 0:14:30.903,0:14:36.151 而你所说的,[br]就是这将是个没前途的死胡同, 0:14:36.151,0:14:41.607 因为你不能指望在这方面不断提高[br]就会在某个时候实现无人驾驶, 0:14:41.607,0:14:45.137 然后有驾驶员说[br]“这已经挺安全的了”, 0:14:45.137,0:14:47.784 然后转身去后座,[br]不幸就发生了。 0:14:47.784,0:14:50.120 CU:对,你说得对,这并不是说 0:14:50.120,0:14:53.547 驾驶员辅助系统作用不大。 0:14:53.547,0:14:55.675 它能在这个过渡阶段拯救很多生命, 0:14:55.675,0:14:59.308 但为了抓住这一变革性的机会,[br]能帮助像史蒂夫这样的人行动自如, 0:14:59.308,0:15:01.857 为了终结安全事故, 0:15:01.857,0:15:04.336 为了有机会改变我们的城市, 0:15:04.336,0:15:08.290 解决停车问题,[br]摆脱我们称为停车场的城市大坑, 0:15:08.290,0:15:09.780 这是唯一的办法了。 0:15:09.780,0:15:12.498 CA:我们会带着浓厚的兴趣[br]关注你们的进展的。 0:15:12.498,0:15:16.730 谢谢你,克里斯。[br]CU:谢谢。(掌声)