WEBVTT 00:00:00.528 --> 00:00:04.477 在1885年,卡尔本茨发明了汽车。 00:00:04.707 --> 00:00:08.469 那年年末,他把车开出去 进行第一次户外测试, 00:00:08.469 --> 00:00:11.844 然后——真实是——他撞墙了。 00:00:12.184 --> 00:00:14.227 在过去的130年里, 00:00:14.227 --> 00:00:18.546 我们一直在为汽车的最薄弱环节, 驾驶员,做着努力。 00:00:18.546 --> 00:00:20.210 我们把车做得更坚固, 00:00:20.210 --> 00:00:22.748 我们增加了安全带,增加了安全气囊。 00:00:22.748 --> 00:00:26.719 在过去十年里, 我们开始让车变得更智能, 00:00:26.719 --> 00:00:29.657 是为弥补驾驶员方面的缺陷。 NOTE Paragraph 00:00:29.657 --> 00:00:32.918 那么,今天我将给大家讲讲, 00:00:32.918 --> 00:00:36.726 用驾驶员辅助系统解决问题, 00:00:36.726 --> 00:00:39.290 和真正使用全面自动驾驶汽车的区别, 00:00:39.290 --> 00:00:41.170 以及它们对世界的贡献。 00:00:41.170 --> 00:00:44.165 我也会介绍一下我们的车, 00:00:44.165 --> 00:00:48.164 让你们了解它是如何观察这个世界的, 以及如何应对各种情况, 00:00:48.164 --> 00:00:51.351 但首先我先说说存在的问题。 00:00:51.651 --> 00:00:52.999 这是个很严重的问题, 00:00:52.999 --> 00:00:56.388 每年全世界都有120万人 因交通事故丧命。 00:00:56.388 --> 00:01:00.172 仅仅在美国, 每年就有3万3千人死于车祸。 00:01:00.172 --> 00:01:02.200 换个方式说, 00:01:02.200 --> 00:01:06.997 等同于每天都有一架737飞机失事。 00:01:07.342 --> 00:01:09.128 有点不可思议。 00:01:09.548 --> 00:01:11.846 汽车卖给我们后应该是这样一番景象, 00:01:11.846 --> 00:01:14.563 但事实上,驾驶过程通常是这样。 00:01:14.563 --> 00:01:16.722 对吧?这不是晴天,是雨天, 00:01:16.722 --> 00:01:19.210 而且除了开车, 你还想做点别的事情。 00:01:19.210 --> 00:01:20.832 原因就是: 00:01:20.832 --> 00:01:22.690 交通状况变得越来越糟。 00:01:22.690 --> 00:01:26.196 在美国,从1990年到2010年, 00:01:26.196 --> 00:01:29.700 交通工具的里程数增加了38%。 00:01:30.213 --> 00:01:32.962 而我们只增修了6%的路, 00:01:32.962 --> 00:01:34.564 所以不单单是你的感觉如此。 00:01:34.564 --> 00:01:38.840 交通状况的确比以前糟糕得多。 NOTE Paragraph 00:01:38.840 --> 00:01:41.249 所有的这一切也都伴随着人力成本。 00:01:41.529 --> 00:01:45.477 如果你把在美的平均通勤时间, 约50分钟, 00:01:45.477 --> 00:01:49.126 乘以我们的1亿2000万工作者, 00:01:49.126 --> 00:01:51.351 结果就是60亿分钟, 00:01:51.351 --> 00:01:53.377 每天会被浪费在路上。 00:01:53.377 --> 00:01:56.204 这是个很大的数字, 那么我们换个方式, 00:01:56.204 --> 00:01:57.978 你把这60亿分钟, 00:01:57.978 --> 00:02:01.762 除以人均寿命, 00:02:01.762 --> 00:02:04.897 得出数字是162个生命周期。 00:02:04.897 --> 00:02:07.822 仅仅从A地到B地,每天就有这么多 00:02:07.822 --> 00:02:09.866 生命白白浪费掉了。 00:02:09.866 --> 00:02:11.596 太难以置信了。 00:02:11.596 --> 00:02:14.440 当然,我们当中还有一些人无法享有 00:02:14.440 --> 00:02:16.112 坐到车流中来的权利。 00:02:16.112 --> 00:02:17.180 这个人叫史蒂夫。 00:02:17.180 --> 00:02:19.455 他是个很有才能的人。 00:02:19.455 --> 00:02:21.971 但很不幸,他是盲人, 00:02:21.971 --> 00:02:25.188 这意味着本来早上 上班路上的30分钟, 00:02:25.188 --> 00:02:29.167 变成了两个小时的 各种转乘公共交通的折磨, 00:02:29.167 --> 00:02:31.552 或者是请求朋友或家人载他一程。 00:02:31.552 --> 00:02:35.221 他并没有像你我一样 想去哪儿就去哪儿的自由。 00:02:35.221 --> 00:02:37.911 我们应该改变这种现状。 NOTE Paragraph 00:02:37.911 --> 00:02:39.648 现在,传统观点认为, 00:02:39.648 --> 00:02:42.140 我们应该使用驾驶员辅助系统, 00:02:42.140 --> 00:02:45.480 然后不停改进它们, 00:02:45.480 --> 00:02:48.432 总有一天,它们能够实现自动驾驶。 00:02:48.432 --> 00:02:50.841 事实上我今天来就是想告诉你们, 这就跟 00:02:50.841 --> 00:02:54.898 如果我努力练习弹跳, 有一天我就能飞翔一样不现实。 00:02:54.898 --> 00:02:57.626 我们需要做点不同的东西。 00:02:57.626 --> 00:02:59.737 我会跟你们介绍 00:02:59.737 --> 00:03:03.683 自动驾驶系统和驾驶员辅助系统的 三个不同方面。 00:03:03.683 --> 00:03:06.334 我先从自己的经历说起。 NOTE Paragraph 00:03:06.334 --> 00:03:08.587 在2013年, 00:03:08.587 --> 00:03:11.250 我们进行了第一次自动驾驶测试, 00:03:11.250 --> 00:03:13.277 让普通人来操作。 00:03:13.277 --> 00:03:15.479 算是普通人吧—— 他们是100名谷歌员工, 00:03:15.479 --> 00:03:17.482 但他们没有参与开发这个项目。 00:03:17.482 --> 00:03:21.103 我们把车给他们, 让他们在日常生活中使用。 00:03:21.103 --> 00:03:24.822 但与真的自动驾驶汽车不同, 这一辆得加个星号上去: 00:03:24.822 --> 00:03:26.326 他们得留多个心眼儿, 00:03:26.326 --> 00:03:28.959 因为这只是一辆试验车。 00:03:28.959 --> 00:03:32.484 我们虽然进行了很多测试, 但还是有风险。 00:03:32.484 --> 00:03:34.543 我们对他们进行了两个小时的训练, 00:03:34.543 --> 00:03:36.635 然后让他们进行实际操作, 00:03:36.635 --> 00:03:38.762 然后我们得到了一些很好的反馈, 00:03:38.762 --> 00:03:41.136 因为有人把产品带到现实中来了。 00:03:41.136 --> 00:03:43.211 每个人都对它赞不绝口。 00:03:43.211 --> 00:03:46.777 事实上,在第一天 有一个保时捷驾驶员进来跟我们说, 00:03:46.777 --> 00:03:49.440 “这实在是太无厘头了。 你们到底怎么想的?” 00:03:49.850 --> 00:03:52.480 但最后,他说,“不单是我需要它, 00:03:52.480 --> 00:03:55.865 每个人都需要有一辆, 大家的车技都太烂了。” 00:03:57.135 --> 00:03:58.870 这番话就是我们的福音, 00:03:58.870 --> 00:04:02.673 然后我们开始观察 人们在车里都在做什么, 00:04:02.673 --> 00:04:04.252 真让人大开眼界。 00:04:04.252 --> 00:04:06.690 我最喜欢的故事,是一位先生 00:04:06.690 --> 00:04:10.519 低头看手机,发现手机快没电了, 00:04:10.519 --> 00:04:15.067 然后他在车里这样转过身, 在背包里四处摸索着, 00:04:15.067 --> 00:04:16.980 拿出他的笔记本电脑, 00:04:16.980 --> 00:04:18.787 放到副驾驶座位上, 00:04:18.787 --> 00:04:20.551 再转过身, 00:04:20.551 --> 00:04:23.918 又摸了一通,拿出手机充电线, 00:04:23.918 --> 00:04:27.285 理一下线,插进电脑里,连上手机。 00:04:27.285 --> 00:04:29.328 棒极了,手机有电了。 00:04:29.328 --> 00:04:33.322 而他那时正行驶在时速65英里的高速上 (约104公里每小时)。 00:04:33.322 --> 00:04:35.806 能想象到吗?太难以置信了。 00:04:35.806 --> 00:04:38.927 所以我们想了想,说, 这挺明显的对吧? 00:04:38.927 --> 00:04:41.190 科技越来越发达, 00:04:41.190 --> 00:04:43.311 驾驶员就不需要太负责任。 00:04:43.311 --> 00:04:45.707 所以只是把车变得更加智能, 00:04:45.707 --> 00:04:48.609 并没法让我们看到真正需要的成功。 NOTE Paragraph 00:04:48.609 --> 00:04:52.510 我在这里要暂时说一点技术上的东西。 00:04:52.510 --> 00:04:54.948 在这张图上,底部的线 00:04:54.948 --> 00:04:57.999 代表着在不必要的时候 制动刹车发生的频率。 00:04:57.999 --> 00:04:59.620 你可以忽略这条轴的大部分. 00:04:59.620 --> 00:05:03.339 因为如果你在城里开车, 然后车时不时自己停下来。 00:05:03.339 --> 00:05:05.040 你永远都不会买这辆车。 00:05:05.040 --> 00:05:08.415 竖直的轴线表示车会 在你需要避免事故时 00:05:08.415 --> 00:05:11.464 采取制动刹车的频率。 00:05:11.464 --> 00:05:13.685 如果我们看左下角, 00:05:13.685 --> 00:05:15.530 这是你们正在开的普通汽车。 00:05:15.530 --> 00:05:18.663 它不会自动为你刹车, 也不至于刹车失灵, 00:05:18.663 --> 00:05:21.442 但它无法为你避免事故。 00:05:21.442 --> 00:05:24.090 如果我们把驾驶员辅助系统 装进车里, 00:05:24.090 --> 00:05:25.988 比如说撞击缓冲刹车系统, 00:05:25.988 --> 00:05:28.240 我们会导入一系列的科技, 00:05:28.240 --> 00:05:31.428 也就是这条曲线, 它有了一些操作属性, 00:05:31.428 --> 00:05:33.708 但也不会完全规避事故, 00:05:33.708 --> 00:05:35.727 因为它没有这个能力。 00:05:35.727 --> 00:05:37.796 但我们会在曲线上取某个点, 00:05:37.796 --> 00:05:41.370 也许它可以避免一半 因驾驶员失误引起的事故。 00:05:41.370 --> 00:05:42.697 挺赞的,对吧? 00:05:42.697 --> 00:05:46.394 我们可以减少一半的交通事故。 00:05:46.394 --> 00:05:50.381 这样每年在美国就有1万7千人 幸免于难。 NOTE Paragraph 00:05:50.381 --> 00:05:52.401 但如果我们想要一辆自动驾驶汽车, 00:05:52.401 --> 00:05:54.708 我们需要一条这样的曲线。 00:05:54.708 --> 00:05:57.307 我们得在车里加装更多的传感器, 00:05:57.307 --> 00:05:59.138 然后在这里挑某个操作点, 00:05:59.138 --> 00:06:01.347 在这个点上基本 永远不会有事故发生。 00:06:01.347 --> 00:06:03.790 多少还是会发生,但概率极低。 00:06:03.790 --> 00:06:05.751 现在我们可以看看这里, 00:06:05.751 --> 00:06:09.076 探讨一下是否有所增加, 我会提到比方说“80-20规则”, 00:06:09.076 --> 00:06:11.594 而且很难再上升了。 00:06:11.594 --> 00:06:14.628 但让我们暂时从另一个角度看一看。 00:06:14.628 --> 00:06:18.870 我们看看这种科技应用的频率多高。 00:06:18.870 --> 00:06:22.376 这个绿点表示驾驶员辅助系统。 00:06:22.376 --> 00:06:24.861 调查发现人类驾驶员 00:06:24.861 --> 00:06:27.508 因为自身错误导致的交通事故, 00:06:27.508 --> 00:06:30.680 在美国是每10万英里(约16万公里) 发生一次。 00:06:30.680 --> 00:06:35.227 对比之下,自动驾驶系统约在每秒 00:06:35.227 --> 00:06:37.220 会自行做10次决定。 00:06:37.220 --> 00:06:38.932 所以就数量级而言, 00:06:38.932 --> 00:06:41.764 约是每英里(1.6公里)1000次。 00:06:41.764 --> 00:06:44.249 如果你对比一下两者的差距, 00:06:44.249 --> 00:06:46.849 就是10的八次方,对吧? 00:06:46.849 --> 00:06:48.614 8个数量级, 00:06:48.614 --> 00:06:51.423 这就像拿我跑步的速度 00:06:51.423 --> 00:06:53.629 和光速比较, 00:06:53.629 --> 00:06:57.414 即便我再刻苦训练, 也永远达不到光速。 00:06:57.414 --> 00:06:59.852 所以这个跨度非常大。 NOTE Paragraph 00:06:59.852 --> 00:07:03.581 最后,就是这个系统如何 处理不确定性。 00:07:03.581 --> 00:07:06.904 那么这个行人可能会走到路上, 也可能不会。 00:07:06.904 --> 00:07:09.929 我不确定,也没有任何算法能确定, 00:07:09.929 --> 00:07:12.594 但对于驾驶员辅助系统来说, 00:07:12.594 --> 00:07:14.720 这意味着它无法采取措施, 00:07:14.720 --> 00:07:18.739 因为如果它在预期之外采取制动, 是完全不合适的。 00:07:18.739 --> 00:07:21.872 但自动驾驶系统则会观察行人, 00:07:21.872 --> 00:07:23.762 然后说我不知道他们要做什么, 00:07:23.762 --> 00:07:27.524 于是减速,再仔细观察, 然后采取适当措施。 NOTE Paragraph 00:07:27.524 --> 00:07:31.226 所以这就比驾驶员辅助系统 要安全得多, 00:07:31.226 --> 00:07:33.956 那么以上的例子就 足以体现这两者的区别了。 00:07:33.956 --> 00:07:37.140 现在我们再花点时间聊聊 车是如何观察环境的。 NOTE Paragraph 00:07:37.140 --> 00:07:38.692 这是我们的车。 00:07:38.692 --> 00:07:40.890 它从识别自己的位置开始, 00:07:40.890 --> 00:07:43.917 通过将它的地图和 传感器数据进行叠加, 00:07:43.917 --> 00:07:46.865 然后我们再加上它当时看到的东西, 00:07:46.865 --> 00:07:50.520 所以在这里所有你能看到的紫色盒子 是路上的其他车辆, 00:07:50.520 --> 00:07:53.048 旁边红色的物体则是一位骑单车的人, 00:07:53.048 --> 00:07:55.450 如果你再仔细点看,在远处, 00:07:55.450 --> 00:07:57.244 你能看到一些锥形路障。 00:07:57.244 --> 00:08:00.017 这样我们就能知道汽车现在的位置了, 00:08:00.017 --> 00:08:03.130 但我们还得再改善: 我们得预测将发生的事情。 00:08:03.130 --> 00:08:06.698 这里右上角的小卡车正准备换到左道, 00:08:06.698 --> 00:08:08.961 因为前面的路被封了, 00:08:08.961 --> 00:08:11.292 所以它得驶离原车道。 00:08:11.292 --> 00:08:13.155 能知道一辆小卡车的轨迹确实不错, 00:08:13.155 --> 00:08:15.634 但我们真正需要的是 了解每个人的想法, 00:08:15.634 --> 00:08:18.141 所以问题就变得十分复杂了。 00:08:18.141 --> 00:08:22.460 了解这些之后, 我们就可以算出汽车该如何应对, 00:08:22.460 --> 00:08:26.756 该跟随哪条线路, 要多快实现减速或者加速。 00:08:26.756 --> 00:08:29.821 所有的这一切最终都会 变成跟随一条路径: 00:08:29.821 --> 00:08:33.018 向左或还是右打方向盘, 踩刹车还是油门。 00:08:33.018 --> 00:08:35.482 所有的一切最终都 简化成了两个数值, 00:08:35.482 --> 00:08:37.723 那这能有多难呢? NOTE Paragraph 00:08:38.433 --> 00:08:40.385 在2009年我们刚开始测试的时候, 00:08:40.385 --> 00:08:41.983 我们的系统看起来是这样的。 00:08:41.983 --> 00:08:44.714 你能看到我们的车在中间, 路上还有其他盒子, 00:08:44.714 --> 00:08:46.075 同时在高速上行驶着。 00:08:46.075 --> 00:08:49.503 这辆车需要知道自己的位置 以及其他车辆的大概方位。 00:08:49.503 --> 00:08:53.092 基本上就是一种几何的分析方式。 00:08:53.092 --> 00:08:56.040 当我们开始在社区和 城市道路上行驶时, 00:08:56.040 --> 00:08:58.485 问题又上升到了一个新的难度。 00:08:58.485 --> 00:09:01.979 你能看到行人在我们面前穿梭, 还有汽车, 00:09:01.979 --> 00:09:03.460 横纵交错, 00:09:03.460 --> 00:09:05.317 还有红绿灯,人行横道。 00:09:05.317 --> 00:09:08.114 相比之下问题变得极度复杂。 00:09:08.114 --> 00:09:10.217 当你把这个问题解决后, 00:09:10.217 --> 00:09:12.729 接下来汽车还得能应付建筑施工。 00:09:12.729 --> 00:09:15.880 所以左边的锥形路障会 迫使汽车开到右边, 00:09:15.880 --> 00:09:18.282 当然不仅需要避开施工区域, 00:09:18.282 --> 00:09:22.005 它还得应付在其间走动的其他人。 00:09:22.005 --> 00:09:24.808 当然,如果有人违规了, 有警察在那里, 00:09:24.808 --> 00:09:28.070 汽车就得明白车上闪着灯 00:09:28.070 --> 00:09:31.385 意味着这不仅仅是一辆车, 还有一位警官。 00:09:31.385 --> 00:09:33.577 类似的,这里路边橘黄色的盒子, 00:09:33.577 --> 00:09:35.136 是校车, 00:09:35.136 --> 00:09:37.656 我们也得分开来处理。 NOTE Paragraph 00:09:38.576 --> 00:09:41.369 当我们在路上时, 其他人会表达各种意图: 00:09:41.369 --> 00:09:43.149 当骑单车的人举起他们的手臂, 00:09:43.149 --> 00:09:46.667 这就意味着他们希望有车能 让给他们点空间 00:09:46.667 --> 00:09:48.720 以便进行换道。 00:09:49.030 --> 00:09:51.203 当路中间站着一位警官, 00:09:51.203 --> 00:09:53.943 我们的车得明白这手势是要你停下来, 00:09:53.943 --> 00:09:57.449 当他们示意我们可以走了, 我们才能继续。 NOTE Paragraph 00:09:57.449 --> 00:10:01.210 我们达成这些目标, 是通过和其他车辆分享数据。 00:10:01.210 --> 00:10:02.906 首先,最简单粗制的模型, 00:10:02.906 --> 00:10:05.019 就是当一辆车看到建筑施工地带时, 00:10:05.019 --> 00:10:08.081 告知另一辆车,让它驶上正确的车道 00:10:08.081 --> 00:10:09.651 以避免麻烦。 00:10:09.651 --> 00:10:12.315 但我们对此有更深的认识。 00:10:12.315 --> 00:10:15.324 我们可以搜集车辆在一段时间内 看到的数据, 00:10:15.324 --> 00:10:17.700 数以千计在路上的行人,骑单车的人, 00:10:17.700 --> 00:10:19.487 以及其他车辆, 00:10:19.487 --> 00:10:21.182 了解他们的外形, 00:10:21.182 --> 00:10:23.823 再用之去推理其他车辆 00:10:23.823 --> 00:10:25.939 以及其他行人的外形。 00:10:25.939 --> 00:10:28.960 然后,更重要的是, 我们可以从中得出一个模型, 00:10:28.960 --> 00:10:31.290 预测所有交通参与者的去向。 00:10:31.290 --> 00:10:34.253 这里的黄色盒子是 我们面前过马路的行人。 00:10:34.253 --> 00:10:36.503 这个蓝色盒子是个骑单车的人, 而且我们预测 00:10:36.503 --> 00:10:39.815 他会一直保持在车辆右侧。 00:10:40.115 --> 00:10:42.207 这里有个在路上骑单车的人, 00:10:42.207 --> 00:10:44.813 我们知道他会沿着路一直骑下去。 00:10:44.813 --> 00:10:47.160 这里有人右转了, 00:10:47.160 --> 00:10:50.290 而在这里,有人会在我们面前调头, 00:10:50.290 --> 00:10:53.324 我们可以预测这个行为并安全应对。 NOTE Paragraph 00:10:53.324 --> 00:10:55.922 目前为止,对于我们见过的场景 都没什么问题, 00:10:55.922 --> 00:10:57.927 但当然,你还会遇见很多 00:10:57.927 --> 00:10:59.698 之前没见过的东西。 00:10:59.698 --> 00:11:01.439 几个月前, 00:11:01.439 --> 00:11:03.484 我们的车辆在通过Mountain View (硅谷地名)的时候, 00:11:03.484 --> 00:11:04.848 就遇到了这样的情景。 00:11:04.848 --> 00:11:07.220 这是个坐着电动轮椅的女士, 00:11:07.220 --> 00:11:10.677 在路中央绕着圈追赶一只鸭子。 (笑声) 00:11:10.677 --> 00:11:13.788 结果呢,在机动车驾驶管理处的手册里 00:11:13.788 --> 00:11:16.033 没有一条告诉你该怎么做, 00:11:16.033 --> 00:11:17.916 但我们的车辆却能灵活应对, 00:11:17.916 --> 00:11:20.431 减速并安全通过。 00:11:20.431 --> 00:11:22.272 我们应付的不只是鸭子, 00:11:22.272 --> 00:11:26.180 看看这只飞过我们面前的鸟, 汽车也会对之做出处理。 00:11:26.180 --> 00:11:27.795 这里还有一个骑车的, 00:11:27.795 --> 00:11:31.085 估计除了在Mountain View, 其他地方很难见到。 00:11:31.085 --> 00:11:33.153 当然,我们还得应付其他驾驶员, 00:11:33.153 --> 00:11:36.868 甚至那些幼龄的。 00:11:36.868 --> 00:11:40.999 注意右边,那个从货车上跳下来的人。 00:11:42.210 --> 00:11:45.389 现在,注意左边绿盒子那辆车, 00:11:45.389 --> 00:11:48.714 它决定在最后的时刻右转。 00:11:48.714 --> 00:11:51.245 这里,当我们变道时,我们左边的车 00:11:51.245 --> 00:11:55.118 也同样想变道。 00:11:55.118 --> 00:11:57.811 还有这里,我们看到一辆车闯了红灯, 00:11:57.811 --> 00:11:59.901 我们就先让它通过。 00:11:59.901 --> 00:12:03.755 同样这里,骑单车的人也闯红灯了, 00:12:03.755 --> 00:12:06.501 不出所料, 我们的车也能安全应对。 00:12:06.501 --> 00:12:09.102 当然还有一些莫名其妙的人, 00:12:09.102 --> 00:12:12.645 就像这家伙一样, 直接就从两辆自动驾驶汽车中窜出来。 00:12:12.645 --> 00:12:14.970 你会想问,“你脑子是怎么想的?” 00:12:14.970 --> 00:12:16.182 (笑声) NOTE Paragraph 00:12:16.182 --> 00:12:18.113 我已经给你们看了大量的例子, 00:12:18.113 --> 00:12:20.863 我快速地讲一下其中的一个案例。 00:12:20.863 --> 00:12:23.363 我们现在看到的还是骑单车的人, 00:12:23.363 --> 00:12:27.034 你们可能会发现在下面的视角, 我们还看不到那个人, 00:12:27.034 --> 00:12:29.968 但车能看到:就是那里的小蓝盒子, 00:12:29.968 --> 00:12:31.999 这来自于激光数据。 00:12:31.999 --> 00:12:33.897 这并不是很容易理解, 00:12:33.897 --> 00:12:36.661 那么我接下来要做的, 就是调出激光数据看一下, 00:12:36.661 --> 00:12:39.000 如果你擅长分析激光数据,你能发现 00:12:39.000 --> 00:12:40.787 曲线上的一些点, 00:12:40.787 --> 00:12:44.099 就在那儿, 那个蓝色小盒子就是骑单车的人。 00:12:44.099 --> 00:12:45.978 这会儿面对我们的还是红灯, 00:12:45.978 --> 00:12:47.560 自行车道的灯已经变黄了, 00:12:47.560 --> 00:12:50.778 如果你瞥一眼的话,就能看到了。 00:12:50.778 --> 00:12:54.034 但是骑单车的人, 我们看到他准备穿过这个十字路口, 00:12:54.034 --> 00:12:56.718 我们的灯已经变绿, 他的方向也变红了, 00:12:56.718 --> 00:13:01.010 我们预期到这辆单车将会横穿马路。 00:13:01.010 --> 00:13:04.752 但不幸的是, 我们旁边的其他司机并没有注意到。 00:13:04.752 --> 00:13:07.909 他们开始踩油门, 不过幸运的是, 00:13:07.909 --> 00:13:10.280 骑单车的人及时避开了, 00:13:10.280 --> 00:13:13.111 然后平安地穿过了十字路口。 00:13:13.111 --> 00:13:14.679 之后我们才又继续前进。 NOTE Paragraph 00:13:14.679 --> 00:13:17.627 正如你们所见, 我们已取得了一些激动人心的成就, 00:13:17.627 --> 00:13:19.529 此时我们深信 00:13:19.529 --> 00:13:21.539 这项技术将会进入市场。 00:13:21.539 --> 00:13:26.322 我们每天用虚拟器做 3百万英里的测试, 00:13:26.322 --> 00:13:29.011 所以你就能够想象到 我们的车辆获得了多少经验。 00:13:29.011 --> 00:13:31.875 我们期待这项技术能在道路上使用, 00:13:31.875 --> 00:13:34.765 并且认为正确的选择是自动驾驶, 00:13:34.765 --> 00:13:36.609 而非驾驶员辅助系统, 00:13:36.609 --> 00:13:39.230 因为情况已经刻不容缓了。 00:13:39.230 --> 00:13:41.623 就在我演讲的时间段内, 00:13:41.623 --> 00:13:44.758 在美国的公路上已经有34人丧生。 NOTE Paragraph 00:13:44.758 --> 00:13:47.126 我们多久能实现这个目标呢? 00:13:47.126 --> 00:13:50.958 嗯,很难说, 因为这是个很复杂的问题, 00:13:50.958 --> 00:13:53.172 这两个是我的儿子。 00:13:53.172 --> 00:13:56.795 大的11岁,也就是说在四年半后, 00:13:56.795 --> 00:13:59.372 他就能去考驾照了。 00:13:59.372 --> 00:14:02.576 我和我的团队承诺 尽量不让他去考(已经不需要了)。 NOTE Paragraph 00:14:02.576 --> 00:14:04.480 谢谢。 NOTE Paragraph 00:14:04.480 --> 00:14:08.147 (笑声)(掌声) 00:14:08.890 --> 00:14:11.068 克利斯·安德森(CA): 克里斯,我有个问题要问你。 NOTE Paragraph 00:14:11.068 --> 00:14:12.707 克里斯·厄姆森(CU):问吧。 NOTE Paragraph 00:14:14.487 --> 00:14:18.411 CA:显而易见, 你们的车有着让人惊奇的大脑。 00:14:18.411 --> 00:14:22.870 在驾驶辅助和无人驾驶这场辩论上—— 00:14:22.870 --> 00:14:25.911 我是说,现在就有一场真正的辩论。 00:14:25.911 --> 00:14:28.744 一些公司,例如,特斯拉, 00:14:28.744 --> 00:14:30.903 正在走驾驶辅助的路线。 00:14:30.903 --> 00:14:36.151 而你所说的, 就是这将是个没前途的死胡同, 00:14:36.151 --> 00:14:41.607 因为你不能指望在这方面不断提高 就会在某个时候实现无人驾驶, 00:14:41.607 --> 00:14:45.137 然后有驾驶员说 “这已经挺安全的了”, 00:14:45.137 --> 00:14:47.784 然后转身去后座, 不幸就发生了。 NOTE Paragraph 00:14:47.784 --> 00:14:50.120 CU:对,你说得对,这并不是说 00:14:50.120 --> 00:14:53.547 驾驶员辅助系统作用不大。 00:14:53.547 --> 00:14:55.675 它能在这个过渡阶段拯救很多生命, 00:14:55.675 --> 00:14:59.308 但为了抓住这一变革性的机会, 能帮助像史蒂夫这样的人行动自如, 00:14:59.308 --> 00:15:01.857 为了终结安全事故, 00:15:01.857 --> 00:15:04.336 为了有机会改变我们的城市, 00:15:04.336 --> 00:15:08.290 解决停车问题, 摆脱我们称为停车场的城市大坑, 00:15:08.290 --> 00:15:09.780 这是唯一的办法了。 NOTE Paragraph 00:15:09.780 --> 00:15:12.498 CA:我们会带着浓厚的兴趣 关注你们的进展的。 00:15:12.498 --> 00:15:16.730 谢谢你,克里斯。 CU:谢谢。(掌声)