1 00:00:00,528 --> 00:00:04,477 在1885年,卡尔本茨发明了汽车。 2 00:00:04,707 --> 00:00:08,469 那年年末,他把车开出去 进行第一次户外测试, 3 00:00:08,469 --> 00:00:11,844 然后——真实是——他撞墙了。 4 00:00:12,184 --> 00:00:14,227 在过去的130年里, 5 00:00:14,227 --> 00:00:18,546 我们一直在为汽车的最薄弱环节, 驾驶员,做着努力。 6 00:00:18,546 --> 00:00:20,210 我们把车做得更坚固, 7 00:00:20,210 --> 00:00:22,748 我们增加了安全带,增加了安全气囊。 8 00:00:22,748 --> 00:00:26,719 在过去十年里, 我们开始让车变得更智能, 9 00:00:26,719 --> 00:00:29,657 是为弥补驾驶员方面的缺陷。 10 00:00:29,657 --> 00:00:32,918 那么,今天我将给大家讲讲, 11 00:00:32,918 --> 00:00:36,726 用驾驶员辅助系统解决问题, 12 00:00:36,726 --> 00:00:39,290 和真正使用全面自动驾驶汽车的区别, 13 00:00:39,290 --> 00:00:41,170 以及它们对世界的贡献。 14 00:00:41,170 --> 00:00:44,165 我也会介绍一下我们的车, 15 00:00:44,165 --> 00:00:48,164 让你们了解它是如何观察这个世界的, 以及如何应对各种情况, 16 00:00:48,164 --> 00:00:51,351 但首先我先说说存在的问题。 17 00:00:51,651 --> 00:00:52,999 这是个很严重的问题, 18 00:00:52,999 --> 00:00:56,388 每年全世界都有120万人 因交通事故丧命。 19 00:00:56,388 --> 00:01:00,172 仅仅在美国, 每年就有3万3千人死于车祸。 20 00:01:00,172 --> 00:01:02,200 换个方式说, 21 00:01:02,200 --> 00:01:06,997 等同于每天都有一架737飞机失事。 22 00:01:07,342 --> 00:01:09,128 有点不可思议。 23 00:01:09,548 --> 00:01:11,846 汽车卖给我们后应该是这样一番景象, 24 00:01:11,846 --> 00:01:14,563 但事实上,驾驶过程通常是这样。 25 00:01:14,563 --> 00:01:16,722 对吧?这不是晴天,是雨天, 26 00:01:16,722 --> 00:01:19,210 而且除了开车, 你还想做点别的事情。 27 00:01:19,210 --> 00:01:20,832 原因就是: 28 00:01:20,832 --> 00:01:22,690 交通状况变得越来越糟。 29 00:01:22,690 --> 00:01:26,196 在美国,从1990年到2010年, 30 00:01:26,196 --> 00:01:29,700 交通工具的里程数增加了38%。 31 00:01:30,213 --> 00:01:32,962 而我们只增修了6%的路, 32 00:01:32,962 --> 00:01:34,564 所以不单单是你的感觉如此。 33 00:01:34,564 --> 00:01:38,840 交通状况的确比以前糟糕得多。 34 00:01:38,840 --> 00:01:41,249 所有的这一切也都伴随着人力成本。 35 00:01:41,529 --> 00:01:45,477 如果你把在美的平均通勤时间, 约50分钟, 36 00:01:45,477 --> 00:01:49,126 乘以我们的1亿2000万工作者, 37 00:01:49,126 --> 00:01:51,351 结果就是60亿分钟, 38 00:01:51,351 --> 00:01:53,377 每天会被浪费在路上。 39 00:01:53,377 --> 00:01:56,204 这是个很大的数字, 那么我们换个方式, 40 00:01:56,204 --> 00:01:57,978 你把这60亿分钟, 41 00:01:57,978 --> 00:02:01,762 除以人均寿命, 42 00:02:01,762 --> 00:02:04,897 得出数字是162个生命周期。 43 00:02:04,897 --> 00:02:07,822 仅仅从A地到B地,每天就有这么多 44 00:02:07,822 --> 00:02:09,866 生命白白浪费掉了。 45 00:02:09,866 --> 00:02:11,596 太难以置信了。 46 00:02:11,596 --> 00:02:14,440 当然,我们当中还有一些人无法享有 47 00:02:14,440 --> 00:02:16,112 坐到车流中来的权利。 48 00:02:16,112 --> 00:02:17,180 这个人叫史蒂夫。 49 00:02:17,180 --> 00:02:19,455 他是个很有才能的人。 50 00:02:19,455 --> 00:02:21,971 但很不幸,他是盲人, 51 00:02:21,971 --> 00:02:25,188 这意味着本来早上 上班路上的30分钟, 52 00:02:25,188 --> 00:02:29,167 变成了两个小时的 各种转乘公共交通的折磨, 53 00:02:29,167 --> 00:02:31,552 或者是请求朋友或家人载他一程。 54 00:02:31,552 --> 00:02:35,221 他并没有像你我一样 想去哪儿就去哪儿的自由。 55 00:02:35,221 --> 00:02:37,911 我们应该改变这种现状。 56 00:02:37,911 --> 00:02:39,648 现在,传统观点认为, 57 00:02:39,648 --> 00:02:42,140 我们应该使用驾驶员辅助系统, 58 00:02:42,140 --> 00:02:45,480 然后不停改进它们, 59 00:02:45,480 --> 00:02:48,432 总有一天,它们能够实现自动驾驶。 60 00:02:48,432 --> 00:02:50,841 事实上我今天来就是想告诉你们, 这就跟 61 00:02:50,841 --> 00:02:54,898 如果我努力练习弹跳, 有一天我就能飞翔一样不现实。 62 00:02:54,898 --> 00:02:57,626 我们需要做点不同的东西。 63 00:02:57,626 --> 00:02:59,737 我会跟你们介绍 64 00:02:59,737 --> 00:03:03,683 自动驾驶系统和驾驶员辅助系统的 三个不同方面。 65 00:03:03,683 --> 00:03:06,334 我先从自己的经历说起。 66 00:03:06,334 --> 00:03:08,587 在2013年, 67 00:03:08,587 --> 00:03:11,250 我们进行了第一次自动驾驶测试, 68 00:03:11,250 --> 00:03:13,277 让普通人来操作。 69 00:03:13,277 --> 00:03:15,479 算是普通人吧—— 他们是100名谷歌员工, 70 00:03:15,479 --> 00:03:17,482 但他们没有参与开发这个项目。 71 00:03:17,482 --> 00:03:21,103 我们把车给他们, 让他们在日常生活中使用。 72 00:03:21,103 --> 00:03:24,822 但与真的自动驾驶汽车不同, 这一辆得加个星号上去: 73 00:03:24,822 --> 00:03:26,326 他们得留多个心眼儿, 74 00:03:26,326 --> 00:03:28,959 因为这只是一辆试验车。 75 00:03:28,959 --> 00:03:32,484 我们虽然进行了很多测试, 但还是有风险。 76 00:03:32,484 --> 00:03:34,543 我们对他们进行了两个小时的训练, 77 00:03:34,543 --> 00:03:36,635 然后让他们进行实际操作, 78 00:03:36,635 --> 00:03:38,762 然后我们得到了一些很好的反馈, 79 00:03:38,762 --> 00:03:41,136 因为有人把产品带到现实中来了。 80 00:03:41,136 --> 00:03:43,211 每个人都对它赞不绝口。 81 00:03:43,211 --> 00:03:46,777 事实上,在第一天 有一个保时捷驾驶员进来跟我们说, 82 00:03:46,777 --> 00:03:49,440 “这实在是太无厘头了。 你们到底怎么想的?” 83 00:03:49,850 --> 00:03:52,480 但最后,他说,“不单是我需要它, 84 00:03:52,480 --> 00:03:55,865 每个人都需要有一辆, 大家的车技都太烂了。” 85 00:03:57,135 --> 00:03:58,870 这番话就是我们的福音, 86 00:03:58,870 --> 00:04:02,673 然后我们开始观察 人们在车里都在做什么, 87 00:04:02,673 --> 00:04:04,252 真让人大开眼界。 88 00:04:04,252 --> 00:04:06,690 我最喜欢的故事,是一位先生 89 00:04:06,690 --> 00:04:10,519 低头看手机,发现手机快没电了, 90 00:04:10,519 --> 00:04:15,067 然后他在车里这样转过身, 在背包里四处摸索着, 91 00:04:15,067 --> 00:04:16,980 拿出他的笔记本电脑, 92 00:04:16,980 --> 00:04:18,787 放到副驾驶座位上, 93 00:04:18,787 --> 00:04:20,551 再转过身, 94 00:04:20,551 --> 00:04:23,918 又摸了一通,拿出手机充电线, 95 00:04:23,918 --> 00:04:27,285 理一下线,插进电脑里,连上手机。 96 00:04:27,285 --> 00:04:29,328 棒极了,手机有电了。 97 00:04:29,328 --> 00:04:33,322 而他那时正行驶在时速65英里的高速上 (约104公里每小时)。 98 00:04:33,322 --> 00:04:35,806 能想象到吗?太难以置信了。 99 00:04:35,806 --> 00:04:38,927 所以我们想了想,说, 这挺明显的对吧? 100 00:04:38,927 --> 00:04:41,190 科技越来越发达, 101 00:04:41,190 --> 00:04:43,311 驾驶员就不需要太负责任。 102 00:04:43,311 --> 00:04:45,707 所以只是把车变得更加智能, 103 00:04:45,707 --> 00:04:48,609 并没法让我们看到真正需要的成功。 104 00:04:48,609 --> 00:04:52,510 我在这里要暂时说一点技术上的东西。 105 00:04:52,510 --> 00:04:54,948 在这张图上,底部的线 106 00:04:54,948 --> 00:04:57,999 代表着在不必要的时候 制动刹车发生的频率。 107 00:04:57,999 --> 00:04:59,620 你可以忽略这条轴的大部分. 108 00:04:59,620 --> 00:05:03,339 因为如果你在城里开车, 然后车时不时自己停下来。 109 00:05:03,339 --> 00:05:05,040 你永远都不会买这辆车。 110 00:05:05,040 --> 00:05:08,415 竖直的轴线表示车会 在你需要避免事故时 111 00:05:08,415 --> 00:05:11,464 采取制动刹车的频率。 112 00:05:11,464 --> 00:05:13,685 如果我们看左下角, 113 00:05:13,685 --> 00:05:15,530 这是你们正在开的普通汽车。 114 00:05:15,530 --> 00:05:18,663 它不会自动为你刹车, 也不至于刹车失灵, 115 00:05:18,663 --> 00:05:21,442 但它无法为你避免事故。 116 00:05:21,442 --> 00:05:24,090 如果我们把驾驶员辅助系统 装进车里, 117 00:05:24,090 --> 00:05:25,988 比如说撞击缓冲刹车系统, 118 00:05:25,988 --> 00:05:28,240 我们会导入一系列的科技, 119 00:05:28,240 --> 00:05:31,428 也就是这条曲线, 它有了一些操作属性, 120 00:05:31,428 --> 00:05:33,708 但也不会完全规避事故, 121 00:05:33,708 --> 00:05:35,727 因为它没有这个能力。 122 00:05:35,727 --> 00:05:37,796 但我们会在曲线上取某个点, 123 00:05:37,796 --> 00:05:41,370 也许它可以避免一半 因驾驶员失误引起的事故。 124 00:05:41,370 --> 00:05:42,697 挺赞的,对吧? 125 00:05:42,697 --> 00:05:46,394 我们可以减少一半的交通事故。 126 00:05:46,394 --> 00:05:50,381 这样每年在美国就有1万7千人 幸免于难。 127 00:05:50,381 --> 00:05:52,401 但如果我们想要一辆自动驾驶汽车, 128 00:05:52,401 --> 00:05:54,708 我们需要一条这样的曲线。 129 00:05:54,708 --> 00:05:57,307 我们得在车里加装更多的传感器, 130 00:05:57,307 --> 00:05:59,138 然后在这里挑某个操作点, 131 00:05:59,138 --> 00:06:01,347 在这个点上基本 永远不会有事故发生。 132 00:06:01,347 --> 00:06:03,790 多少还是会发生,但概率极低。 133 00:06:03,790 --> 00:06:05,751 现在我们可以看看这里, 134 00:06:05,751 --> 00:06:09,076 探讨一下是否有所增加, 我会提到比方说“80-20规则”, 135 00:06:09,076 --> 00:06:11,594 而且很难再上升了。 136 00:06:11,594 --> 00:06:14,628 但让我们暂时从另一个角度看一看。 137 00:06:14,628 --> 00:06:18,870 我们看看这种科技应用的频率多高。 138 00:06:18,870 --> 00:06:22,376 这个绿点表示驾驶员辅助系统。 139 00:06:22,376 --> 00:06:24,861 调查发现人类驾驶员 140 00:06:24,861 --> 00:06:27,508 因为自身错误导致的交通事故, 141 00:06:27,508 --> 00:06:30,680 在美国是每10万英里(约16万公里) 发生一次。 142 00:06:30,680 --> 00:06:35,227 对比之下,自动驾驶系统约在每秒 143 00:06:35,227 --> 00:06:37,220 会自行做10次决定。 144 00:06:37,220 --> 00:06:38,932 所以就数量级而言, 145 00:06:38,932 --> 00:06:41,764 约是每英里(1.6公里)1000次。 146 00:06:41,764 --> 00:06:44,249 如果你对比一下两者的差距, 147 00:06:44,249 --> 00:06:46,849 就是10的八次方,对吧? 148 00:06:46,849 --> 00:06:48,614 8个数量级, 149 00:06:48,614 --> 00:06:51,423 这就像拿我跑步的速度 150 00:06:51,423 --> 00:06:53,629 和光速比较, 151 00:06:53,629 --> 00:06:57,414 即便我再刻苦训练, 也永远达不到光速。 152 00:06:57,414 --> 00:06:59,852 所以这个跨度非常大。 153 00:06:59,852 --> 00:07:03,581 最后,就是这个系统如何 处理不确定性。 154 00:07:03,581 --> 00:07:06,904 那么这个行人可能会走到路上, 也可能不会。 155 00:07:06,904 --> 00:07:09,929 我不确定,也没有任何算法能确定, 156 00:07:09,929 --> 00:07:12,594 但对于驾驶员辅助系统来说, 157 00:07:12,594 --> 00:07:14,720 这意味着它无法采取措施, 158 00:07:14,720 --> 00:07:18,739 因为如果它在预期之外采取制动, 是完全不合适的。 159 00:07:18,739 --> 00:07:21,872 但自动驾驶系统则会观察行人, 160 00:07:21,872 --> 00:07:23,762 然后说我不知道他们要做什么, 161 00:07:23,762 --> 00:07:27,524 于是减速,再仔细观察, 然后采取适当措施。 162 00:07:27,524 --> 00:07:31,226 所以这就比驾驶员辅助系统 要安全得多, 163 00:07:31,226 --> 00:07:33,956 那么以上的例子就 足以体现这两者的区别了。 164 00:07:33,956 --> 00:07:37,140 现在我们再花点时间聊聊 车是如何观察环境的。 165 00:07:37,140 --> 00:07:38,692 这是我们的车。 166 00:07:38,692 --> 00:07:40,890 它从识别自己的位置开始, 167 00:07:40,890 --> 00:07:43,917 通过将它的地图和 传感器数据进行叠加, 168 00:07:43,917 --> 00:07:46,865 然后我们再加上它当时看到的东西, 169 00:07:46,865 --> 00:07:50,520 所以在这里所有你能看到的紫色盒子 是路上的其他车辆, 170 00:07:50,520 --> 00:07:53,048 旁边红色的物体则是一位骑单车的人, 171 00:07:53,048 --> 00:07:55,450 如果你再仔细点看,在远处, 172 00:07:55,450 --> 00:07:57,244 你能看到一些锥形路障。 173 00:07:57,244 --> 00:08:00,017 这样我们就能知道汽车现在的位置了, 174 00:08:00,017 --> 00:08:03,130 但我们还得再改善: 我们得预测将发生的事情。 175 00:08:03,130 --> 00:08:06,698 这里右上角的小卡车正准备换到左道, 176 00:08:06,698 --> 00:08:08,961 因为前面的路被封了, 177 00:08:08,961 --> 00:08:11,292 所以它得驶离原车道。 178 00:08:11,292 --> 00:08:13,155 能知道一辆小卡车的轨迹确实不错, 179 00:08:13,155 --> 00:08:15,634 但我们真正需要的是 了解每个人的想法, 180 00:08:15,634 --> 00:08:18,141 所以问题就变得十分复杂了。 181 00:08:18,141 --> 00:08:22,460 了解这些之后, 我们就可以算出汽车该如何应对, 182 00:08:22,460 --> 00:08:26,756 该跟随哪条线路, 要多快实现减速或者加速。 183 00:08:26,756 --> 00:08:29,821 所有的这一切最终都会 变成跟随一条路径: 184 00:08:29,821 --> 00:08:33,018 向左或还是右打方向盘, 踩刹车还是油门。 185 00:08:33,018 --> 00:08:35,482 所有的一切最终都 简化成了两个数值, 186 00:08:35,482 --> 00:08:37,723 那这能有多难呢? 187 00:08:38,433 --> 00:08:40,385 在2009年我们刚开始测试的时候, 188 00:08:40,385 --> 00:08:41,983 我们的系统看起来是这样的。 189 00:08:41,983 --> 00:08:44,714 你能看到我们的车在中间, 路上还有其他盒子, 190 00:08:44,714 --> 00:08:46,075 同时在高速上行驶着。 191 00:08:46,075 --> 00:08:49,503 这辆车需要知道自己的位置 以及其他车辆的大概方位。 192 00:08:49,503 --> 00:08:53,092 基本上就是一种几何的分析方式。 193 00:08:53,092 --> 00:08:56,040 当我们开始在社区和 城市道路上行驶时, 194 00:08:56,040 --> 00:08:58,485 问题又上升到了一个新的难度。 195 00:08:58,485 --> 00:09:01,979 你能看到行人在我们面前穿梭, 还有汽车, 196 00:09:01,979 --> 00:09:03,460 横纵交错, 197 00:09:03,460 --> 00:09:05,317 还有红绿灯,人行横道。 198 00:09:05,317 --> 00:09:08,114 相比之下问题变得极度复杂。 199 00:09:08,114 --> 00:09:10,217 当你把这个问题解决后, 200 00:09:10,217 --> 00:09:12,729 接下来汽车还得能应付建筑施工。 201 00:09:12,729 --> 00:09:15,880 所以左边的锥形路障会 迫使汽车开到右边, 202 00:09:15,880 --> 00:09:18,282 当然不仅需要避开施工区域, 203 00:09:18,282 --> 00:09:22,005 它还得应付在其间走动的其他人。 204 00:09:22,005 --> 00:09:24,808 当然,如果有人违规了, 有警察在那里, 205 00:09:24,808 --> 00:09:28,070 汽车就得明白车上闪着灯 206 00:09:28,070 --> 00:09:31,385 意味着这不仅仅是一辆车, 还有一位警官。 207 00:09:31,385 --> 00:09:33,577 类似的,这里路边橘黄色的盒子, 208 00:09:33,577 --> 00:09:35,136 是校车, 209 00:09:35,136 --> 00:09:37,656 我们也得分开来处理。 210 00:09:38,576 --> 00:09:41,369 当我们在路上时, 其他人会表达各种意图: 211 00:09:41,369 --> 00:09:43,149 当骑单车的人举起他们的手臂, 212 00:09:43,149 --> 00:09:46,667 这就意味着他们希望有车能 让给他们点空间 213 00:09:46,667 --> 00:09:48,720 以便进行换道。 214 00:09:49,030 --> 00:09:51,203 当路中间站着一位警官, 215 00:09:51,203 --> 00:09:53,943 我们的车得明白这手势是要你停下来, 216 00:09:53,943 --> 00:09:57,449 当他们示意我们可以走了, 我们才能继续。 217 00:09:57,449 --> 00:10:01,210 我们达成这些目标, 是通过和其他车辆分享数据。 218 00:10:01,210 --> 00:10:02,906 首先,最简单粗制的模型, 219 00:10:02,906 --> 00:10:05,019 就是当一辆车看到建筑施工地带时, 220 00:10:05,019 --> 00:10:08,081 告知另一辆车,让它驶上正确的车道 221 00:10:08,081 --> 00:10:09,651 以避免麻烦。 222 00:10:09,651 --> 00:10:12,315 但我们对此有更深的认识。 223 00:10:12,315 --> 00:10:15,324 我们可以搜集车辆在一段时间内 看到的数据, 224 00:10:15,324 --> 00:10:17,700 数以千计在路上的行人,骑单车的人, 225 00:10:17,700 --> 00:10:19,487 以及其他车辆, 226 00:10:19,487 --> 00:10:21,182 了解他们的外形, 227 00:10:21,182 --> 00:10:23,823 再用之去推理其他车辆 228 00:10:23,823 --> 00:10:25,939 以及其他行人的外形。 229 00:10:25,939 --> 00:10:28,960 然后,更重要的是, 我们可以从中得出一个模型, 230 00:10:28,960 --> 00:10:31,290 预测所有交通参与者的去向。 231 00:10:31,290 --> 00:10:34,253 这里的黄色盒子是 我们面前过马路的行人。 232 00:10:34,253 --> 00:10:36,503 这个蓝色盒子是个骑单车的人, 而且我们预测 233 00:10:36,503 --> 00:10:39,815 他会一直保持在车辆右侧。 234 00:10:40,115 --> 00:10:42,207 这里有个在路上骑单车的人, 235 00:10:42,207 --> 00:10:44,813 我们知道他会沿着路一直骑下去。 236 00:10:44,813 --> 00:10:47,160 这里有人右转了, 237 00:10:47,160 --> 00:10:50,290 而在这里,有人会在我们面前调头, 238 00:10:50,290 --> 00:10:53,324 我们可以预测这个行为并安全应对。 239 00:10:53,324 --> 00:10:55,922 目前为止,对于我们见过的场景 都没什么问题, 240 00:10:55,922 --> 00:10:57,927 但当然,你还会遇见很多 241 00:10:57,927 --> 00:10:59,698 之前没见过的东西。 242 00:10:59,698 --> 00:11:01,439 几个月前, 243 00:11:01,439 --> 00:11:03,484 我们的车辆在通过Mountain View (硅谷地名)的时候, 244 00:11:03,484 --> 00:11:04,848 就遇到了这样的情景。 245 00:11:04,848 --> 00:11:07,220 这是个坐着电动轮椅的女士, 246 00:11:07,220 --> 00:11:10,677 在路中央绕着圈追赶一只鸭子。 (笑声) 247 00:11:10,677 --> 00:11:13,788 结果呢,在机动车驾驶管理处的手册里 248 00:11:13,788 --> 00:11:16,033 没有一条告诉你该怎么做, 249 00:11:16,033 --> 00:11:17,916 但我们的车辆却能灵活应对, 250 00:11:17,916 --> 00:11:20,431 减速并安全通过。 251 00:11:20,431 --> 00:11:22,272 我们应付的不只是鸭子, 252 00:11:22,272 --> 00:11:26,180 看看这只飞过我们面前的鸟, 汽车也会对之做出处理。 253 00:11:26,180 --> 00:11:27,795 这里还有一个骑车的, 254 00:11:27,795 --> 00:11:31,085 估计除了在Mountain View, 其他地方很难见到。 255 00:11:31,085 --> 00:11:33,153 当然,我们还得应付其他驾驶员, 256 00:11:33,153 --> 00:11:36,868 甚至那些幼龄的。 257 00:11:36,868 --> 00:11:40,999 注意右边,那个从货车上跳下来的人。 258 00:11:42,210 --> 00:11:45,389 现在,注意左边绿盒子那辆车, 259 00:11:45,389 --> 00:11:48,714 它决定在最后的时刻右转。 260 00:11:48,714 --> 00:11:51,245 这里,当我们变道时,我们左边的车 261 00:11:51,245 --> 00:11:55,118 也同样想变道。 262 00:11:55,118 --> 00:11:57,811 还有这里,我们看到一辆车闯了红灯, 263 00:11:57,811 --> 00:11:59,901 我们就先让它通过。 264 00:11:59,901 --> 00:12:03,755 同样这里,骑单车的人也闯红灯了, 265 00:12:03,755 --> 00:12:06,501 不出所料, 我们的车也能安全应对。 266 00:12:06,501 --> 00:12:09,102 当然还有一些莫名其妙的人, 267 00:12:09,102 --> 00:12:12,645 就像这家伙一样, 直接就从两辆自动驾驶汽车中窜出来。 268 00:12:12,645 --> 00:12:14,970 你会想问,“你脑子是怎么想的?” 269 00:12:14,970 --> 00:12:16,182 (笑声) 270 00:12:16,182 --> 00:12:18,113 我已经给你们看了大量的例子, 271 00:12:18,113 --> 00:12:20,863 我快速地讲一下其中的一个案例。 272 00:12:20,863 --> 00:12:23,363 我们现在看到的还是骑单车的人, 273 00:12:23,363 --> 00:12:27,034 你们可能会发现在下面的视角, 我们还看不到那个人, 274 00:12:27,034 --> 00:12:29,968 但车能看到:就是那里的小蓝盒子, 275 00:12:29,968 --> 00:12:31,999 这来自于激光数据。 276 00:12:31,999 --> 00:12:33,897 这并不是很容易理解, 277 00:12:33,897 --> 00:12:36,661 那么我接下来要做的, 就是调出激光数据看一下, 278 00:12:36,661 --> 00:12:39,000 如果你擅长分析激光数据,你能发现 279 00:12:39,000 --> 00:12:40,787 曲线上的一些点, 280 00:12:40,787 --> 00:12:44,099 就在那儿, 那个蓝色小盒子就是骑单车的人。 281 00:12:44,099 --> 00:12:45,978 这会儿面对我们的还是红灯, 282 00:12:45,978 --> 00:12:47,560 自行车道的灯已经变黄了, 283 00:12:47,560 --> 00:12:50,778 如果你瞥一眼的话,就能看到了。 284 00:12:50,778 --> 00:12:54,034 但是骑单车的人, 我们看到他准备穿过这个十字路口, 285 00:12:54,034 --> 00:12:56,718 我们的灯已经变绿, 他的方向也变红了, 286 00:12:56,718 --> 00:13:01,010 我们预期到这辆单车将会横穿马路。 287 00:13:01,010 --> 00:13:04,752 但不幸的是, 我们旁边的其他司机并没有注意到。 288 00:13:04,752 --> 00:13:07,909 他们开始踩油门, 不过幸运的是, 289 00:13:07,909 --> 00:13:10,280 骑单车的人及时避开了, 290 00:13:10,280 --> 00:13:13,111 然后平安地穿过了十字路口。 291 00:13:13,111 --> 00:13:14,679 之后我们才又继续前进。 292 00:13:14,679 --> 00:13:17,627 正如你们所见, 我们已取得了一些激动人心的成就, 293 00:13:17,627 --> 00:13:19,529 此时我们深信 294 00:13:19,529 --> 00:13:21,539 这项技术将会进入市场。 295 00:13:21,539 --> 00:13:26,322 我们每天用虚拟器做 3百万英里的测试, 296 00:13:26,322 --> 00:13:29,011 所以你就能够想象到 我们的车辆获得了多少经验。 297 00:13:29,011 --> 00:13:31,875 我们期待这项技术能在道路上使用, 298 00:13:31,875 --> 00:13:34,765 并且认为正确的选择是自动驾驶, 299 00:13:34,765 --> 00:13:36,609 而非驾驶员辅助系统, 300 00:13:36,609 --> 00:13:39,230 因为情况已经刻不容缓了。 301 00:13:39,230 --> 00:13:41,623 就在我演讲的时间段内, 302 00:13:41,623 --> 00:13:44,758 在美国的公路上已经有34人丧生。 303 00:13:44,758 --> 00:13:47,126 我们多久能实现这个目标呢? 304 00:13:47,126 --> 00:13:50,958 嗯,很难说, 因为这是个很复杂的问题, 305 00:13:50,958 --> 00:13:53,172 这两个是我的儿子。 306 00:13:53,172 --> 00:13:56,795 大的11岁,也就是说在四年半后, 307 00:13:56,795 --> 00:13:59,372 他就能去考驾照了。 308 00:13:59,372 --> 00:14:02,576 我和我的团队承诺 尽量不让他去考(已经不需要了)。 309 00:14:02,576 --> 00:14:04,480 谢谢。 310 00:14:04,480 --> 00:14:08,147 (笑声)(掌声) 311 00:14:08,890 --> 00:14:11,068 克利斯·安德森(CA): 克里斯,我有个问题要问你。 312 00:14:11,068 --> 00:14:12,707 克里斯·厄姆森(CU):问吧。 313 00:14:14,487 --> 00:14:18,411 CA:显而易见, 你们的车有着让人惊奇的大脑。 314 00:14:18,411 --> 00:14:22,870 在驾驶辅助和无人驾驶这场辩论上—— 315 00:14:22,870 --> 00:14:25,911 我是说,现在就有一场真正的辩论。 316 00:14:25,911 --> 00:14:28,744 一些公司,例如,特斯拉, 317 00:14:28,744 --> 00:14:30,903 正在走驾驶辅助的路线。 318 00:14:30,903 --> 00:14:36,151 而你所说的, 就是这将是个没前途的死胡同, 319 00:14:36,151 --> 00:14:41,607 因为你不能指望在这方面不断提高 就会在某个时候实现无人驾驶, 320 00:14:41,607 --> 00:14:45,137 然后有驾驶员说 “这已经挺安全的了”, 321 00:14:45,137 --> 00:14:47,784 然后转身去后座, 不幸就发生了。 322 00:14:47,784 --> 00:14:50,120 CU:对,你说得对,这并不是说 323 00:14:50,120 --> 00:14:53,547 驾驶员辅助系统作用不大。 324 00:14:53,547 --> 00:14:55,675 它能在这个过渡阶段拯救很多生命, 325 00:14:55,675 --> 00:14:59,308 但为了抓住这一变革性的机会, 能帮助像史蒂夫这样的人行动自如, 326 00:14:59,308 --> 00:15:01,857 为了终结安全事故, 327 00:15:01,857 --> 00:15:04,336 为了有机会改变我们的城市, 328 00:15:04,336 --> 00:15:08,290 解决停车问题, 摆脱我们称为停车场的城市大坑, 329 00:15:08,290 --> 00:15:09,780 这是唯一的办法了。 330 00:15:09,780 --> 00:15:12,498 CA:我们会带着浓厚的兴趣 关注你们的进展的。 331 00:15:12,498 --> 00:15:16,730 谢谢你,克里斯。 CU:谢谢。(掌声)