1 00:00:00,560 --> 00:00:04,517 1885年,卡爾·賓士發明汽車。 2 00:00:04,707 --> 00:00:08,469 那年底, 他開著那台車做了第一次公開試駕, 3 00:00:08,469 --> 00:00:11,844 結果,撞毀了。 4 00:00:12,184 --> 00:00:14,227 過去 130 年來, 5 00:00:14,227 --> 00:00:18,546 我們一直致力於改進 車裡最不可靠的部分,駕駛。 6 00:00:18,546 --> 00:00:19,900 我們讓車子更堅固。 7 00:00:20,200 --> 00:00:22,748 我們加上安全帶和安全氣囊, 8 00:00:22,748 --> 00:00:26,719 過去十年, 我們想辦法讓車子變得更聰明 9 00:00:26,719 --> 00:00:29,657 來修正駕駛這個問題。 10 00:00:29,657 --> 00:00:32,918 現在,我要告訴你 11 00:00:32,918 --> 00:00:36,726 使用駕駛輔助系統來修正這問題, 12 00:00:36,726 --> 00:00:39,290 和完全自動化駕駛其中的差異 13 00:00:39,290 --> 00:00:41,170 以及在世界上所產生的影響。 14 00:00:41,170 --> 00:00:44,165 我也將告訴你 關於我們車子的一些細節 15 00:00:44,165 --> 00:00:48,164 讓你可以了解它所看到的世界 以及如何對外界做出反應, 16 00:00:48,164 --> 00:00:51,351 首先我先來探討一個問題。 17 00:00:51,651 --> 00:00:53,299 是一個大問題: 18 00:00:53,299 --> 00:00:56,388 全世界每年有 120 萬人 死於交通事故。 19 00:00:56,388 --> 00:01:00,172 僅僅美國, 每年就佔了 33,000 人。 20 00:01:00,172 --> 00:01:02,200 依此數據與飛機事故比較, 21 00:01:02,200 --> 00:01:06,997 等於每個上班日, 都有一台 737 從空中掉下。 22 00:01:07,342 --> 00:01:09,128 有點讓人無法置信。 23 00:01:09,548 --> 00:01:11,846 車輛以這種模式賣給我們, 24 00:01:11,846 --> 00:01:14,563 但實際上, 這才是我們開車所遇到的狀況, 25 00:01:14,563 --> 00:01:16,722 對吧?不是晴天,而是雨天, 26 00:01:16,722 --> 00:01:19,210 除了開車外你還想要做其他事。 27 00:01:19,210 --> 00:01:20,832 就是這個原因: 28 00:01:20,832 --> 00:01:22,690 交通變得更糟糕了。 29 00:01:22,690 --> 00:01:26,196 在美國,1990 年到 2010 年間, 30 00:01:26,196 --> 00:01:29,700 汽車行駛哩程數增加百分之三十八, 31 00:01:30,213 --> 00:01:32,962 但是道路只增加百分之六, 32 00:01:32,962 --> 00:01:34,564 所以不是錯覺。 33 00:01:34,564 --> 00:01:38,840 跟幾年前比起來 交通其實是變差。 34 00:01:38,840 --> 00:01:41,249 所有這一切都代表大量的人力成本。 35 00:01:41,529 --> 00:01:45,477 以美國平均通勤時間來看, 大約 50 分鐘, 36 00:01:45,477 --> 00:01:49,126 乘以目前約一億兩千萬工作人口, 37 00:01:49,126 --> 00:01:51,351 將會是六十億分鐘的時間 38 00:01:51,351 --> 00:01:53,377 浪費在每天的通勤上。 39 00:01:53,377 --> 00:01:56,204 這是個很大的數值, 這個數據,相當於 40 00:01:56,204 --> 00:01:57,978 把六十億分鐘的時間 41 00:01:57,978 --> 00:02:01,762 除以一般人的平均壽命, 42 00:02:01,762 --> 00:02:04,897 將會是 162 個人一生的時間 43 00:02:04,897 --> 00:02:07,822 每天浪費在這交通上面, 44 00:02:07,822 --> 00:02:09,866 只是要從 A 點移動到 B 點。 45 00:02:09,866 --> 00:02:11,596 讓人無法置信。 46 00:02:11,596 --> 00:02:14,440 而且,有些在交通上 47 00:02:14,440 --> 00:02:16,112 弱勢的人, 48 00:02:16,112 --> 00:02:17,690 這是史蒂夫。 49 00:02:17,690 --> 00:02:19,455 一個非常有才能力的人, 50 00:02:19,455 --> 00:02:21,971 但是他卻是眼睛失明, 51 00:02:21,971 --> 00:02:25,188 他不是每天早上 花 30 分鐘開車上班, 52 00:02:25,188 --> 00:02:29,167 而是要痛苦的花兩個時 轉搭大眾運輸工具 53 00:02:29,167 --> 00:02:31,552 或請求朋友或親人接送。 54 00:02:31,552 --> 00:02:35,221 他無法像你我一樣 有到處走動的自由。 55 00:02:35,221 --> 00:02:37,681 我們應該做一些事情。 56 00:02:37,891 --> 00:02:39,648 在現在傳統的思慮會提到 57 00:02:39,648 --> 00:02:42,140 我們可以使用一些駕駛輔助系統 58 00:02:42,140 --> 00:02:45,890 我們則持續的推動及改善整個系統, 59 00:02:45,890 --> 00:02:48,432 隨著時間演進, 轉變為自動駕駛系統。 60 00:02:48,432 --> 00:02:50,841 在這我要告訴你們就像我所說的 61 00:02:50,841 --> 00:02:54,898 如果我可以很努力的跳躍, 有一天我可以飛上天 62 00:02:54,898 --> 00:02:57,626 我們確實需要 用一些不同的方式去做事情。 63 00:02:57,626 --> 00:03:00,337 我將告訴你 在自動駕駛系統 64 00:03:00,337 --> 00:03:03,683 與駕駛輔助系統之間, 有三個不同點。 65 00:03:03,683 --> 00:03:06,334 從我們本身的經驗開始談起。 66 00:03:06,334 --> 00:03:08,587 2013 年。 67 00:03:08,587 --> 00:03:11,250 我們第一次做自動駕駛車的測試 68 00:03:11,250 --> 00:03:13,277 我們讓一般大眾人去開它。 69 00:03:13,277 --> 00:03:15,479 嗯,幾乎算是 -- 他們是 100 位谷歌的員工, 70 00:03:15,479 --> 00:03:17,482 但他們的工作都不屬於這個專案, 71 00:03:17,482 --> 00:03:21,103 我們提供車輛 並允許在每天的日常生活中使用。 72 00:03:21,103 --> 00:03:24,822 但這不像是自動駕駛的車, 上頭有一個大大的星號在車上, 73 00:03:24,822 --> 00:03:26,326 他們必須集中注意力開車, 74 00:03:26,326 --> 00:03:28,959 因為這些只是實驗車輛。 75 00:03:28,959 --> 00:03:32,484 我們測試很多, 但仍有失敗狀況發生。 76 00:03:32,484 --> 00:03:34,543 所以我們給車主 2 個小時的訓練, 77 00:03:34,543 --> 00:03:36,635 再讓他們進入車內使用它, 78 00:03:36,635 --> 00:03:38,762 我們所收到的回覆讓人感到驚訝, 79 00:03:38,762 --> 00:03:41,286 當一個新產品嘗試進入這個世界。 80 00:03:41,286 --> 00:03:43,211 每一個人都跟我們說他們愛上了它。 81 00:03:43,211 --> 00:03:46,777 事實上,第一天有一個 開保時捷的駕駛跟我們說, 82 00:03:46,777 --> 00:03:49,440 「這完全是件愚蠢的事情, 不知道我們在想些什麼?」 83 00:03:49,850 --> 00:03:52,690 但是在他測試結束後,他說 「不該只有我可以使用它, 84 00:03:52,690 --> 00:03:55,865 每個人都該使用它, 因為許多人都是個糟糕的駕駛。」 85 00:03:57,135 --> 00:03:58,870 這對我們來說有很大的鼓勵, 86 00:03:58,870 --> 00:04:02,673 然後我們開始研究 人們在車裡做些什麼, 87 00:04:02,673 --> 00:04:04,252 真讓人大開眼界。 88 00:04:04,252 --> 00:04:06,690 我最喜歡的故事裡有一位男士 89 00:04:06,690 --> 00:04:10,519 他低頭看手機 發現電池快沒電了, 90 00:04:10,519 --> 00:04:15,067 然後在車裡像這樣轉過身來, 並且在背包裡找尋東西, 91 00:04:15,067 --> 00:04:17,220 拿出一台筆記型電腦, 92 00:04:17,220 --> 00:04:18,787 放在前座, 93 00:04:18,787 --> 00:04:20,551 再回頭一次, 94 00:04:20,551 --> 00:04:23,918 繼續搜尋,拿出手機的充電線, 95 00:04:23,918 --> 00:04:27,285 轉身回來, 把電源線接上筆電跟手機。 96 00:04:27,285 --> 00:04:29,328 當然他的手機已經開始充電了。 97 00:04:29,328 --> 00:04:33,322 同時他以 65 英哩的速度 在高速公路上行駛。 98 00:04:33,322 --> 00:04:35,806 讓人無法置信。 99 00:04:35,806 --> 00:04:38,927 我們思考這整件事情, 有明顯的結論 100 00:04:38,927 --> 00:04:41,190 有更好的科技輔助, 101 00:04:41,190 --> 00:04:43,311 駕駛就越不可靠。 102 00:04:43,311 --> 00:04:45,707 若只讓車子變得更聰明, 103 00:04:45,707 --> 00:04:48,609 那就和我們希望達到的結果不同。 104 00:04:48,609 --> 00:04:52,510 讓我來談論有關技術的部分。 105 00:04:52,510 --> 00:04:54,948 我們來看這圖型,底部的部分, 106 00:04:54,948 --> 00:04:57,999 是在不該踩煞車的情況下 卻踩煞車的頻率, 107 00:04:57,999 --> 00:04:59,620 你可以忽略大部分的 X 軸, 108 00:04:59,620 --> 00:05:03,339 因為如果在你開車到鎮上的路程中, 隨時煞車的話, 109 00:05:03,339 --> 00:05:05,040 你將不會買這部車。 110 00:05:05,040 --> 00:05:08,415 從垂直軸上 可以看到當車輛踩煞車後 111 00:05:08,415 --> 00:05:11,464 可以幫助你避免意外的頻率。 112 00:05:11,464 --> 00:05:13,685 現在,我們看到左下角這個點, 113 00:05:13,685 --> 00:05:15,530 這是我們一般的車輛。 114 00:05:15,530 --> 00:05:18,663 他不會幫忙煞車 傻傻的也不會幫忙任何事, 115 00:05:18,663 --> 00:05:21,442 當然也無法幫你避免意外。 116 00:05:21,442 --> 00:05:24,460 現在, 如果我們想要引進駕駛輔助系統, 117 00:05:24,460 --> 00:05:26,288 如碰撞減輕煞車系統。 118 00:05:26,288 --> 00:05:28,900 我們將在這上面導入一些技術方案, 119 00:05:28,900 --> 00:05:32,318 由這個曲線得知, 這系統可以發揮一些功效, 120 00:05:32,318 --> 00:05:34,808 但仍不可能避免所有的意外, 121 00:05:34,808 --> 00:05:36,867 因為尚未有足夠的能力。 122 00:05:36,867 --> 00:05:39,116 但我們可以在這個曲線中挑一點, 123 00:05:39,116 --> 00:05:42,370 它也許就足夠避免掉一半 人為疏失所造成的意外, 124 00:05:42,370 --> 00:05:43,667 非常神奇,對吧? 125 00:05:43,667 --> 00:05:46,394 我們改變一、兩個因素 就可以把路上的意外事故減少一半。 126 00:05:46,394 --> 00:05:50,381 在美國每年有接近 一萬七千人 死於交通事故。 127 00:05:50,381 --> 00:05:52,401 但如果我們想要有自動駕駛車輛, 128 00:05:52,401 --> 00:05:54,708 我們需要像這條的技術曲線。 129 00:05:54,708 --> 00:05:57,307 需要將更多的感測器放在車上, 130 00:05:57,307 --> 00:05:59,328 將功能調整在曲線上這一點 131 00:05:59,328 --> 00:06:01,347 基本上這點不會導致車禍發生。 132 00:06:01,347 --> 00:06:03,790 就算是有,也是個很低的機率。 133 00:06:03,790 --> 00:06:06,251 當然你可以跟我辯論這一部分 134 00:06:06,251 --> 00:06:09,856 曲線是否有增量性,我只能說 有些事情就像「80-20 法則」, 135 00:06:09,856 --> 00:06:12,424 向上移動成為一個新的曲線 是非常困難的。 136 00:06:12,424 --> 00:06:15,358 我們暫時由另一個方向來看這件事。 137 00:06:15,358 --> 00:06:18,870 可以發現科技 做正出確的判斷有多高。 138 00:06:18,870 --> 00:06:22,376 這條綠線代表的是駕駛輔助系統。 139 00:06:22,376 --> 00:06:24,861 結果說明了一般駕駛 140 00:06:24,861 --> 00:06:27,508 的錯誤行為而導致意外發生 141 00:06:27,508 --> 00:06:30,680 在美國約每十萬英哩發生一次。 142 00:06:30,680 --> 00:06:33,847 相對的,自動駕駛系統做出決定 143 00:06:33,847 --> 00:06:37,510 每秒大約 10 次, 144 00:06:37,510 --> 00:06:38,932 在這個數量級, 145 00:06:38,932 --> 00:06:41,764 大約每英哩 1,000 次。 146 00:06:41,764 --> 00:06:44,249 所以如果你比較這兩個的距離, 147 00:06:44,249 --> 00:06:46,849 大約是 10 的 8 次方,對吧? 148 00:06:46,849 --> 00:06:48,614 8 次方的數量級。 149 00:06:48,614 --> 00:06:51,423 這個對比有點像是 以我跑步的速度 150 00:06:51,423 --> 00:06:53,629 與光速作比較。 151 00:06:53,629 --> 00:06:57,414 所以不管我如何努力訓練, 都不可能實際達到那個程度。 152 00:06:57,414 --> 00:06:59,852 他們之間有一個很大的差距。 153 00:06:59,852 --> 00:07:03,581 最後的部分, 這個系統可以處理一些突發狀況。 154 00:07:03,581 --> 00:07:06,904 這個人有可能是走在馬路上, 也有可能不是。 155 00:07:06,904 --> 00:07:10,299 我不能預測, 我們的演算法也無法預測, 156 00:07:10,310 --> 00:07:12,594 但是駕駛輔助系統在這情況下, 157 00:07:12,594 --> 00:07:15,400 無法採取任何行動, 158 00:07:15,400 --> 00:07:18,739 如果無預期的踩煞車 是完全無法被接受的。 159 00:07:18,739 --> 00:07:21,872 當自動駕駛系統發現這位行人會說, 160 00:07:21,872 --> 00:07:23,762 我不知道他們打算做什麼, 161 00:07:23,762 --> 00:07:27,524 減慢速度,仔細觀察, 之後再採取更適當的回應。 162 00:07:27,524 --> 00:07:31,226 比起駕駛輔助系統它將會更為安全。 163 00:07:31,226 --> 00:07:33,956 這是兩個不同系統之間的差別。 164 00:07:33,956 --> 00:07:37,440 我們花點時間來探討 車輛所看到的世界。 165 00:07:37,440 --> 00:07:38,692 這是我們的測試車。 166 00:07:38,692 --> 00:07:41,130 從理解目前所在的位置開始, 167 00:07:41,130 --> 00:07:43,917 比對地圖與感應到的訊息, 168 00:07:43,917 --> 00:07:46,865 然後把當下所看到的訊息 再加上另一訊息。 169 00:07:46,865 --> 00:07:50,520 在裏頭,你所看到的所有紫色方框 都是路上的其他車輛, 170 00:07:50,520 --> 00:07:53,048 旁邊的紅色部分則是自行車, 171 00:07:53,048 --> 00:07:55,450 如果你仔細看 上方較遠處, 172 00:07:55,450 --> 00:07:57,244 可以看到一些三角錐。 173 00:07:57,244 --> 00:08:00,017 然後就可以知道車輛當時的位置, 174 00:08:00,017 --> 00:08:03,850 但是我們需要做得更好: 要能夠預測出將會發生的事情, 175 00:08:03,850 --> 00:08:07,338 右上角有一輛小貨卡 將會切換到左邊車道 176 00:08:07,338 --> 00:08:09,561 因為前方的路段將會關閉, 177 00:08:09,561 --> 00:08:11,292 所以需要變更車道 178 00:08:11,292 --> 00:08:13,155 可以預測小貨車的行徑 是件很棒的事, 179 00:08:13,155 --> 00:08:15,634 但我們還需要知道每個人的想法, 180 00:08:15,634 --> 00:08:18,141 這變成一個非常複雜的問題。 181 00:08:18,141 --> 00:08:22,890 有了這資訊後,我們便可以 推測出當下車輛該如何反應。 182 00:08:22,890 --> 00:08:26,756 該跟隨哪一條路線, 該多快反應減速或加速。 183 00:08:26,756 --> 00:08:29,821 匯集所有項目後 只要跟隨著路線, 184 00:08:29,821 --> 00:08:33,018 向左或向右轉動方向盤, 加速或踩油門。 185 00:08:33,018 --> 00:08:35,482 只要這兩個數值 就可以持續到一天結束。 186 00:08:35,482 --> 00:08:37,723 所以會有多難呢? 187 00:08:38,433 --> 00:08:40,385 在 2009 年我們剛開始時, 188 00:08:40,385 --> 00:08:42,183 我的系統看起來像這樣。 189 00:08:42,183 --> 00:08:45,574 你可以看到在中心有我們的車輛, 路上還有其他小方框, 190 00:08:45,574 --> 00:08:46,845 行駛在高速公路上。 191 00:08:46,845 --> 00:08:50,663 這輛測試車需要知道它現在位置 以及其他車輛大約位置。 192 00:08:50,663 --> 00:08:53,092 用幾何方式來理解這個世界。 193 00:08:53,092 --> 00:08:56,040 當開始行駛在近郊及街道中時, 194 00:08:56,040 --> 00:08:58,485 這問題又變為更複雜的層次。 195 00:08:58,485 --> 00:09:01,979 可以看到行人及車輛 都會在我們前面穿過, 196 00:09:01,979 --> 00:09:03,790 往各個方向移動, 197 00:09:03,790 --> 00:09:05,317 紅綠燈,行人穿越道。 198 00:09:05,317 --> 00:09:08,114 相對而言 這是個相當複雜的問題。 199 00:09:08,114 --> 00:09:10,217 一旦這問題可以被解決掉, 200 00:09:10,217 --> 00:09:12,729 車輛就有辦法去處理 這建構出來的環境。 201 00:09:12,729 --> 00:09:15,880 如果左邊有三角錐 它就會要求往右邊開, 202 00:09:15,880 --> 00:09:18,282 當然不只是個封閉的施工環境。 203 00:09:18,282 --> 00:09:22,005 它也還必須去處理 有人走在施工區的路段。 204 00:09:22,005 --> 00:09:25,268 當然,如果有人違規,警察在場 205 00:09:25,268 --> 00:09:28,890 車輛必須知道車頂上有閃著燈的車輛 206 00:09:28,890 --> 00:09:31,995 代表的是警車而不是一般車輛。 207 00:09:31,995 --> 00:09:34,027 相似的情況下, 在路旁的橘色小方框, 208 00:09:34,027 --> 00:09:35,136 是一輛校車, 209 00:09:35,136 --> 00:09:37,656 我們也必需對它做出不同的回應。 210 00:09:38,576 --> 00:09:41,369 當車輛在行駛的時候, 有些人會預期, 211 00:09:41,369 --> 00:09:43,149 當自行車騎士舉起他們的手臂, 212 00:09:43,149 --> 00:09:46,667 是預期汽車可以注意到他們 並且挪出空間 213 00:09:46,667 --> 00:09:48,720 讓他們可以變換車道。 214 00:09:49,030 --> 00:09:51,203 當一位警察站在路上, 215 00:09:51,203 --> 00:09:53,943 測試車輛必須了解要停下來, 216 00:09:53,943 --> 00:09:57,449 如果手勢指揮通行的話, 則要繼續走。 217 00:09:57,449 --> 00:10:01,210 經由交通工具資料共享 我們完成這個成就。 218 00:10:01,210 --> 00:10:02,906 首先,最原始的模型 219 00:10:02,906 --> 00:10:05,019 當車輛遇到施工區域, 220 00:10:05,019 --> 00:10:08,081 讓其他人收到這個訊息 然後它會選擇正確的車道 221 00:10:08,081 --> 00:10:09,651 而避開施工的地方。 222 00:10:09,651 --> 00:10:12,315 但我們對這狀況有更進一步的了解。 223 00:10:12,315 --> 00:10:15,324 取得車子所看到的歷史資料, 224 00:10:15,324 --> 00:10:17,700 數十萬的行人,自行車, 225 00:10:17,700 --> 00:10:19,487 以及視線內的車輛 226 00:10:19,487 --> 00:10:21,182 理解他們看起來像什麼 227 00:10:21,182 --> 00:10:24,013 再用來推斷其他車輛的樣式 228 00:10:24,013 --> 00:10:25,939 及其他行人的長相。 229 00:10:25,939 --> 00:10:28,960 最重要的是, 我們會依此作為模型 230 00:10:28,960 --> 00:10:31,290 以及預測他們是如何移動, 231 00:10:31,290 --> 00:10:34,253 黃色方框指的是 一位行人從我們面前穿越。 232 00:10:34,253 --> 00:10:36,503 藍色方框指的是自行車 而且我們預測 233 00:10:36,503 --> 00:10:39,815 他們將會沿著車輛的右邊前行。 。 234 00:10:40,115 --> 00:10:42,207 這是另一輛自行車從對向而來 235 00:10:42,207 --> 00:10:45,693 而且我們知道他會沿著道路過來。 236 00:10:45,693 --> 00:10:47,560 另外有一個人要右轉, 237 00:10:47,560 --> 00:10:50,920 同時正前方有一個人 正準備要迴轉, 238 00:10:50,920 --> 00:10:53,534 我們可以預測這個行為 並安全的反應。 239 00:10:53,534 --> 00:10:56,262 這些是我們一般常見的好的狀況, 240 00:10:56,262 --> 00:10:59,127 當然有時也會遇到一些事情 241 00:10:59,127 --> 00:11:00,358 是之前從不曾遇到過。 242 00:11:00,358 --> 00:11:02,099 幾個月前, 243 00:11:02,099 --> 00:11:04,334 測試車輛行經山景城時, 244 00:11:04,334 --> 00:11:05,978 我們遇到一個狀況。 245 00:11:05,978 --> 00:11:08,060 一位坐著電動輪椅的女人 246 00:11:08,060 --> 00:11:10,677 在路上追逐著繞圈圈鴨子。 (笑聲) 247 00:11:10,677 --> 00:11:13,788 在加州管理局中的駕駛手冊中 找不到任何說明 248 00:11:13,788 --> 00:11:16,033 告訴你如何處理以上狀況, 249 00:11:16,033 --> 00:11:18,176 但是我們測試車輛有辦法處理它。 250 00:11:18,176 --> 00:11:20,431 減速,安全地行駛而過。 251 00:11:20,431 --> 00:11:22,472 我們不只是要對付鴨子。 252 00:11:22,472 --> 00:11:26,180 看到一隻鳥在前方飛越而過 車子也對它們做出反應。 253 00:11:26,180 --> 00:11:27,795 這裡我們正在應付一位自行車騎士 254 00:11:27,795 --> 00:11:31,085 除了在山景城外 你從來無法預期會遇到的。 255 00:11:31,085 --> 00:11:33,153 當然,我們還得應付一些駕駛, 256 00:11:33,153 --> 00:11:36,868 甚至是很小事也要處理。 257 00:11:36,868 --> 00:11:40,999 注意右邊有一個人 在我們面前從卡車上跳下來。 258 00:11:42,460 --> 00:11:45,389 左邊有綠色方框所代表的車輛 259 00:11:45,389 --> 00:11:48,714 在最後一個的關頭決定右轉。 260 00:11:48,714 --> 00:11:51,565 當我們決定要變換車道時, 左邊的車輛 261 00:11:51,565 --> 00:11:55,118 也決定要變換車道。 262 00:11:55,118 --> 00:11:57,811 這邊我們看到一輛車子闖紅燈 263 00:11:57,811 --> 00:11:59,901 就讓他先過。 264 00:11:59,901 --> 00:12:03,755 相同的情況, 則是另一輛自行車闖紅燈。 265 00:12:03,755 --> 00:12:06,501 當然測試車輛可以安全地回應。 266 00:12:06,501 --> 00:12:09,102 有時候人們會在路上 做一些無法理解的事 267 00:12:09,102 --> 00:12:12,925 就像這位仁兄一樣,直接把車輛停在兩輛自動駕駛車之間。 268 00:12:12,925 --> 00:12:14,970 你就會很想問,「你在想些什麼?」 269 00:12:14,970 --> 00:12:16,182 (笑聲) 270 00:12:16,182 --> 00:12:18,703 我剛才描述了許多狀況給大家, 271 00:12:18,703 --> 00:12:21,353 我將用很快的方式 來分析其中一個狀況。 272 00:12:21,353 --> 00:12:24,293 我們再回到自行車這個例子, 273 00:12:24,293 --> 00:12:27,784 可以注意到下方這部分, 我們還無法真正的看到自行車, 274 00:12:27,784 --> 00:12:30,288 但是車輛可以: 是這個藍色小方框的部分, 275 00:12:30,288 --> 00:12:32,369 這資訊是由雷射所得來的。 276 00:12:32,369 --> 00:12:34,787 確實無法很容易去理解, 277 00:12:34,787 --> 00:12:38,371 我將要做的是轉換雷射資料 然後再來看, 278 00:12:38,371 --> 00:12:41,400 如果你對分析雷射資料很拿手, 你將可以看到 279 00:12:41,400 --> 00:12:42,887 在曲線上面的一些小點, 280 00:12:42,887 --> 00:12:45,259 就在這上面, 上面藍色的小方框就是自行車, 281 00:12:45,259 --> 00:12:46,408 這時我們是紅燈, 282 00:12:46,408 --> 00:12:48,600 自行車這邊已經轉變為黃燈, 283 00:12:48,600 --> 00:12:51,038 如果你斜眼看的話, 可以從這張圖案看到。 284 00:12:51,038 --> 00:12:54,324 這輛我們所看到的自行車, 將打算穿越這個路口。 285 00:12:54,324 --> 00:12:56,718 我們的燈號已經轉為綠燈, 他的則是紅燈, 286 00:12:56,718 --> 00:13:01,010 我們預測這輛自行車 將會穿越整個路口。 287 00:13:01,010 --> 00:13:04,752 不巧的是旁邊的 其他司機並未注意到這點。 288 00:13:04,752 --> 00:13:07,909 他們開始往前移動, 不過很幸運的是, 289 00:13:07,909 --> 00:13:10,920 自行車反應很快地避開, 290 00:13:10,920 --> 00:13:13,111 而且穿越了路口。 291 00:13:13,111 --> 00:13:14,679 結束後我們才往前。 292 00:13:14,679 --> 00:13:17,627 就如你所見的, 我們有了一些卓越的進展, 293 00:13:17,627 --> 00:13:19,529 在這個階段我們很有自信 294 00:13:19,529 --> 00:13:21,539 這個技術是可以上市的。 295 00:13:21,539 --> 00:13:26,322 在模擬系統下 我們每天做三百萬哩的測試, 296 00:13:26,322 --> 00:13:29,011 你可以想像我們車輛的豐富經歷。 297 00:13:29,011 --> 00:13:31,875 我們正設法把這技術 用於實際道路上, 298 00:13:31,875 --> 00:13:34,765 我們認為正確的方向 應該是自動駕駛 299 00:13:34,765 --> 00:13:36,609 而不是駕駛輔助系統 300 00:13:36,609 --> 00:13:39,230 因為有迫切的需求。 301 00:13:39,230 --> 00:13:41,623 在我今天演說的同時, 302 00:13:41,623 --> 00:13:44,758 有 34 個美國人死於交通事故。 303 00:13:44,758 --> 00:13:47,126 我們可以多快讓它上市? 304 00:13:47,126 --> 00:13:50,958 嗯,這很難說 因為這是一個很複雜的問題, 305 00:13:50,958 --> 00:13:53,172 這是我兩個兒子。 306 00:13:53,172 --> 00:13:56,795 大的兒子 11 歲,表示再 4 年半, 307 00:13:56,795 --> 00:13:59,372 他就可以拿到駕照。 308 00:13:59,372 --> 00:14:02,576 我跟我的團隊承諾 確保不會讓這件事情發生。 309 00:14:02,576 --> 00:14:04,480 謝謝。 310 00:14:04,480 --> 00:14:08,147 (笑聲)(掌聲) 311 00:14:09,110 --> 00:14:11,678 克里斯·安德森: 克里斯,我有一個問題。 312 00:14:11,678 --> 00:14:14,487 克里斯·厄姆森:好。 313 00:14:14,487 --> 00:14:18,411 克里斯·安德森: 的確,你車輛的智慧系統讓人驚訝。 314 00:14:18,411 --> 00:14:22,870 尤其在輔助駕駛與 自動駕駛的辯論中, 315 00:14:22,870 --> 00:14:25,911 現在有一個真實的辯論就存在那邊。 316 00:14:25,911 --> 00:14:28,744 有一些公司,如:特斯拉, 317 00:14:28,744 --> 00:14:30,903 正在研究一些駕駛輔助系統。 318 00:14:30,903 --> 00:14:36,151 根據你所說的 這個發展將會是個死胡同 319 00:14:36,151 --> 00:14:41,607 因為無法藉由改善輔助系統 最後完全取代自動駕駛 320 00:14:41,607 --> 00:14:45,137 在某一點上,駕駛可能會說, 「這感覺到是安全的」, 321 00:14:45,137 --> 00:14:47,784 然後爬到後座去, 一些可怕的事情就可能會發生。 322 00:14:47,784 --> 00:14:50,460 克里斯·厄姆森: 完全正確,現在還無法說 323 00:14:50,460 --> 00:14:53,997 駕駛輔助系統不具有價值。 324 00:14:53,997 --> 00:14:56,055 在這段過渡期間 它們仍可挽救許多生命, 325 00:14:56,055 --> 00:14:59,888 但是看到這是一個改變的機會, 可以幫助像史蒂夫一樣的人, 326 00:14:59,888 --> 00:15:01,857 而且最終是個安全的方案, 327 00:15:01,857 --> 00:15:04,336 去擁有這機會去改變我們的城市 328 00:15:04,336 --> 00:15:08,540 可以擺脫城市裡一個個的停車場, 329 00:15:08,540 --> 00:15:09,780 這是唯一的辦法。 330 00:15:09,780 --> 00:15:12,498 克里斯·安德森: 我們非常有興趣持續追蹤你的進度 331 00:15:12,594 --> 00:15:16,073 謝謝你,克里斯。 克里斯·厄姆森:謝謝。(掌聲)