0:00:00.560,0:00:04.517 1885年,卡爾·賓士發明汽車。 0:00:04.707,0:00:08.469 那年底,[br]他開著那台車做了第一次公開試駕, 0:00:08.469,0:00:11.844 結果,撞毀了。 0:00:12.184,0:00:14.227 過去 130 年來, 0:00:14.227,0:00:18.546 我們一直致力於改進[br]車裡最不可靠的部分,駕駛。 0:00:18.546,0:00:19.900 我們讓車子更堅固。 0:00:20.200,0:00:22.748 我們加上安全帶和安全氣囊, 0:00:22.748,0:00:26.719 過去十年,[br]我們想辦法讓車子變得更聰明 0:00:26.719,0:00:29.657 來修正駕駛這個問題。 0:00:29.657,0:00:32.918 現在,我要告訴你 0:00:32.918,0:00:36.726 使用駕駛輔助系統來修正這問題,[br] 0:00:36.726,0:00:39.290 和完全自動化駕駛其中的差異 0:00:39.290,0:00:41.170 以及在世界上所產生的影響。 0:00:41.170,0:00:44.165 我也將告訴你[br]關於我們車子的一些細節 0:00:44.165,0:00:48.164 讓你可以了解它所看到的世界[br]以及如何對外界做出反應, 0:00:48.164,0:00:51.351 首先我先來探討一個問題。 0:00:51.651,0:00:53.299 是一個大問題: 0:00:53.299,0:00:56.388 全世界每年有 120 萬人[br]死於交通事故。 0:00:56.388,0:01:00.172 僅僅美國,[br]每年就佔了 33,000 人。 0:01:00.172,0:01:02.200 依此數據與飛機事故比較, 0:01:02.200,0:01:06.997 等於每個上班日,[br]都有一台 737 從空中掉下。 0:01:07.342,0:01:09.128 有點讓人無法置信。 0:01:09.548,0:01:11.846 車輛以這種模式賣給我們, 0:01:11.846,0:01:14.563 但實際上,[br]這才是我們開車所遇到的狀況, 0:01:14.563,0:01:16.722 對吧?不是晴天,而是雨天, 0:01:16.722,0:01:19.210 除了開車外你還想要做其他事。 0:01:19.210,0:01:20.832 就是這個原因: 0:01:20.832,0:01:22.690 交通變得更糟糕了。 0:01:22.690,0:01:26.196 在美國,1990 年到 2010 年間, 0:01:26.196,0:01:29.700 汽車行駛哩程數增加百分之三十八, 0:01:30.213,0:01:32.962 但是道路只增加百分之六, 0:01:32.962,0:01:34.564 所以不是錯覺。 0:01:34.564,0:01:38.840 跟幾年前比起來[br]交通其實是變差。 0:01:38.840,0:01:41.249 所有這一切都代表大量的人力成本。 0:01:41.529,0:01:45.477 以美國平均通勤時間來看,[br]大約 50 分鐘, 0:01:45.477,0:01:49.126 乘以目前約一億兩千萬工作人口, 0:01:49.126,0:01:51.351 將會是六十億分鐘的時間 0:01:51.351,0:01:53.377 浪費在每天的通勤上。 0:01:53.377,0:01:56.204 這是個很大的數值,[br]這個數據,相當於 0:01:56.204,0:01:57.978 把六十億分鐘的時間 0:01:57.978,0:02:01.762 除以一般人的平均壽命, 0:02:01.762,0:02:04.897 將會是 162 個人一生的時間 0:02:04.897,0:02:07.822 每天浪費在這交通上面, 0:02:07.822,0:02:09.866 只是要從 A 點移動到 B 點。 0:02:09.866,0:02:11.596 讓人無法置信。 0:02:11.596,0:02:14.440 而且,有些在交通上 0:02:14.440,0:02:16.112 弱勢的人, 0:02:16.112,0:02:17.690 這是史蒂夫。 0:02:17.690,0:02:19.455 一個非常有才能力的人, 0:02:19.455,0:02:21.971 但是他卻是眼睛失明, 0:02:21.971,0:02:25.188 他不是每天早上[br]花 30 分鐘開車上班, 0:02:25.188,0:02:29.167 而是要痛苦的花兩個時[br]轉搭大眾運輸工具 0:02:29.167,0:02:31.552 或請求朋友或親人接送。 0:02:31.552,0:02:35.221 他無法像你我一樣[br]有到處走動的自由。 0:02:35.221,0:02:37.681 我們應該做一些事情。 0:02:37.891,0:02:39.648 在現在傳統的思慮會提到 0:02:39.648,0:02:42.140 我們可以使用一些駕駛輔助系統 0:02:42.140,0:02:45.890 我們則持續的推動及改善整個系統, 0:02:45.890,0:02:48.432 隨著時間演進,[br]轉變為自動駕駛系統。 0:02:48.432,0:02:50.841 在這我要告訴你們就像我所說的 0:02:50.841,0:02:54.898 如果我可以很努力的跳躍,[br]有一天我可以飛上天 0:02:54.898,0:02:57.626 我們確實需要[br]用一些不同的方式去做事情。 0:02:57.626,0:03:00.337 我將告訴你[br]在自動駕駛系統 0:03:00.337,0:03:03.683 與駕駛輔助系統之間,[br]有三個不同點。 0:03:03.683,0:03:06.334 從我們本身的經驗開始談起。 0:03:06.334,0:03:08.587 2013 年。 0:03:08.587,0:03:11.250 我們第一次做自動駕駛車的測試 0:03:11.250,0:03:13.277 我們讓一般大眾人去開它。 0:03:13.277,0:03:15.479 嗯,幾乎算是 -- [br]他們是 100 位谷歌的員工, 0:03:15.479,0:03:17.482 但他們的工作都不屬於這個專案, 0:03:17.482,0:03:21.103 我們提供車輛[br]並允許在每天的日常生活中使用。 0:03:21.103,0:03:24.822 但這不像是自動駕駛的車,[br]上頭有一個大大的星號在車上, 0:03:24.822,0:03:26.326 他們必須集中注意力開車, 0:03:26.326,0:03:28.959 因為這些只是實驗車輛。 0:03:28.959,0:03:32.484 我們測試很多,[br]但仍有失敗狀況發生。 0:03:32.484,0:03:34.543 所以我們給車主 2 個小時的訓練, 0:03:34.543,0:03:36.635 再讓他們進入車內使用它, 0:03:36.635,0:03:38.762 我們所收到的回覆讓人感到驚訝, 0:03:38.762,0:03:41.286 當一個新產品嘗試進入這個世界。 0:03:41.286,0:03:43.211 每一個人都跟我們說他們愛上了它。 0:03:43.211,0:03:46.777 事實上,第一天有一個[br]開保時捷的駕駛跟我們說, 0:03:46.777,0:03:49.440 「這完全是件愚蠢的事情,[br]不知道我們在想些什麼?」 0:03:49.850,0:03:52.690 但是在他測試結束後,他說[br]「不該只有我可以使用它, 0:03:52.690,0:03:55.865 每個人都該使用它,[br]因為許多人都是個糟糕的駕駛。」 0:03:57.135,0:03:58.870 這對我們來說有很大的鼓勵, 0:03:58.870,0:04:02.673 然後我們開始研究[br]人們在車裡做些什麼, 0:04:02.673,0:04:04.252 真讓人大開眼界。 0:04:04.252,0:04:06.690 我最喜歡的故事裡有一位男士 0:04:06.690,0:04:10.519 他低頭看手機[br]發現電池快沒電了, 0:04:10.519,0:04:15.067 然後在車裡像這樣轉過身來,[br]並且在背包裡找尋東西, 0:04:15.067,0:04:17.220 拿出一台筆記型電腦, 0:04:17.220,0:04:18.787 放在前座, 0:04:18.787,0:04:20.551 再回頭一次, 0:04:20.551,0:04:23.918 繼續搜尋,拿出手機的充電線, 0:04:23.918,0:04:27.285 轉身回來,[br]把電源線接上筆電跟手機。 0:04:27.285,0:04:29.328 當然他的手機已經開始充電了。 0:04:29.328,0:04:33.322 同時他以 65 英哩的速度[br]在高速公路上行駛。 0:04:33.322,0:04:35.806 讓人無法置信。 0:04:35.806,0:04:38.927 我們思考這整件事情,[br]有明顯的結論 0:04:38.927,0:04:41.190 有更好的科技輔助, 0:04:41.190,0:04:43.311 駕駛就越不可靠。 0:04:43.311,0:04:45.707 若只讓車子變得更聰明, 0:04:45.707,0:04:48.609 那就和我們希望達到的結果不同。 0:04:48.609,0:04:52.510 讓我來談論有關技術的部分。 0:04:52.510,0:04:54.948 我們來看這圖型,底部的部分, 0:04:54.948,0:04:57.999 是在不該踩煞車的情況下[br]卻踩煞車的頻率, 0:04:57.999,0:04:59.620 你可以忽略大部分的 X 軸, 0:04:59.620,0:05:03.339 因為如果在你開車到鎮上的路程中,[br]隨時煞車的話, 0:05:03.339,0:05:05.040 你將不會買這部車。 0:05:05.040,0:05:08.415 從垂直軸上[br]可以看到當車輛踩煞車後 0:05:08.415,0:05:11.464 可以幫助你避免意外的頻率。 0:05:11.464,0:05:13.685 現在,我們看到左下角這個點, 0:05:13.685,0:05:15.530 這是我們一般的車輛。 0:05:15.530,0:05:18.663 他不會幫忙煞車[br]傻傻的也不會幫忙任何事, 0:05:18.663,0:05:21.442 當然也無法幫你避免意外。 0:05:21.442,0:05:24.460 現在,[br]如果我們想要引進駕駛輔助系統, 0:05:24.460,0:05:26.288 如碰撞減輕煞車系統。 0:05:26.288,0:05:28.900 我們將在這上面導入一些技術方案, 0:05:28.900,0:05:32.318 由這個曲線得知,[br]這系統可以發揮一些功效, 0:05:32.318,0:05:34.808 但仍不可能避免所有的意外, 0:05:34.808,0:05:36.867 因為尚未有足夠的能力。 0:05:36.867,0:05:39.116 但我們可以在這個曲線中挑一點, 0:05:39.116,0:05:42.370 它也許就足夠避免掉一半[br]人為疏失所造成的意外, 0:05:42.370,0:05:43.667 非常神奇,對吧? 0:05:43.667,0:05:46.394 我們改變一、兩個因素[br]就可以把路上的意外事故減少一半。 0:05:46.394,0:05:50.381 在美國每年有接近 一萬七千人[br]死於交通事故。 0:05:50.381,0:05:52.401 但如果我們想要有自動駕駛車輛, 0:05:52.401,0:05:54.708 我們需要像這條的技術曲線。 0:05:54.708,0:05:57.307 需要將更多的感測器放在車上, 0:05:57.307,0:05:59.328 將功能調整在曲線上這一點 0:05:59.328,0:06:01.347 基本上這點不會導致車禍發生。 0:06:01.347,0:06:03.790 就算是有,也是個很低的機率。 0:06:03.790,0:06:06.251 當然你可以跟我辯論這一部分 0:06:06.251,0:06:09.856 曲線是否有增量性,我只能說[br]有些事情就像「80-20 法則」, 0:06:09.856,0:06:12.424 向上移動成為一個新的曲線[br]是非常困難的。 0:06:12.424,0:06:15.358 我們暫時由另一個方向來看這件事。 0:06:15.358,0:06:18.870 可以發現科技[br]做正出確的判斷有多高。 0:06:18.870,0:06:22.376 這條綠線代表的是駕駛輔助系統。 0:06:22.376,0:06:24.861 結果說明了一般駕駛 0:06:24.861,0:06:27.508 的錯誤行為而導致意外發生 0:06:27.508,0:06:30.680 在美國約每十萬英哩發生一次。 0:06:30.680,0:06:33.847 相對的,自動駕駛系統做出決定 0:06:33.847,0:06:37.510 每秒大約 10 次, 0:06:37.510,0:06:38.932 在這個數量級, 0:06:38.932,0:06:41.764 大約每英哩 1,000 次。 0:06:41.764,0:06:44.249 所以如果你比較這兩個的距離, 0:06:44.249,0:06:46.849 大約是 10 的 8 次方,對吧? 0:06:46.849,0:06:48.614 8 次方的數量級。 0:06:48.614,0:06:51.423 這個對比有點像是[br]以我跑步的速度 0:06:51.423,0:06:53.629 與光速作比較。 0:06:53.629,0:06:57.414 所以不管我如何努力訓練,[br]都不可能實際達到那個程度。 0:06:57.414,0:06:59.852 他們之間有一個很大的差距。 0:06:59.852,0:07:03.581 最後的部分,[br]這個系統可以處理一些突發狀況。 0:07:03.581,0:07:06.904 這個人有可能是走在馬路上,[br]也有可能不是。 0:07:06.904,0:07:10.299 我不能預測,[br]我們的演算法也無法預測, 0:07:10.310,0:07:12.594 但是駕駛輔助系統在這情況下, 0:07:12.594,0:07:15.400 無法採取任何行動, 0:07:15.400,0:07:18.739 如果無預期的踩煞車[br]是完全無法被接受的。 0:07:18.739,0:07:21.872 當自動駕駛系統發現這位行人會說, 0:07:21.872,0:07:23.762 我不知道他們打算做什麼, 0:07:23.762,0:07:27.524 減慢速度,仔細觀察,[br]之後再採取更適當的回應。 0:07:27.524,0:07:31.226 比起駕駛輔助系統它將會更為安全。 0:07:31.226,0:07:33.956 這是兩個不同系統之間的差別。 0:07:33.956,0:07:37.440 我們花點時間來探討[br]車輛所看到的世界。 0:07:37.440,0:07:38.692 這是我們的測試車。 0:07:38.692,0:07:41.130 從理解目前所在的位置開始, 0:07:41.130,0:07:43.917 比對地圖與感應到的訊息, 0:07:43.917,0:07:46.865 然後把當下所看到的訊息[br]再加上另一訊息。 0:07:46.865,0:07:50.520 在裏頭,你所看到的所有紫色方框[br]都是路上的其他車輛, 0:07:50.520,0:07:53.048 旁邊的紅色部分則是自行車, 0:07:53.048,0:07:55.450 如果你仔細看[br]上方較遠處, 0:07:55.450,0:07:57.244 可以看到一些三角錐。 0:07:57.244,0:08:00.017 然後就可以知道車輛當時的位置, 0:08:00.017,0:08:03.850 但是我們需要做得更好:[br]要能夠預測出將會發生的事情, 0:08:03.850,0:08:07.338 右上角有一輛小貨卡[br]將會切換到左邊車道 0:08:07.338,0:08:09.561 因為前方的路段將會關閉, 0:08:09.561,0:08:11.292 所以需要變更車道 0:08:11.292,0:08:13.155 可以預測小貨車的行徑[br]是件很棒的事, 0:08:13.155,0:08:15.634 但我們還需要知道每個人的想法, 0:08:15.634,0:08:18.141 這變成一個非常複雜的問題。 0:08:18.141,0:08:22.890 有了這資訊後,我們便可以[br]推測出當下車輛該如何反應。 0:08:22.890,0:08:26.756 該跟隨哪一條路線,[br]該多快反應減速或加速。 0:08:26.756,0:08:29.821 匯集所有項目後[br]只要跟隨著路線, 0:08:29.821,0:08:33.018 向左或向右轉動方向盤,[br]加速或踩油門。 0:08:33.018,0:08:35.482 只要這兩個數值[br]就可以持續到一天結束。 0:08:35.482,0:08:37.723 所以會有多難呢? 0:08:38.433,0:08:40.385 在 2009 年我們剛開始時, 0:08:40.385,0:08:42.183 我的系統看起來像這樣。 0:08:42.183,0:08:45.574 你可以看到在中心有我們的車輛,[br]路上還有其他小方框, 0:08:45.574,0:08:46.845 行駛在高速公路上。 0:08:46.845,0:08:50.663 這輛測試車需要知道它現在位置[br]以及其他車輛大約位置。 0:08:50.663,0:08:53.092 用幾何方式來理解這個世界。 0:08:53.092,0:08:56.040 當開始行駛在近郊及街道中時, 0:08:56.040,0:08:58.485 這問題又變為更複雜的層次。 0:08:58.485,0:09:01.979 可以看到行人及車輛[br]都會在我們前面穿過, 0:09:01.979,0:09:03.790 往各個方向移動, 0:09:03.790,0:09:05.317 紅綠燈,行人穿越道。 0:09:05.317,0:09:08.114 相對而言[br]這是個相當複雜的問題。 0:09:08.114,0:09:10.217 一旦這問題可以被解決掉, 0:09:10.217,0:09:12.729 車輛就有辦法去處理[br]這建構出來的環境。 0:09:12.729,0:09:15.880 如果左邊有三角錐[br]它就會要求往右邊開, 0:09:15.880,0:09:18.282 當然不只是個封閉的施工環境。 0:09:18.282,0:09:22.005 它也還必須去處理[br]有人走在施工區的路段。 0:09:22.005,0:09:25.268 當然,如果有人違規,警察在場 0:09:25.268,0:09:28.890 車輛必須知道車頂上有閃著燈的車輛 0:09:28.890,0:09:31.995 代表的是警車而不是一般車輛。 0:09:31.995,0:09:34.027 相似的情況下,[br]在路旁的橘色小方框, 0:09:34.027,0:09:35.136 是一輛校車, 0:09:35.136,0:09:37.656 我們也必需對它做出不同的回應。 0:09:38.576,0:09:41.369 當車輛在行駛的時候,[br]有些人會預期, 0:09:41.369,0:09:43.149 當自行車騎士舉起他們的手臂, 0:09:43.149,0:09:46.667 是預期汽車可以注意到他們[br]並且挪出空間 0:09:46.667,0:09:48.720 讓他們可以變換車道。 0:09:49.030,0:09:51.203 當一位警察站在路上, 0:09:51.203,0:09:53.943 測試車輛必須了解要停下來, 0:09:53.943,0:09:57.449 如果手勢指揮通行的話,[br]則要繼續走。 0:09:57.449,0:10:01.210 經由交通工具資料共享[br]我們完成這個成就。 0:10:01.210,0:10:02.906 首先,最原始的模型 0:10:02.906,0:10:05.019 當車輛遇到施工區域, 0:10:05.019,0:10:08.081 讓其他人收到這個訊息[br]然後它會選擇正確的車道 0:10:08.081,0:10:09.651 而避開施工的地方。 0:10:09.651,0:10:12.315 但我們對這狀況有更進一步的了解。 0:10:12.315,0:10:15.324 取得車子所看到的歷史資料, 0:10:15.324,0:10:17.700 數十萬的行人,自行車, 0:10:17.700,0:10:19.487 以及視線內的車輛 0:10:19.487,0:10:21.182 理解他們看起來像什麼 0:10:21.182,0:10:24.013 再用來推斷其他車輛的樣式 0:10:24.013,0:10:25.939 及其他行人的長相。 0:10:25.939,0:10:28.960 最重要的是,[br]我們會依此作為模型 0:10:28.960,0:10:31.290 以及預測他們是如何移動, 0:10:31.290,0:10:34.253 黃色方框指的是[br]一位行人從我們面前穿越。 0:10:34.253,0:10:36.503 藍色方框指的是自行車[br]而且我們預測 0:10:36.503,0:10:39.815 他們將會沿著車輛的右邊前行。[br]。 0:10:40.115,0:10:42.207 這是另一輛自行車從對向而來 0:10:42.207,0:10:45.693 而且我們知道他會沿著道路過來。 0:10:45.693,0:10:47.560 另外有一個人要右轉, 0:10:47.560,0:10:50.920 同時正前方有一個人[br]正準備要迴轉, 0:10:50.920,0:10:53.534 我們可以預測這個行為[br]並安全的反應。 0:10:53.534,0:10:56.262 這些是我們一般常見的好的狀況, 0:10:56.262,0:10:59.127 當然有時也會遇到一些事情 0:10:59.127,0:11:00.358 是之前從不曾遇到過。 0:11:00.358,0:11:02.099 幾個月前, 0:11:02.099,0:11:04.334 測試車輛行經山景城時, 0:11:04.334,0:11:05.978 我們遇到一個狀況。 0:11:05.978,0:11:08.060 一位坐著電動輪椅的女人 0:11:08.060,0:11:10.677 在路上追逐著繞圈圈鴨子。[br](笑聲) 0:11:10.677,0:11:13.788 在加州管理局中的駕駛手冊中[br]找不到任何說明 0:11:13.788,0:11:16.033 告訴你如何處理以上狀況, 0:11:16.033,0:11:18.176 但是我們測試車輛有辦法處理它。 0:11:18.176,0:11:20.431 減速,安全地行駛而過。 0:11:20.431,0:11:22.472 我們不只是要對付鴨子。 0:11:22.472,0:11:26.180 看到一隻鳥在前方飛越而過[br]車子也對它們做出反應。 0:11:26.180,0:11:27.795 這裡我們正在應付一位自行車騎士 0:11:27.795,0:11:31.085 除了在山景城外[br]你從來無法預期會遇到的。 0:11:31.085,0:11:33.153 當然,我們還得應付一些駕駛, 0:11:33.153,0:11:36.868 甚至是很小事也要處理。 0:11:36.868,0:11:40.999 注意右邊有一個人[br]在我們面前從卡車上跳下來。 0:11:42.460,0:11:45.389 左邊有綠色方框所代表的車輛 0:11:45.389,0:11:48.714 在最後一個的關頭決定右轉。 0:11:48.714,0:11:51.565 當我們決定要變換車道時,[br]左邊的車輛 0:11:51.565,0:11:55.118 也決定要變換車道。 0:11:55.118,0:11:57.811 這邊我們看到一輛車子闖紅燈 0:11:57.811,0:11:59.901 就讓他先過。 0:11:59.901,0:12:03.755 相同的情況,[br]則是另一輛自行車闖紅燈。 0:12:03.755,0:12:06.501 當然測試車輛可以安全地回應。 0:12:06.501,0:12:09.102 有時候人們會在路上[br]做一些無法理解的事 0:12:09.102,0:12:12.925 就像這位仁兄一樣,直接把車輛停在兩輛自動駕駛車之間。 0:12:12.925,0:12:14.970 你就會很想問,「你在想些什麼?」 0:12:14.970,0:12:16.182 (笑聲) 0:12:16.182,0:12:18.703 我剛才描述了許多狀況給大家, 0:12:18.703,0:12:21.353 我將用很快的方式[br]來分析其中一個狀況。 0:12:21.353,0:12:24.293 我們再回到自行車這個例子, 0:12:24.293,0:12:27.784 可以注意到下方這部分,[br]我們還無法真正的看到自行車, 0:12:27.784,0:12:30.288 但是車輛可以:[br]是這個藍色小方框的部分, 0:12:30.288,0:12:32.369 這資訊是由雷射所得來的。 0:12:32.369,0:12:34.787 確實無法很容易去理解, 0:12:34.787,0:12:38.371 我將要做的是轉換雷射資料[br]然後再來看, 0:12:38.371,0:12:41.400 如果你對分析雷射資料很拿手,[br]你將可以看到 0:12:41.400,0:12:42.887 在曲線上面的一些小點, 0:12:42.887,0:12:45.259 就在這上面,[br]上面藍色的小方框就是自行車, 0:12:45.259,0:12:46.408 這時我們是紅燈, 0:12:46.408,0:12:48.600 自行車這邊已經轉變為黃燈, 0:12:48.600,0:12:51.038 如果你斜眼看的話,[br]可以從這張圖案看到。 0:12:51.038,0:12:54.324 這輛我們所看到的自行車,[br]將打算穿越這個路口。 0:12:54.324,0:12:56.718 我們的燈號已經轉為綠燈,[br]他的則是紅燈, 0:12:56.718,0:13:01.010 我們預測這輛自行車[br]將會穿越整個路口。 0:13:01.010,0:13:04.752 不巧的是旁邊的[br]其他司機並未注意到這點。 0:13:04.752,0:13:07.909 他們開始往前移動,[br]不過很幸運的是, 0:13:07.909,0:13:10.920 自行車反應很快地避開, 0:13:10.920,0:13:13.111 而且穿越了路口。 0:13:13.111,0:13:14.679 結束後我們才往前。 0:13:14.679,0:13:17.627 就如你所見的,[br]我們有了一些卓越的進展, 0:13:17.627,0:13:19.529 在這個階段我們很有自信 0:13:19.529,0:13:21.539 這個技術是可以上市的。 0:13:21.539,0:13:26.322 在模擬系統下[br]我們每天做三百萬哩的測試, 0:13:26.322,0:13:29.011 你可以想像我們車輛的豐富經歷。 0:13:29.011,0:13:31.875 我們正設法把這技術[br]用於實際道路上, 0:13:31.875,0:13:34.765 我們認為正確的方向[br]應該是自動駕駛 0:13:34.765,0:13:36.609 而不是駕駛輔助系統 0:13:36.609,0:13:39.230 因為有迫切的需求。 0:13:39.230,0:13:41.623 在我今天演說的同時, 0:13:41.623,0:13:44.758 有 34 個美國人死於交通事故。 0:13:44.758,0:13:47.126 我們可以多快讓它上市? 0:13:47.126,0:13:50.958 嗯,這很難說[br]因為這是一個很複雜的問題, 0:13:50.958,0:13:53.172 這是我兩個兒子。 0:13:53.172,0:13:56.795 大的兒子 11 歲,表示再 4 年半, 0:13:56.795,0:13:59.372 他就可以拿到駕照。 0:13:59.372,0:14:02.576 我跟我的團隊承諾[br]確保不會讓這件事情發生。 0:14:02.576,0:14:04.480 謝謝。 0:14:04.480,0:14:08.147 (笑聲)(掌聲) 0:14:09.110,0:14:11.678 克里斯·安德森:[br]克里斯,我有一個問題。 0:14:11.678,0:14:14.487 克里斯·厄姆森:好。 0:14:14.487,0:14:18.411 克里斯·安德森:[br]的確,你車輛的智慧系統讓人驚訝。 0:14:18.411,0:14:22.870 尤其在輔助駕駛與[br]自動駕駛的辯論中, 0:14:22.870,0:14:25.911 現在有一個真實的辯論就存在那邊。 0:14:25.911,0:14:28.744 有一些公司,如:特斯拉, 0:14:28.744,0:14:30.903 正在研究一些駕駛輔助系統。 0:14:30.903,0:14:36.151 根據你所說的[br]這個發展將會是個死胡同 0:14:36.151,0:14:41.607 因為無法藉由改善輔助系統[br]最後完全取代自動駕駛 0:14:41.607,0:14:45.137 在某一點上,駕駛可能會說,[br]「這感覺到是安全的」, 0:14:45.137,0:14:47.784 然後爬到後座去,[br]一些可怕的事情就可能會發生。 0:14:47.784,0:14:50.460 克里斯·厄姆森: [br]完全正確,現在還無法說 0:14:50.460,0:14:53.997 駕駛輔助系統不具有價值。 0:14:53.997,0:14:56.055 在這段過渡期間[br]它們仍可挽救許多生命, 0:14:56.055,0:14:59.888 但是看到這是一個改變的機會,[br]可以幫助像史蒂夫一樣的人, 0:14:59.888,0:15:01.857 而且最終是個安全的方案, 0:15:01.857,0:15:04.336 去擁有這機會去改變我們的城市 0:15:04.336,0:15:08.540 可以擺脫城市裡一個個的停車場, 0:15:08.540,0:15:09.780 這是唯一的辦法。 0:15:09.780,0:15:12.498 克里斯·安德森:[br]我們非常有興趣持續追蹤你的進度 0:15:12.594,0:15:16.073 謝謝你,克里斯。[br]克里斯·厄姆森:謝謝。(掌聲)