0:00:00.528,0:00:04.477 В 1885 году Карл Бенц изобрёл автомобиль. 0:00:04.707,0:00:08.469 Позднее в том же году он вывел его[br]на первый публичный тест-драйв 0:00:08.469,0:00:11.844 и — на самом деле — врезался в стену. 0:00:12.184,0:00:15.027 Последние 130 лет мы работали 0:00:15.027,0:00:18.546 над этим наименее надёжным[br]элементом автомобиля — водителем. 0:00:18.546,0:00:20.230 Мы сделали автомобиль прочнее, 0:00:20.230,0:00:22.748 добавили ремни безопасности,[br]подушки безопасности, 0:00:22.748,0:00:26.719 а в последние 10 лет стали пытаться[br]сделать сам автомобиль умнее, 0:00:26.719,0:00:29.657 чтобы исправить этот баг — водителя. 0:00:29.657,0:00:32.918 Сегодня я хочу немного[br]рассказать вам о различиях 0:00:32.918,0:00:36.726 между латанием дыр в проблеме[br]с системой помощи водителю 0:00:36.726,0:00:39.970 и непосредственным созданием[br]полностью автоматизированных автомобилей 0:00:39.970,0:00:41.650 и о том, что они способны[br]для нас сделать. 0:00:41.650,0:00:44.165 Я также расскажу немного[br]о нашем автомобиле 0:00:44.165,0:00:48.164 и покажу вам, как он «видит» мир,[br]как реагирует, что может делать. 0:00:48.164,0:00:50.831 Но сначала поговорим о самой проблеме. 0:00:51.651,0:00:53.299 Это серьёзная проблема: 0:00:53.299,0:00:56.388 1,2 миллиона человек в мире[br]погибает на дорогах каждый год. 0:00:56.388,0:01:00.172 Только в Америке 33 000 человек[br]ежегодно погибают в авариях. 0:01:00.172,0:01:02.200 Это то же самое, 0:01:02.200,0:01:06.997 как если бы с неба каждый будний день[br]падал самолёт Boeing-737. 0:01:07.342,0:01:09.128 Невозможно поверить. 0:01:09.548,0:01:11.846 В рекламе автомобили выглядят[br]вот так. 0:01:11.846,0:01:14.563 Но на самом деле[br]вождение выглядит так. 0:01:14.563,0:01:16.722 Верно? Совсем не солнечно — дождливо. 0:01:16.722,0:01:19.210 И вести машину совсем не хочется. 0:01:19.210,0:01:20.832 А причина тому — 0:01:20.832,0:01:22.690 дорожное движение становится хуже. 0:01:22.690,0:01:26.196 В Америке между 1990 и 2010 годами 0:01:26.196,0:01:29.700 пройденный транспортом километраж[br]увеличился на 38%, 0:01:30.213,0:01:32.832 длина дорог возросла на 6%. 0:01:32.832,0:01:34.564 Так что это не просто вам кажется. 0:01:34.564,0:01:38.840 Дорожное движение значительно хуже,[br]чем оно было не так давно. 0:01:38.840,0:01:41.529 И у этого весьма реальная цена,[br]равная человеческим жизням. 0:01:41.529,0:01:45.477 Если взять среднее время в Америке,[br]чтобы добраться до работы, — 50 минут — 0:01:45.477,0:01:49.126 умножить на 120 миллионов[br]работников в нашей стране, 0:01:49.126,0:01:51.351 то получится около 6 миллиардов минут, 0:01:51.351,0:01:53.377 потраченных на дорогу каждый день. 0:01:53.377,0:01:56.204 Это большое число,[br]давайте представим его в масштабе. 0:01:56.204,0:01:57.978 Возьмём эти 6 миллиардов минут 0:01:57.978,0:02:01.762 и разделим на значение[br]средней продолжительности жизни, 0:02:01.762,0:02:04.897 что даст в итоге 162 жизненных срока, 0:02:04.897,0:02:07.692 израсходованных в никуда каждый день, 0:02:07.692,0:02:09.866 просто чтобы добраться[br]из пункта А в пункт В. 0:02:09.866,0:02:11.596 Это непостижимо! 0:02:11.596,0:02:14.440 Но также есть те, у кого нет привилегии 0:02:14.440,0:02:16.112 ездить за рулём. 0:02:16.112,0:02:17.250 Это Стив. 0:02:17.250,0:02:19.455 Он невероятно способный малый, 0:02:19.455,0:02:21.971 но так случилось, что он слеп, 0:02:21.971,0:02:25.188 и это значит, что утром вместо[br]30 минут за рулём по дороге на работу 0:02:25.188,0:02:29.167 он проводит 2 часа в общественном[br]транспорте с пересадками 0:02:29.167,0:02:31.552 или просит друзей[br]или членов семьи его подвезти. 0:02:31.552,0:02:35.221 У него нет такой же свободы[br]передвижения, как у нас с вами. 0:02:35.221,0:02:37.241 С этим нужно что-то делать. 0:02:37.891,0:02:39.648 Принято считать, 0:02:39.648,0:02:42.140 что нужно просто взять[br]системы помощи водителю 0:02:42.140,0:02:45.380 и продвинуть их,[br]значительно их улучшить, 0:02:45.380,0:02:48.092 и со временем они превратятся[br]в беспилотные автомобили. 0:02:48.092,0:02:51.531 Я здесь, чтобы объяснить вам. [br]Это всё равно, что сказать: 0:02:51.531,0:02:55.308 если я буду упорно работать[br]над прыжками, когда-нибудь я полечу. 0:02:55.308,0:02:57.626 Нужно сделать нечто иное. 0:02:57.626,0:02:59.787 Я расскажу вам о трёх параметрах, 0:02:59.787,0:03:03.683 по которым беспилотные автомобили [br]отличаются от систем помощи водителю. 0:03:03.683,0:03:06.334 Начну с нашего личного опыта. 0:03:06.334,0:03:09.457 В 2013 году мы впервые протестировали 0:03:09.457,0:03:11.250 беспилотный автомобиль, 0:03:11.250,0:03:13.277 позволив обычным людям[br]его использовать. 0:03:13.277,0:03:15.479 Почти обычным — это были[br]100 сотрудников Google, 0:03:15.479,0:03:17.482 но они не имели отношения к проекту. 0:03:17.482,0:03:21.103 Мы дали им автомобиль и разрешили[br]пользоваться им для повседневных дел. 0:03:21.103,0:03:24.822 Но в отличие от настоящих беспилотных [br]автомобилей, этот имел примечание: 0:03:24.822,0:03:26.326 нужно было быть внимательным, 0:03:26.326,0:03:28.959 так как это экспериментальное[br]транспортное средство. 0:03:28.959,0:03:32.484 Было проведено много тестов,[br]но риск неудачи всё же существовал. 0:03:32.484,0:03:34.543 Мы провели двухчасовой тренинг, 0:03:34.543,0:03:36.635 посадили их за руль, отдали управление, 0:03:36.635,0:03:38.762 и их впечатления были потрясающими — 0:03:38.762,0:03:41.556 особенно для нас — людей,[br]пытающихся привнести в мир новое. 0:03:41.556,0:03:43.211 Каждый сказал, что машина — супер. 0:03:43.211,0:03:46.777 К нам даже в первый же день[br]пришёл владелец Porsche и сказал, 0:03:46.777,0:03:49.460 что это глупо — и о чём мы только думаем. 0:03:49.460,0:03:52.700 Но в итоге он сказал: «Не только[br]у меня должен быть такой автомобиль, 0:03:52.700,0:03:55.865 у каждого он должен быть,[br]ведь люди — ужасные водители». 0:03:57.135,0:03:58.870 Для нас это было бальзамом на душу, 0:03:58.870,0:04:02.673 но затем мы проверили,[br]что делали люди за рулём автомобиля, 0:04:02.673,0:04:04.252 и это открыло нам глаза. 0:04:04.252,0:04:06.690 Моя любимая история — джентльмен, 0:04:06.690,0:04:10.519 который взглянул на свой телефон[br]и понял, что батарея почти разрядилась. 0:04:10.519,0:04:15.067 Он разворачивается вот так[br]и начинает копаться в рюкзаке, 0:04:15.067,0:04:17.220 вытаскивает ноутбук, 0:04:17.220,0:04:18.787 кладёт его на сиденье, 0:04:18.787,0:04:20.551 снова разворачивается, 0:04:20.551,0:04:23.918 копается, вытаскивает зарядное[br]устройство для телефона, 0:04:23.918,0:04:27.285 суетится, подключает к ноутбуку,[br]подсоединяет к мобильнику. 0:04:27.285,0:04:29.328 Конечно же, телефон заряжается. 0:04:29.328,0:04:33.322 Всё это время он ехал[br]на скорости 105 км/ч по автостраде. 0:04:33.322,0:04:35.806 Невероятно! 0:04:35.806,0:04:38.927 Мы об этом подумали и решили,[br]что такое поведение понятно: 0:04:38.927,0:04:41.070 чем лучше становятся технологии, 0:04:41.070,0:04:43.311 тем менее надёжным[br]будет становиться водитель. 0:04:43.311,0:04:45.707 Поэтому, просто делая автомобили[br]значительно умнее, 0:04:45.707,0:04:48.609 мы вряд ли увидим преимущества,[br]на которые рассчитываем. 0:04:49.249,0:04:52.510 Позвольте на мгновение[br]объяснить технический момент. 0:04:52.510,0:04:54.728 Мы смотрим на график,[br]где на горизонтальной оси 0:04:54.728,0:04:57.919 показано, как часто автомобиль[br]«жмёт» на тормоза, когда не следовало. 0:04:57.919,0:04:59.790 Большую часть этого можно игнорировать, 0:04:59.790,0:05:03.419 ведь если вы едете по городу и автомобиль[br]начинает случайно останавливаться, 0:05:03.419,0:05:05.230 вы такой автомобиль никогда не купите. 0:05:05.230,0:05:08.415 На вертикальной оси показано,[br]как часто автомобиль применит тормоза, 0:05:08.415,0:05:11.464 когда это необходимо[br]для предотвращения аварии. 0:05:11.464,0:05:13.685 Если посмотреть на левый нижний угол, 0:05:13.685,0:05:15.530 это стандартный автомобиль. 0:05:15.530,0:05:18.663 Он сам за вас на тормоза не жмёт,[br]ничего странного не вытворяет, 0:05:18.663,0:05:21.442 но при этом и от аварии вас не убережёт. 0:05:21.442,0:05:23.840 Если добавить в автомобиль[br]систему помощи водителю, 0:05:23.840,0:05:26.508 скажем, тормозную систему со смягчением[br]последствий столкновения, 0:05:26.508,0:05:28.210 то есть дополнительную технологию, — 0:05:28.210,0:05:31.218 вот эта кривая — то у неё будут[br]какие-то операционные свойства, 0:05:31.218,0:05:33.518 но она никогда не сможет[br]избежать всех аварий, 0:05:33.518,0:05:35.767 потому что такой возможности у неё нет. 0:05:35.767,0:05:38.016 Но возьмём какой-нибудь[br]участок на этой кривой: 0:05:38.016,0:05:41.720 может, технология избегает половину[br]аварий, которые упускает из виду водитель, 0:05:41.720,0:05:43.237 и это замечательно, правда же? 0:05:43.237,0:05:46.394 Мы только что снизили[br]количество аварий на дорогах вдвое. 0:05:46.394,0:05:50.381 Теперь ежегодно в Америке погибает[br]в авариях на 17 000 человек меньше. 0:05:50.381,0:05:52.401 Но если мы хотим[br]беспилотный автомобиль, 0:05:52.401,0:05:54.598 нам нужна кривая,[br]которая выглядит вот так. 0:05:54.598,0:05:57.307 Нужно поставить больше датчиков[br]на транспортное средство. 0:05:57.307,0:05:59.398 Выберем некоторую[br]рабочую точку вот здесь, 0:05:59.398,0:06:01.347 где аварий, по сути, не случается. 0:06:01.347,0:06:03.480 Могут произойти, но крайне редко. 0:06:03.480,0:06:07.011 Теперь и вы и я можем взглянуть на это[br]и обсудить, значительно ли различие. 0:06:07.011,0:06:09.246 Я бы мог рассказать что-нибудь[br]о правиле «80-20» 0:06:09.246,0:06:11.524 и что до верхушки кривой тяжело дойти. 0:06:11.524,0:06:14.768 Но давайте на мгновение[br]посмотрим на это под другим углом. 0:06:14.768,0:06:18.870 Посмотрим, как часто технология[br]вынуждена принимать правильные решения. 0:06:18.870,0:06:22.376 Вот эта зелёная точка —[br]система помощи водителю. 0:06:22.376,0:06:24.861 Оказывается, в Америке водители 0:06:24.861,0:06:27.508 совершают ошибки, приводящие к авариям, 0:06:27.508,0:06:30.680 где-то один раз[br]на каждые 160 000 километров. 0:06:30.680,0:06:33.847 Для сравнения, система[br]автоматизированного управления 0:06:33.847,0:06:37.510 принимает решения около 10 раз в секунду, 0:06:37.510,0:06:38.932 то есть порядок возрастания — 0:06:38.932,0:06:41.764 около 620 раз на километр. 0:06:41.764,0:06:44.249 Если сравнить разницу между ними, 0:06:44.249,0:06:46.849 она составит 10 в восьмой степени — 0:06:46.849,0:06:48.614 порядок возрастания равен восьми. 0:06:48.614,0:06:51.423 Это как сравнить мою скорость бега 0:06:51.423,0:06:53.629 со скоростью света. 0:06:53.629,0:06:57.414 Неважно, как упорно я тренируюсь,[br]мне никогда не стать таким быстрым. 0:06:57.414,0:06:59.852 То есть промежуток весьма внушительный. 0:06:59.852,0:07:03.581 И наконец, рассмотрим, как система[br]справляется с неопределённостью. 0:07:03.581,0:07:06.904 Вот этот прохожий может[br]выйти на дорогу, а может и нет. 0:07:06.904,0:07:10.299 Мне не понять, да и ни один[br]из наших алгоритмов не может. 0:07:10.310,0:07:12.594 Но в случае с системой помощи водителю 0:07:12.594,0:07:15.010 это означает, что она не может[br]перейти к действию, 0:07:15.010,0:07:18.739 ведь если она неожиданно[br]«нажмёт» на тормоза, это неприемлемо. 0:07:18.739,0:07:22.262 В то время как автоматизированная система[br]может оценить прохожего и решить: 0:07:22.262,0:07:23.802 «Я не знаю, что он будет делать. 0:07:23.802,0:07:27.524 Притормози, посмотри получше,[br]а затем действуй по ситуации». 0:07:27.524,0:07:31.226 Такая система куда безопаснее[br]системы помощи водителю. 0:07:31.226,0:07:33.956 Я достаточно сказал[br]о различиях между двумя системами. 0:07:33.956,0:07:37.140 Поговорим о том,[br]как автомобиль «видит» мир. 0:07:37.140,0:07:38.692 Вот наш автомобиль. 0:07:38.692,0:07:41.360 Он начинает с осознания того,[br]где он конкретно находится, 0:07:41.360,0:07:44.317 используя карту и данные с датчиков[br]и объединяя эту информацию, 0:07:44.317,0:07:46.865 плюс то, что он «видит» в данный момент. 0:07:46.865,0:07:50.520 Вот здесь фиолетовые прямоугольники —[br]другие автомобили на дороге, 0:07:50.520,0:07:53.048 красная штука там в стороне —[br]это велосипедист, 0:07:53.048,0:07:55.450 а вот там на расстоянии,[br]если приглядеться, 0:07:55.450,0:07:57.244 можно увидеть дорожные конусы. 0:07:57.244,0:08:00.017 Теперь мы знаем, где автомобиль[br]находится в данный момент, 0:08:00.017,0:08:03.470 но нужно больше информации:[br]нужно предсказать, что произойдёт дальше. 0:08:03.470,0:08:07.338 Вот здесь грузовик, справа наверху,[br]собирается перестроиться на левую полосу, 0:08:07.338,0:08:09.561 так как дорога перед ним закрыта, 0:08:09.561,0:08:11.292 и ему надо съехать с этой полосы. 0:08:11.292,0:08:13.155 Хорошо знать об одном грузовике, 0:08:13.155,0:08:15.924 но нам-то нужно знать,[br]о чём думают все участники движения, 0:08:15.924,0:08:18.141 так что проблема становится[br]весьма сложной. 0:08:18.141,0:08:22.890 Зная это, мы можем определить,[br]как автомобилю следует отреагировать: 0:08:22.890,0:08:26.756 какой траектории следовать,[br]как быстро замедлиться или ускориться. 0:08:26.756,0:08:29.821 И всё это сводится к следующему алгоритму: 0:08:29.821,0:08:33.018 повернуть руль влево или вправо,[br]нажать тормоз или газ. 0:08:33.018,0:08:35.482 В итоге всего два выбора. 0:08:35.482,0:08:37.723 Как сложно это может быть? 0:08:38.433,0:08:40.385 Когда мы начали в 2009 году, 0:08:40.385,0:08:42.183 наша система выглядела так. 0:08:42.183,0:08:45.424 Вы видите наш автомобиль в центре[br]и другие прямоугольнички на дороге, 0:08:45.424,0:08:46.845 едущие по автостраде. 0:08:46.845,0:08:50.203 Автомобилю нужно определить,[br]где он и где другие транспортные средства. 0:08:50.203,0:08:52.542 Такое геометрическое представление мира. 0:08:52.542,0:08:56.040 Как только мы начинаем передвигаться[br]в жилой зоне и по улицам города, 0:08:56.040,0:08:58.485 проблема усложняется в разы. 0:08:58.485,0:09:01.979 Вот пешеходы, переходящие улицу[br]перед нами, автомобили — 0:09:01.979,0:09:03.790 каждый идёт своей дорогой; 0:09:03.790,0:09:05.317 светофоры, пешеходные переходы. 0:09:05.317,0:09:08.114 В сравнении с предыдущей,[br]эта проблема куда сложнее. 0:09:08.114,0:09:10.217 Как только эта проблема решена, 0:09:10.217,0:09:12.759 автомобилю также нужно[br]справляться с дорожными работами — 0:09:12.759,0:09:15.790 вот конусы слева,[br]вынуждающие ехать вправо, — 0:09:15.790,0:09:18.282 но не только с изолированными[br]стройками, конечно же, 0:09:18.282,0:09:22.005 нужно справляться и с теми,[br]кто пересекает эту зону. 0:09:22.005,0:09:25.268 А если кто-то нарушает правила,[br]приезжает полиция, 0:09:25.268,0:09:28.430 и автомобилю нужно понимать,[br]что вот этот мигающий огонёк на крыше 0:09:28.430,0:09:31.505 значит, что это не простой[br]автомобиль, а полицейский. 0:09:31.505,0:09:33.497 Так же, оранжевый прямоугольник здесь — 0:09:33.497,0:09:34.896 это школьный автобус, 0:09:34.896,0:09:37.306 и к нему тоже требуется[br]особое отношение. 0:09:38.366,0:09:41.369 Когда мы на дороге,[br]у людей есть определённые ожидания: 0:09:41.369,0:09:43.149 если велосипедист поднимает руку, 0:09:43.149,0:09:46.667 это значит, он ожидает, что автомобиль[br]уступит ему дорогу, 0:09:46.667,0:09:48.720 чтобы он смог сменить полосу. 0:09:49.030,0:09:51.203 А если полицейский перегородил дорогу, 0:09:51.203,0:09:53.943 значит, нужно остановиться 0:09:53.943,0:09:57.449 и продолжить движение,[br]только когда он просигналит нам. 0:09:57.449,0:10:01.210 Мы добились этого путём распределения[br]информации между автомобилями. 0:10:01.210,0:10:02.906 В грубом исполнении задумка такова: 0:10:02.906,0:10:05.589 когда одно транспортное средство[br]видит дорожные работы, 0:10:05.589,0:10:08.501 другое узнаёт об этом и может[br]перестроиться в нужную полосу, 0:10:08.501,0:10:09.651 избежав сложностей. 0:10:09.651,0:10:12.315 Но мы продумали ситуацию куда глубже. 0:10:12.315,0:10:15.324 Мы можем взять все данные,[br]собранные автомобилями за всё время, — 0:10:15.324,0:10:17.700 сотни тысяч пешеходов, велосипедистов 0:10:17.700,0:10:19.487 и транспортных средств — 0:10:19.487,0:10:21.182 и обдумать, как они выглядят, 0:10:21.182,0:10:23.483 чтобы на основании этого сделать вывод 0:10:23.483,0:10:25.939 о том, как выглядят[br]другие автомобили и пешеходы. 0:10:25.939,0:10:28.960 А затем, что ещё важнее,[br]из этого можно получить модель того, 0:10:28.960,0:10:31.040 каким ожидается их движение. 0:10:31.040,0:10:34.253 Тут жёлтые прямоугольники —[br]пешеходы, переходящие дорогу перед нами, 0:10:34.253,0:10:36.223 голубой прямоугольник — велосипедист, 0:10:36.223,0:10:39.815 и мы предугадываем, что они[br]объедут автомобиль справа. 0:10:40.115,0:10:42.207 Здесь велосипедист спукается вниз, 0:10:42.207,0:10:44.753 и мы понимаем, что он продолжит[br]ехать вдоль дороги. 0:10:44.753,0:10:46.790 Здесь кто-то поворачивает направо, 0:10:46.790,0:10:50.130 а вот в этот момент кто-то решил[br]развернуться перед нами, 0:10:50.130,0:10:53.534 и мы можем предугадать такое поведение[br]и соответственно отреагировать. 0:10:53.534,0:10:56.022 Всё это здорово для тех ситуаций,[br]которые мы видели, 0:10:56.022,0:10:59.427 но ведь случаются и такие вещи,[br]с которыми мы до этого не сталкивались. 0:10:59.428,0:11:01.489 Всего пару месяцев тому назад 0:11:01.489,0:11:03.634 наши автомобили двигались[br]через Маунтин-Вью 0:11:03.634,0:11:05.218 и натолкнулись вот на что. 0:11:05.218,0:11:07.410 Это женщина в электрическом[br]инвалидном кресле, 0:11:07.410,0:11:10.677 гоняющаяся по кругу[br]за уткой на дороге. (Смех) 0:11:10.677,0:11:13.788 Оказалось, нигде в руководстве ПДД 0:11:13.788,0:11:16.033 не сказано, что делать в такой ситуации, 0:11:16.033,0:11:18.176 но наши автомобили с этим справились: 0:11:18.176,0:11:20.431 они притормозили и поехали осторожнее. 0:11:20.431,0:11:22.522 Приходится сталкиваться[br]не только с утками. 0:11:22.522,0:11:26.180 Посмотрите, как птица пролетает[br]прямо перед нами, и автомобиль реагирует. 0:11:26.180,0:11:27.795 Здесь ситуация с велосипедистом, 0:11:27.795,0:11:31.085 которую нигде, кроме Маунтин-Вью,[br]не ожидаешь увидеть. 0:11:31.085,0:11:33.153 И, конечно, ситуации с водителями, 0:11:33.153,0:11:36.868 в том числе самыми маленькими. 0:11:36.868,0:11:40.999 Посмотрите, как справа[br]кто-то выпрыгивает на нас из грузовика. 0:11:42.460,0:11:45.389 А теперь слева автомобиль[br]с зелёным прямоугольником 0:11:45.389,0:11:48.714 в последний момент решает,[br]что ему нужно повернуть направо. 0:11:48.714,0:11:51.565 Здесь, пока мы меняем полосу движения,[br]водитель слева решает, 0:11:51.565,0:11:53.858 что и он тоже хочет сменить полосу. 0:11:55.118,0:11:57.811 А тут мы видим, как автомобиль[br]проносится на красный свет, 0:11:57.811,0:11:59.901 и мы останавливаемся. 0:11:59.901,0:12:03.275 И тут тоже: велосипедист[br]проезжает на красный свет. 0:12:03.275,0:12:06.251 И, конечно, наш автомобиль[br]реагирует, соблюдая безопасность. 0:12:06.251,0:12:09.102 Также есть те, кто иногда[br]бог знает что вытворяет на дороге: 0:12:09.102,0:12:12.925 как вот это парень, втискивающийся[br]меж двух автоматизированных автомобилей. 0:12:12.925,0:12:14.970 Хочется спросить: «Чем ты думаешь?» 0:12:14.970,0:12:16.182 (Смех) 0:12:16.182,0:12:18.023 Я тут вас закидал разными ситуациями, 0:12:18.023,0:12:20.773 давайте разберём одну досконально. 0:12:20.773,0:12:23.493 Итак, снова ситуация с велосипедистом. 0:12:23.493,0:12:27.024 Вы можете заметить внизу,[br]что велосипедиста нам пока не видно, 0:12:27.024,0:12:29.798 но автомобиль его видит:[br]голубой прямоугольник вот здесь. 0:12:29.798,0:12:31.979 Мы получили данные [br]с лазерных датчиков. 0:12:31.979,0:12:34.007 Это не так просто понять, 0:12:34.007,0:12:37.011 поэтому я разверну[br]данные и посмотрю на них, 0:12:37.011,0:12:39.720 и если вы хорошо умеете анализировать[br]данные с лазерных датчиков, 0:12:39.720,0:12:42.157 то можете разглядеть[br]несколько точек на этой кривой, 0:12:42.157,0:12:44.079 а голубой прямоугольник — велосипедист. 0:12:44.079,0:12:45.928 Пока наш светофор красный, 0:12:45.928,0:12:48.080 светофор для велосипедистов[br]загорелся жёлтым, 0:12:48.080,0:12:50.638 и если прищуриться,[br]можно увидеть это на изображении. 0:12:50.638,0:12:53.764 Но велосипедист собирается[br]пересечь перекрёсток. 0:12:53.764,0:12:56.718 Теперь наш светофор горит зелёным,[br]его — красным. 0:12:56.718,0:13:01.010 Мы предугадываем, что велосипедист[br]так и поедет вперёд до конца. 0:13:01.010,0:13:04.752 К сожалению, водители рядом с нами[br]не обратили на это внимания, 0:13:04.752,0:13:07.909 они начали движение вперёд,[br]и, к счастью для всех, 0:13:07.909,0:13:10.920 велосипедист реагирует,[br]избегает столкновения 0:13:10.920,0:13:13.111 и проезжает перекрёсток. 0:13:13.111,0:13:14.679 Теперь можно ехать. 0:13:14.679,0:13:17.627 Как видите, мы добились[br]впечатляющего прогресса 0:13:17.627,0:13:19.529 и на данный момент убеждены, 0:13:19.529,0:13:21.649 что эта технология[br]станет доступной на рынке. 0:13:21.649,0:13:26.232 Каждый день мы тестируем автомобили[br]на почти 5 000 000 километрах, 0:13:26.232,0:13:29.011 и можно представить опыт,[br]который они накопили. 0:13:29.021,0:13:31.875 Мы с нетерпением ждём,[br]когда эта технология выйдет на дороги, 0:13:31.875,0:13:34.845 и думаем, что верный выбор —[br]это автоматизированные автомобили, 0:13:34.845,0:13:36.609 а не система помощи водителю, 0:13:36.609,0:13:39.230 ведь актуальность так велика. 0:13:39.230,0:13:41.623 За время, пока я выступал, 0:13:41.623,0:13:44.758 на дорогах Америки погибло 34 человека. 0:13:44.758,0:13:47.126 Как скоро станет доступной наша система? 0:13:47.126,0:13:50.958 Трудно ответить, ведь проблема сложная. 0:13:50.958,0:13:53.172 Но вот мои два сына: 0:13:53.172,0:13:56.795 старшему 11 лет, что значит,[br]что через 4 с половиной года 0:13:56.795,0:13:59.372 он может получить водительские права. 0:13:59.372,0:14:02.576 Я и моя команда работаем,[br]чтобы этого не случилось. 0:14:02.576,0:14:04.480 Спасибо. 0:14:04.480,0:14:08.147 (Смех)[br](Аплодисменты) 0:14:09.110,0:14:11.678 Крис Андерсон:[br]Крис, у меня есть к вам вопрос. 0:14:11.678,0:14:14.487 Крис Урмсон: Конечно. 0:14:14.487,0:14:18.411 КА: Разум ваших автомобилей поразителен.[br] 0:14:18.411,0:14:22.870 В этом споре между автоматизированными[br]и снабжёнными помощью автомобилями... 0:14:22.870,0:14:25.911 Серьёзный спор идёт сейчас на эту тему. 0:14:25.911,0:14:28.744 Некоторые компании, например, Tesla, 0:14:28.744,0:14:30.903 идут по пути вспомогательных систем. 0:14:30.903,0:14:36.151 Вы говорите, что это своего рода тупик, 0:14:36.151,0:14:41.607 потому что нельзя просто улучшать[br]эти системы и в конечном счёте прийти 0:14:41.607,0:14:44.987 к полной автоматизации, ведь[br]водитель может подумать, что это безопасно, 0:14:44.987,0:14:47.784 и полезть на заднее сидение,[br]и тогда может произойти что-то ужасное. 0:14:47.784,0:14:51.790 КУ: Верно. Именно так.[br]И не то чтобы системы помощи водителю 0:14:51.790,0:14:53.917 не имеют огромной ценности — 0:14:53.917,0:14:56.055 они могут спасти[br]много жизней за этот период, 0:14:56.055,0:14:59.888 но чтобы была возможность преобразовать,[br]помочь людям вроде Стива передвигаться, 0:14:59.888,0:15:01.857 прийти к максимуму безопасности, 0:15:01.857,0:15:04.336 иметь возможность изменить наши города, 0:15:04.336,0:15:07.930 избавиться от этих городских окопов,[br]которые мы называем парковками, — 0:15:07.930,0:15:09.780 для этого существует только один путь. 0:15:09.780,0:15:12.658 КА: Мы будем следить за вашими[br]успехами с огромным интересом. 0:15:12.658,0:15:15.770 Спасибо, Крис.[br]КУ: Спасибо. (Аплодисменты)