0:00:00.528,0:00:04.477 En 1885, Karl Benz[br]inventó el automóvil. 0:00:04.707,0:00:08.469 Más tarde ese año, lo sacó para la [br]primera prueba de conducción pública, 0:00:08.469,0:00:11.844 para --historia verdadera--[br]estrellarse contra una pared. 0:00:12.184,0:00:14.227 En los últimos 130 años, 0:00:14.227,0:00:18.546 hemos trabajado en torno a esa parte[br]menos fiable del vehículo, el conductor. 0:00:18.546,0:00:20.040 Hemos hecho autos más fuertes. 0:00:20.090,0:00:22.848 Se ha añadido el cinturón de seguridad,[br]las bolsas de aire, 0:00:22.848,0:00:26.719 y en la última década empezamos [br]a hacer autos más inteligentes 0:00:26.719,0:00:29.657 para solucionar ese problema,[br]el conductor. 0:00:29.657,0:00:32.918 Hoy les hablaré un poco de la diferencia 0:00:32.918,0:00:36.726 entre emparchar el problema con [br]sistemas de conducción asistida 0:00:36.726,0:00:39.180 y realmente tener autos [br]plenamente autoconducidos 0:00:39.180,0:00:41.170 y lo que estos pueden [br]hacer por el mundo. 0:00:41.170,0:00:44.165 También les hablaré un poco[br]de nuestro auto 0:00:44.165,0:00:48.164 para que vean cómo ve el mundo,[br]cómo reacciona y qué hace, 0:00:48.164,0:00:51.351 pero primero hablaré un poco[br]sobre el problema. 0:00:51.501,0:00:53.079 Y es un gran problema. 0:00:53.079,0:00:56.388 en la carretera en el mundo mueren [br]1,2 millones de personas al año. 0:00:56.388,0:01:00.172 Solo en EE.UU., mueren [br]33 000 personas al año. 0:01:00.172,0:01:02.200 Para poner eso en perspectiva, 0:01:02.200,0:01:06.997 es como si cayeran 737 personas [br]del cielo cada día laboral. 0:01:07.342,0:01:09.128 Es increíble. 0:01:09.548,0:01:11.846 Nos venden los autos así, 0:01:11.846,0:01:14.563 pero en realidad, la conducción[br]es algo así. 0:01:14.563,0:01:16.722 ¿Cierto? No es soleado, es lluvioso, 0:01:16.722,0:01:19.210 y Uds. quieren hacer otras cosas[br]que conducir. 0:01:19.210,0:01:20.832 Y esta es la razón: 0:01:20.832,0:01:22.690 El tránsito es cada vez peor. 0:01:22.690,0:01:26.196 En EE.UU., entre 1990 y 2010, 0:01:26.196,0:01:29.700 los kilómetros recorridos por vehículo[br]aumentaron un 38 %. 0:01:30.213,0:01:32.962 Las carreteras crecieron un 6 %, 0:01:32.962,0:01:34.564 así que no es idea de Uds. 0:01:34.564,0:01:38.840 El tránsito es sustancialmente peor[br]de lo que fue no hace mucho. 0:01:38.840,0:01:41.249 Y todo esto tiene [br]un impacto humano muy alto. 0:01:41.529,0:01:45.477 Por ejemplo, el tiempo de viaje promedio[br]en EE.UU. es de unos 50 minutos, 0:01:45.477,0:01:49.126 lo multiplicamos por los 120 millones[br]de trabajadores, 0:01:49.126,0:01:51.351 eso da unos 6000 millones de minutos 0:01:51.351,0:01:53.377 derrochados en desplazamientos[br]cada día. 0:01:53.377,0:01:56.204 Es un número enorme, así que[br]pongamos esto en perspectiva. 0:01:56.204,0:01:57.978 Tomamos esos 6000 millones de minutos 0:01:57.978,0:02:01.762 y los dividimos entre la [br]edad media de una persona, 0:02:01.762,0:02:04.897 eso da 162 vidas 0:02:04.897,0:02:07.822 gastadas cada día, derrochadas, 0:02:07.822,0:02:09.866 solo para ir de A a B. 0:02:09.866,0:02:11.596 Es increíble. 0:02:11.596,0:02:14.440 Y luego estamos quienes[br]no tenemos el privilegio 0:02:14.440,0:02:16.112 de sentarnos en el tránsito. 0:02:16.112,0:02:17.690 Este es Steve. 0:02:17.690,0:02:19.455 Es un tipo muy capaz, 0:02:19.455,0:02:21.731 pero es ciego, 0:02:21.731,0:02:25.188 y por eso en vez de conducir 30 minutos[br]para ir al trabajo cada mañana, 0:02:25.188,0:02:29.167 pasa dos horas en el transporte público 0:02:29.167,0:02:31.552 o pidiendo a amigos y familiares[br]que lo lleven. 0:02:31.552,0:02:35.221 No tiene la misma libertad[br]que Uds. y yo para moverse. 0:02:35.221,0:02:37.681 Deberíamos hacer algo al respecto. 0:02:37.761,0:02:39.568 El conocimiento convencional afirma 0:02:39.568,0:02:42.260 que si tomamos estos sistemas [br]de asistencia al conductor 0:02:42.260,0:02:45.570 si los impulsamos y mejoramos[br]de manera incremental, 0:02:45.570,0:02:48.432 con el tiempo, se convertirán [br]en vehículos autoconducidos. 0:02:48.432,0:02:50.841 Bueno, vengo a decirles [br]que eso es como decir 0:02:50.841,0:02:54.898 que si nos esforzamos mucho en saltar,[br]un día podremos volar. 0:02:54.898,0:02:57.626 Realmente tenemos que hacer[br]algo un poco diferente. 0:02:57.626,0:03:00.337 Por eso les hablaré de tres [br]formas diferentes en las que 0:03:00.337,0:03:03.683 los sistemas autoconducidos difieren [br]de los de conducción asistida. 0:03:03.683,0:03:06.334 Empezaré con la experiencia propia. 0:03:06.334,0:03:08.587 Volviendo a 2013, 0:03:08.587,0:03:11.250 hicimos la primera prueba[br]de un vehículo autoconducido 0:03:11.250,0:03:13.277 y se los dimos a probar a la gente común. 0:03:13.277,0:03:15.759 Bueno, casi comunes... [br]eran 100 empleados de Google 0:03:15.759,0:03:17.482 pero no trabajaban en el proyecto. 0:03:17.482,0:03:21.103 Les dimos los autos y les permitimos[br]usarlos en sus vidas diarias. 0:03:21.103,0:03:24.822 A diferencia de un vehículo autoconducido[br]real este tenía una gran salvedad: 0:03:24.822,0:03:26.326 Había que prestar atención, 0:03:26.326,0:03:28.959 porque era un vehículo experimental. 0:03:28.959,0:03:32.484 Lo probamos mucho, pero podía fallar. 0:03:32.484,0:03:34.443 Los capacitamos durante dos horas, 0:03:34.443,0:03:36.905 los pusimos en el auto,[br]les dejamos que lo usaran, 0:03:36.905,0:03:38.762 y la respuesta fue asombrosa, 0:03:38.762,0:03:41.286 como si alguien tratara [br]de crear un producto. 0:03:41.286,0:03:43.211 Cada uno de ellos dijo [br]que le encantó. 0:03:43.211,0:03:46.777 De hecho, tuvimos un conductor de Porsche[br]que vino y nos dijo el primer día: 0:03:46.777,0:03:49.440 "Esto es totalmente tonto.[br]¿En qué estamos pensando?" 0:03:49.690,0:03:52.630 Pero al final, dijo:[br]"No solo yo debería tenerlo, 0:03:52.630,0:03:56.085 todos los demás deberían tenerlo,[br]porque las personas conducen muy mal". 0:03:57.135,0:03:58.870 Eso fue música para nuestros oídos, 0:03:58.870,0:04:02.673 pero luego empezamos a observar[br]qué hacía la gente dentro del auto, 0:04:02.673,0:04:04.252 y esto fue revelador. 0:04:04.252,0:04:06.690 Mi historia favorita [br]es la de este caballero 0:04:06.690,0:04:10.519 que mira el teléfono y se da cuenta [br]de que la batería está baja, 0:04:10.519,0:04:15.067 se da vuelta así en el auto[br]y busca en su mochila, 0:04:15.067,0:04:17.220 saca su laptop, 0:04:17.220,0:04:18.786 la coloca en el asiento, 0:04:18.786,0:04:20.551 gira hacia atrás otra vez, 0:04:20.551,0:04:23.918 hurga en la mochila, saca [br]el cargador de su teléfono, 0:04:23.918,0:04:27.285 lo conecta en el laptop y al teléfono. 0:04:27.285,0:04:29.328 Se asegura de que el teléfono[br]está cargando. 0:04:29.328,0:04:33.322 Todo esto a 100 km por hora[br]en la autopista. 0:04:33.322,0:04:35.806 ¿Correcto? Increíble. 0:04:35.806,0:04:38.927 Lo pensamos y dijimos: es obvio, ¿no? 0:04:38.927,0:04:41.190 Cuanto mejor sea la tecnología, 0:04:41.190,0:04:43.311 menos confiable se volverá[br]el conductor. 0:04:43.311,0:04:45.707 Al hacer autos cada vez más inteligentes, 0:04:45.707,0:04:48.609 quizá no veamos las ganancias [br]que necesitamos. 0:04:48.609,0:04:52.510 Ahora hablaré de algo un poco[br]técnico durante un momento. 0:04:52.510,0:04:54.988 Estamos viendo en este gráfico,[br]en la parte inferior 0:04:54.988,0:04:57.999 la frecuencia con la que el auto usa [br]los frenos sin necesidad. 0:04:57.999,0:04:59.770 Pueden ignorar gran parte de ese eje, 0:04:59.770,0:05:03.339 porque si conducen en la ciudad,[br]y el auto empieza a detenerse al azar, 0:05:03.339,0:05:05.040 nunca comprarán ese vehículo. 0:05:05.040,0:05:08.415 Y el eje vertical es la frecuencia[br]con la que el auto usará los frenos 0:05:08.415,0:05:11.464 cuando se supone que debe ayudar[br]a evitar un accidente. 0:05:11.464,0:05:13.685 Si vemos la esquina inferior izquierda, 0:05:13.685,0:05:15.530 este es el auto clásico. 0:05:15.530,0:05:18.663 No aplica los frenos por uno,[br]no hace nada torpe, 0:05:18.663,0:05:21.442 pero tampoco evita un accidente. 0:05:21.442,0:05:24.280 Si queremos introducir un sistema [br]de conducción asistida, 0:05:24.280,0:05:26.508 digamos con freno de [br]mitigación de colisiones, 0:05:26.508,0:05:28.900 pondremos cierta tecnología allí, 0:05:28.900,0:05:32.318 eso es esa curva, y tendrá[br]unas propiedades operativas, 0:05:32.318,0:05:34.808 pero nunca evitará todos los accidentes, 0:05:34.808,0:05:36.767 porque no tiene esa capacidad. 0:05:36.767,0:05:38.946 Pero tocaremos la curva por aquí, 0:05:38.946,0:05:42.540 y quizá evite la mitad de los accidentes[br]cometidos por conductores humanos, 0:05:42.540,0:05:43.787 y eso es increíble, ¿no? 0:05:43.787,0:05:46.394 Reducimos accidentes viales [br]en un factor de dos. 0:05:46.394,0:05:50.001 Ahora hay 17 000 personas menos[br]que mueren al año en EE.UU. 0:05:50.001,0:05:52.251 Pero si queremos [br]un vehículo autoconducido, 0:05:52.251,0:05:54.848 necesitamos una curva tecnológica[br]que se parece a esto. 0:05:54.848,0:05:57.307 Tendremos que poner[br]más sensores en el vehículo, 0:05:57.307,0:05:59.328 y alcanzaremos algún punto por aquí 0:05:59.328,0:06:01.527 donde básicamente [br]nunca habrá un accidente. 0:06:01.527,0:06:03.790 Ocurrirán, pero con [br]una frecuencia muy baja. 0:06:03.790,0:06:06.251 Uds. y yo podríamos ver esto[br]y argumentar 0:06:06.251,0:06:09.856 si esto es incremental, y yo podría [br]decir algo como "regla 80-20", 0:06:09.856,0:06:12.424 y es realmente difícil subir[br]en esa nueva curva. 0:06:12.424,0:06:15.358 Pero veámoslo desde una dirección[br]diferente por un momento. 0:06:15.358,0:06:18.870 Veamos con qué frecuencia la tecnología [br]tiene que hacer lo correcto. 0:06:18.870,0:06:22.376 Este punto verde de aquí es un [br]sistema de conducción asistida. 0:06:22.376,0:06:24.861 Resulta que los conductores humanos 0:06:24.861,0:06:27.508 cometen errores que llevan[br]a accidentes de tránsito 0:06:27.508,0:06:30.510 aproximadamente una vez [br]cada 160 000 km en EE.UU. 0:06:30.510,0:06:33.847 Un sistema de autoconducción, por [br]el contrario, quizá toma decisiones 0:06:33.847,0:06:37.350 unas 10 veces por segundo, 0:06:37.350,0:06:38.932 por lo que el orden de magnitud 0:06:38.932,0:06:41.764 es de unas 1000 veces cada 1,6 km. 0:06:41.764,0:06:44.249 Si se compara la distancia[br]entre estos dos, 0:06:44.249,0:06:46.849 es de 10 a la octava, ¿no? 0:06:46.849,0:06:48.614 Ocho órdenes de magnitud. 0:06:48.614,0:06:51.423 Es como comparar lo rápido [br]que puedo correr 0:06:51.423,0:06:53.629 a la velocidad de la luz. 0:06:53.629,0:06:57.414 Sin importar lo duro que entrene,[br]nunca llegaré allí. 0:06:57.414,0:06:59.852 Existe una brecha bastante grande. 0:06:59.852,0:07:03.581 Y, finalmente, está el manejo [br]de la incertidumbre. 0:07:03.581,0:07:06.904 Este peatón podría entrar en [br]la carretera, podría no entrar. 0:07:06.904,0:07:09.950 No lo sé, ni lo saben [br]nuestros algoritmos, 0:07:09.950,0:07:12.764 pero en el caso de un sistema[br]de asistencia de conducción, 0:07:12.804,0:07:15.400 significa que no puede hacer algo[br]porque, de nuevo, 0:07:15.400,0:07:18.539 si pisa los frenos inesperadamente,[br]es completamente inaceptable. 0:07:18.539,0:07:21.872 Mientras que un sistema autoconducido[br]puede mirar al peatón y decir: 0:07:21.872,0:07:23.762 no sé qué está por hacer, 0:07:23.762,0:07:27.524 desaceleraré, observaré mejor y después[br]reaccionaré en consecuencia. 0:07:27.524,0:07:31.086 Puede ser mucho más seguro que [br]un sistema de conducción asistida. 0:07:31.086,0:07:33.956 Eso es suficiente sobre la diferencia[br]entre ambos sistemas. 0:07:33.956,0:07:37.440 Hablemos ahora de [br]cómo ve el auto el mundo. 0:07:37.440,0:07:38.692 Este es nuestro vehículo. 0:07:38.692,0:07:41.130 Empieza por entender[br]dónde está en el mundo, 0:07:41.130,0:07:43.917 alineando su mapa [br]y los datos de su sensor, 0:07:43.917,0:07:46.865 y luego apilamos encima [br]lo que ve en el momento. 0:07:46.865,0:07:50.520 Las cajas púrpura que pueden ver[br]son otros vehículos en la carretera, 0:07:50.520,0:07:53.048 y la cosa roja allí al lado[br]es un ciclista, 0:07:53.048,0:07:55.450 y a la distancia, si vemos de cerca, 0:07:55.450,0:07:57.244 se ven unos conos. 0:07:57.244,0:08:00.017 Luego sabemos dónde está [br]el auto en el momento, 0:08:00.017,0:08:03.380 pero tenemos que hacerlo mejor:[br]tenemos que predecir qué ocurrirá. 0:08:03.380,0:08:07.338 La camioneta de la parte superior derecha[br]está a punto de pasar al carril izquierdo 0:08:07.338,0:08:09.561 porque la carretera al frente[br]está cerrada, 0:08:09.561,0:08:11.292 por eso tiene que salir del camino. 0:08:11.292,0:08:13.155 Conocer a esa camioneta es genial, 0:08:13.155,0:08:15.634 pero tenemos que conocer[br]qué piensan todos, 0:08:15.634,0:08:18.141 por eso se vuelve un problema[br]bastante complicado. 0:08:18.141,0:08:22.890 Y sabiendo eso, hay que adivinar cómo [br]debería responder el auto en el momento, 0:08:22.890,0:08:26.756 qué trayectoria debería seguir,[br]si debería acelerar o desacelerar. 0:08:26.756,0:08:29.681 Y luego todo se reduce[br]a seguir el camino: 0:08:29.681,0:08:33.018 girar el volante a izquierda o derecha,[br]presionar el freno o acelerar. 0:08:33.018,0:08:35.482 Son realmente al final solo dos números. 0:08:35.482,0:08:37.722 ¿Cuán difícil puede ser realmente? 0:08:37.943,0:08:40.085 Cuando empezamos en 2009, 0:08:40.085,0:08:42.003 este era el aspecto de nuestro sistema. 0:08:42.003,0:08:45.254 Pueden ver nuestro auto en medio[br]y las otras cajas en la carretera, 0:08:45.254,0:08:46.845 conduciendo por la autopista. 0:08:46.845,0:08:50.663 El auto tiene que entender dónde está[br]y saber dónde están los otros. 0:08:50.663,0:08:52.932 Tiene que entender [br]geométricamente el mundo. 0:08:52.932,0:08:56.040 Cuando empezamos a conducir en [br]las calles del barrio y la ciudad, 0:08:56.040,0:08:58.665 el problema adquiere [br]un nuevo nivel de dificultad. 0:08:58.665,0:09:01.899 Vemos peatones y autos cruzando 0:09:01.899,0:09:03.670 en todas las direcciones, 0:09:03.670,0:09:05.437 los semáforos, los pasos de peatones. 0:09:05.437,0:09:08.114 Es un problema increíblemente [br]complicado en comparación. 0:09:08.114,0:09:10.217 Y una vez tenemos[br]el problema resuelto, 0:09:10.217,0:09:12.549 el vehículo debe poder[br]lidiar con la construcción. 0:09:12.549,0:09:15.330 Los conos de la izquierda[br]obligan a conducir a la derecha, 0:09:15.330,0:09:18.402 pero no se trata solo de la construcción[br]en forma aislada, claro. 0:09:18.402,0:09:22.005 También tiene en cuenta personas en [br]movimiento por la zona de construcción. 0:09:22.005,0:09:25.268 Y, claro, si alguien no cumple [br]las reglas, la policía está allí 0:09:25.268,0:09:28.310 y el vehículo debe entender que[br]la luz titilante encima del auto 0:09:28.310,0:09:31.995 significa que no es un vehículo cualquiera[br]sino el de una patrulla de policía. 0:09:31.995,0:09:34.347 De manera similar, [br]la caja naranja en el lateral 0:09:34.347,0:09:35.546 es un bus escolar, 0:09:35.546,0:09:37.656 y debe recibir un trato especial también. 0:09:37.906,0:09:41.369 Cuando estamos fuera en la carretera,[br]otras personas tienen expectativas: 0:09:41.369,0:09:43.149 Cuando un ciclista levanta el brazo, 0:09:43.149,0:09:46.667 significa que está esperando que el auto [br]le ceda el paso y le haga espacio 0:09:46.667,0:09:48.720 para hacer un cambio de carril. 0:09:48.840,0:09:51.203 Y cuando un oficial de policía[br]se interpone en el camino, 0:09:51.203,0:09:53.943 nuestro vehículo debe entender[br]que esto significa "alto", 0:09:53.943,0:09:57.449 y cuando indique avanzar,[br]debemos continuar. 0:09:57.449,0:10:01.210 Nuestra manera de lograr esto es [br]intercambiando datos entre vehículos. 0:10:01.210,0:10:02.906 El primer modelo, y más crudo, 0:10:02.906,0:10:05.339 es cuando un vehículo [br]ve una zona de construcción, 0:10:05.339,0:10:07.831 y le avisa a otro para que[br]esté en el carril correcto 0:10:07.831,0:10:09.651 y así evitar en parte la dificultad. 0:10:09.651,0:10:12.315 Pero en realidad entendemos[br]mucho más que eso. 0:10:12.315,0:10:15.324 Podríamos tomar los datos de [br]los autos vistos en el tiempo, 0:10:15.324,0:10:17.700 los cientos de miles [br]de peatones, ciclistas, 0:10:17.700,0:10:19.487 y vehículos que hemos visto, 0:10:19.487,0:10:21.182 entender su aspecto, 0:10:21.182,0:10:24.013 y usar eso para inferir el aspecto[br]de los otros vehículos 0:10:24.013,0:10:25.939 y el de los otros peatones. 0:10:25.939,0:10:28.960 Y luego, incluso más importante,[br]podríamos extraer un modelo 0:10:28.960,0:10:31.190 de cómo esperamos que [br]se muevan por el mundo. 0:10:31.190,0:10:34.373 Aquí en la caja amarilla hay [br]un peatón que cruza ante nosotros. 0:10:34.373,0:10:36.503 La caja azul es un ciclista y anticipamos 0:10:36.503,0:10:39.815 que se avisarían para sortear[br]el auto y salir hacia la derecha. 0:10:40.115,0:10:42.207 Aquí hay un ciclista[br]que va por la carretera 0:10:42.207,0:10:45.693 y sabemos que seguirá la trayectoria[br]de la carretera. 0:10:45.693,0:10:47.560 Aquí alguien gira a la derecha, 0:10:47.560,0:10:50.580 y en un momento, alguien quiere [br]girar en U frente a nosotros, 0:10:50.580,0:10:53.704 y podemos anticipar ese comportamiento[br]y responder con seguridad. 0:10:53.704,0:10:56.262 Todo bien con estas cosas[br]que ya hemos visto antes, 0:10:56.262,0:10:59.127 pero, claro, uno encuentra[br]muchas cosas que uno 0:10:59.127,0:11:00.358 nunca antes vio el mundo. 0:11:00.358,0:11:02.099 Por ejemplo, hace un par de meses, 0:11:02.099,0:11:04.334 nuestros vehículos circulaban[br]por Mountain View, 0:11:04.334,0:11:05.978 y encontraron esto. 0:11:05.978,0:11:08.040 Es una mujer en silla [br]de ruedas electrónica 0:11:08.040,0:11:10.947 persiguiendo a un pato en círculos [br]por la carretera. (Risas) 0:11:10.947,0:11:13.788 Y no hay ningún sitio[br]en el manual del DMV 0:11:13.788,0:11:16.033 que diga cómo resolver algo así, 0:11:16.033,0:11:18.116 pero nuestros vehículos [br]pudieron resolverlo, 0:11:18.116,0:11:20.611 redujeron la velocidad,[br]y condujeron de forma segura. 0:11:20.611,0:11:22.472 Y no solo tenemos que lidiar con patos. 0:11:22.472,0:11:26.180 Miren esta ave que vuela justo frente[br]a nosotros. El auto reacciona. 0:11:26.180,0:11:27.795 Aquí lidiamos con unos ciclistas 0:11:27.795,0:11:31.085 que uno nunca esperaría ver en otro [br]sitio que no fuese Mountain View. 0:11:31.085,0:11:33.343 Y claro, tenemos que lidiar[br]con los conductores, 0:11:33.343,0:11:36.868 incluso con los muy pequeños. 0:11:36.868,0:11:40.999 Miren a la derecha como alguien[br]salta de este camión hacia nosotros. 0:11:42.100,0:11:45.389 Y ahora, miren a la izquierda cuando[br]el auto de la caja verde decide 0:11:45.389,0:11:48.454 girar a la derecha a último momento. 0:11:48.454,0:11:51.565 Aquí, cuando cambiamos de carril,[br]el coche de la izquierda decide 0:11:51.565,0:11:55.118 que también quiere hacerlo. 0:11:55.118,0:11:57.811 Y aquí, vemos un auto [br]que pasa un semáforo en rojo 0:11:57.811,0:11:59.901 y cede el paso. 0:11:59.901,0:12:03.755 Y, del mismo modo, aquí, un ciclista[br]pasa esa luz también. 0:12:03.755,0:12:06.501 Y, por supuesto, el vehículo[br]responde en forma segura. 0:12:06.501,0:12:09.102 Y, claro, tenemos personas [br]que no sé por qué 0:12:09.102,0:12:12.645 a veces en la carretera, se interponen [br]entre dos vehículos autoconducidos. 0:12:12.645,0:12:14.970 Uno se pregunta:[br]"¿En qué estás pensando?" 0:12:14.970,0:12:16.182 (Risas) 0:12:16.182,0:12:18.703 Les he mostrado rápidamente muchas cosas 0:12:18.703,0:12:21.353 por eso analizaré en detalle[br]una de ellas rápidamente. 0:12:21.353,0:12:24.293 Estamos viendo nuevamente [br]la escena del ciclista, 0:12:24.293,0:12:27.534 y habrán notado abajo, que todavía[br]no podemos ver al ciclista, 0:12:27.534,0:12:30.288 pero el auto sí puede: ese esa [br]pequeña caja azul de allí, 0:12:30.288,0:12:32.369 y eso proviene de los datos láser. 0:12:32.369,0:12:34.787 En realidad, no es fácil de entender 0:12:34.787,0:12:38.371 por eso giraré esos datos láser[br]para analizarlos, 0:12:38.371,0:12:41.400 y si son buenos analizando [br]datos láser podrán ver que 0:12:41.400,0:12:42.887 unos pocos puntos de esa curva, 0:12:42.887,0:12:45.119 justo allí, esa caja azul es el ciclista. 0:12:45.119,0:12:46.548 Si bien nuestra luz es roja, 0:12:46.548,0:12:48.600 la luz del ciclista[br]ya se puso en amarillo, 0:12:48.600,0:12:51.038 y si observan, pueden verlo en la imagen. 0:12:51.038,0:12:54.004 Pero el ciclista seguirá [br]por la intersección. 0:12:54.004,0:12:56.718 Nuestra luz ahora es verde,[br]la de él es totalmente roja, 0:12:56.718,0:13:01.010 y ahora anticipamos que esta bici[br]hará el recorrido completo. 0:13:01.010,0:13:04.752 Por desgracia, los otros conductores [br]cercanos no prestaron mucha atención. 0:13:04.752,0:13:07.909 Empezaron a avanzar,[br]y afortunadamente para todos, 0:13:07.909,0:13:10.920 este ciclista reacciona, evita, 0:13:10.920,0:13:13.111 logra pasar la intersección. 0:13:13.111,0:13:14.679 Y allá vamos. 0:13:14.679,0:13:17.317 Como pueden ver, hemos[br]hecho progresos apasionantes, 0:13:17.317,0:13:19.529 y en este momento estamos [br]bastante convencidos 0:13:19.539,0:13:21.539 de que esta tecnología saldrá al mercado. 0:13:21.539,0:13:25.962 Hacemos 4 millones 800 mil km [br]de pruebas en simulador cada día, 0:13:25.962,0:13:28.871 podrán imaginar la experiencia [br]que tienen nuestros vehículos. 0:13:28.871,0:13:31.885 Esperamos con ansia que esta tecnología[br]salga a las carreteras, 0:13:31.885,0:13:34.865 y creemos que la forma correcta[br]es el enfoque de la autoconducción 0:13:34.865,0:13:37.109 en vez del enfoque de [br]la conducción asistida 0:13:37.109,0:13:39.230 porque la urgencia es mucha. 0:13:39.230,0:13:41.623 En el tiempo que llevó[br]dar esta charla hoy, 0:13:41.623,0:13:44.758 han muerto 34 personas [br]en las carreteras de EE.UU. 0:13:44.758,0:13:47.126 ¿Qué pronto podemos llevarlo a cabo? 0:13:47.126,0:13:50.958 Bueno, es difícil de decir porque[br]es un problema muy complicado, 0:13:50.958,0:13:53.172 pero estos son mis dos niños. 0:13:53.172,0:13:56.795 El más grande tiene 11 años, [br]o sea que en 4 años y medio 0:13:56.795,0:13:59.372 podrá tener su licencia de conducir. 0:13:59.372,0:14:02.576 Mi equipo y yo estamos decididos[br]a asegurarnos de que eso no pase. 0:14:02.576,0:14:04.480 Gracias. 0:14:04.480,0:14:08.147 (Risas) [br](Aplausos) 0:14:09.110,0:14:11.678 Chris Anderson: Chris,[br]Tengo una pregunta para ti. 0:14:11.678,0:14:14.487 Chris Urmson: Claro. 0:14:14.487,0:14:18.411 CA: Sin duda, la mente de tus autos[br]es bastante alucinante. 0:14:18.411,0:14:22.870 En este debate entre [br]conducción asistida y autoconducción... 0:14:22.870,0:14:25.911 ese debate existe hoy. 0:14:25.911,0:14:28.744 Algunas compañías, por ejemplo Tesla, 0:14:28.744,0:14:30.903 van por la senda de [br]la conducción asistida. 0:14:30.903,0:14:36.151 Tú dices que ese camino[br]será un callejón sin salida 0:14:36.151,0:14:41.607 porque no puedes seguir mejorando[br]esa vía y llegar a la autoconducción 0:14:41.607,0:14:45.137 en algún momento, y entonces el conductor[br]dirá: "Esto parece seguro", 0:14:45.137,0:14:47.784 girará hacia atrás, y entonces[br]ocurrirá algo feo. 0:14:47.784,0:14:50.250 CU: Cierto. No, eso es correcto,[br]y no quiere decir 0:14:50.250,0:14:53.997 que los sistemas de conducción asistida[br]no vayan a ser increíblemente valiosos. 0:14:53.997,0:14:56.135 Pueden salvar muchas vidas[br]mientras tanto, 0:14:56.135,0:15:00.088 pero al ver la oportunidad transformadora[br]de ayudar a alguien como Steve a moverse, 0:15:00.088,0:15:02.327 de llegar a buen puerto[br]en materia de seguridad, 0:15:02.327,0:15:04.886 de tener la oportunidad[br]de cambiar nuestras ciudades 0:15:04.886,0:15:08.420 de quitar los estacionamientos [br]y deshacernos de esos cráteres urbanos, 0:15:08.420,0:15:09.780 es la única opción a seguir. 0:15:09.780,0:15:12.498 CA: Seguiremos tu progreso [br]con gran interés. 0:15:12.498,0:15:16.730 Muchas gracias, Chris.[br]CU: Gracias. (Aplausos)