1 00:00:00,528 --> 00:00:04,477 En 1885, Karl Benz inventó el automóvil. 2 00:00:04,707 --> 00:00:08,469 Más tarde ese año, lo sacó para la primera prueba de conducción pública, 3 00:00:08,469 --> 00:00:11,844 para --historia verdadera-- estrellarse contra una pared. 4 00:00:12,184 --> 00:00:14,227 En los últimos 130 años, 5 00:00:14,227 --> 00:00:18,546 hemos trabajado en torno a esa parte menos fiable del vehículo, el conductor. 6 00:00:18,546 --> 00:00:20,040 Hemos hecho autos más fuertes. 7 00:00:20,090 --> 00:00:22,848 Se ha añadido el cinturón de seguridad, las bolsas de aire, 8 00:00:22,848 --> 00:00:26,719 y en la última década empezamos a hacer autos más inteligentes 9 00:00:26,719 --> 00:00:29,657 para solucionar ese problema, el conductor. 10 00:00:29,657 --> 00:00:32,918 Hoy les hablaré un poco de la diferencia 11 00:00:32,918 --> 00:00:36,726 entre emparchar el problema con sistemas de conducción asistida 12 00:00:36,726 --> 00:00:39,180 y realmente tener autos plenamente autoconducidos 13 00:00:39,180 --> 00:00:41,170 y lo que estos pueden hacer por el mundo. 14 00:00:41,170 --> 00:00:44,165 También les hablaré un poco de nuestro auto 15 00:00:44,165 --> 00:00:48,164 para que vean cómo ve el mundo, cómo reacciona y qué hace, 16 00:00:48,164 --> 00:00:51,351 pero primero hablaré un poco sobre el problema. 17 00:00:51,501 --> 00:00:53,079 Y es un gran problema. 18 00:00:53,079 --> 00:00:56,388 en la carretera en el mundo mueren 1,2 millones de personas al año. 19 00:00:56,388 --> 00:01:00,172 Solo en EE.UU., mueren 33 000 personas al año. 20 00:01:00,172 --> 00:01:02,200 Para poner eso en perspectiva, 21 00:01:02,200 --> 00:01:06,997 es como si cayeran 737 personas del cielo cada día laboral. 22 00:01:07,342 --> 00:01:09,128 Es increíble. 23 00:01:09,548 --> 00:01:11,846 Nos venden los autos así, 24 00:01:11,846 --> 00:01:14,563 pero en realidad, la conducción es algo así. 25 00:01:14,563 --> 00:01:16,722 ¿Cierto? No es soleado, es lluvioso, 26 00:01:16,722 --> 00:01:19,210 y Uds. quieren hacer otras cosas que conducir. 27 00:01:19,210 --> 00:01:20,832 Y esta es la razón: 28 00:01:20,832 --> 00:01:22,690 El tránsito es cada vez peor. 29 00:01:22,690 --> 00:01:26,196 En EE.UU., entre 1990 y 2010, 30 00:01:26,196 --> 00:01:29,700 los kilómetros recorridos por vehículo aumentaron un 38 %. 31 00:01:30,213 --> 00:01:32,962 Las carreteras crecieron un 6 %, 32 00:01:32,962 --> 00:01:34,564 así que no es idea de Uds. 33 00:01:34,564 --> 00:01:38,840 El tránsito es sustancialmente peor de lo que fue no hace mucho. 34 00:01:38,840 --> 00:01:41,249 Y todo esto tiene un impacto humano muy alto. 35 00:01:41,529 --> 00:01:45,477 Por ejemplo, el tiempo de viaje promedio en EE.UU. es de unos 50 minutos, 36 00:01:45,477 --> 00:01:49,126 lo multiplicamos por los 120 millones de trabajadores, 37 00:01:49,126 --> 00:01:51,351 eso da unos 6000 millones de minutos 38 00:01:51,351 --> 00:01:53,377 derrochados en desplazamientos cada día. 39 00:01:53,377 --> 00:01:56,204 Es un número enorme, así que pongamos esto en perspectiva. 40 00:01:56,204 --> 00:01:57,978 Tomamos esos 6000 millones de minutos 41 00:01:57,978 --> 00:02:01,762 y los dividimos entre la edad media de una persona, 42 00:02:01,762 --> 00:02:04,897 eso da 162 vidas 43 00:02:04,897 --> 00:02:07,822 gastadas cada día, derrochadas, 44 00:02:07,822 --> 00:02:09,866 solo para ir de A a B. 45 00:02:09,866 --> 00:02:11,596 Es increíble. 46 00:02:11,596 --> 00:02:14,440 Y luego estamos quienes no tenemos el privilegio 47 00:02:14,440 --> 00:02:16,112 de sentarnos en el tránsito. 48 00:02:16,112 --> 00:02:17,690 Este es Steve. 49 00:02:17,690 --> 00:02:19,455 Es un tipo muy capaz, 50 00:02:19,455 --> 00:02:21,731 pero es ciego, 51 00:02:21,731 --> 00:02:25,188 y por eso en vez de conducir 30 minutos para ir al trabajo cada mañana, 52 00:02:25,188 --> 00:02:29,167 pasa dos horas en el transporte público 53 00:02:29,167 --> 00:02:31,552 o pidiendo a amigos y familiares que lo lleven. 54 00:02:31,552 --> 00:02:35,221 No tiene la misma libertad que Uds. y yo para moverse. 55 00:02:35,221 --> 00:02:37,681 Deberíamos hacer algo al respecto. 56 00:02:37,761 --> 00:02:39,568 El conocimiento convencional afirma 57 00:02:39,568 --> 00:02:42,260 que si tomamos estos sistemas de asistencia al conductor 58 00:02:42,260 --> 00:02:45,570 si los impulsamos y mejoramos de manera incremental, 59 00:02:45,570 --> 00:02:48,432 con el tiempo, se convertirán en vehículos autoconducidos. 60 00:02:48,432 --> 00:02:50,841 Bueno, vengo a decirles que eso es como decir 61 00:02:50,841 --> 00:02:54,898 que si nos esforzamos mucho en saltar, un día podremos volar. 62 00:02:54,898 --> 00:02:57,626 Realmente tenemos que hacer algo un poco diferente. 63 00:02:57,626 --> 00:03:00,337 Por eso les hablaré de tres formas diferentes en las que 64 00:03:00,337 --> 00:03:03,683 los sistemas autoconducidos difieren de los de conducción asistida. 65 00:03:03,683 --> 00:03:06,334 Empezaré con la experiencia propia. 66 00:03:06,334 --> 00:03:08,587 Volviendo a 2013, 67 00:03:08,587 --> 00:03:11,250 hicimos la primera prueba de un vehículo autoconducido 68 00:03:11,250 --> 00:03:13,277 y se los dimos a probar a la gente común. 69 00:03:13,277 --> 00:03:15,759 Bueno, casi comunes... eran 100 empleados de Google 70 00:03:15,759 --> 00:03:17,482 pero no trabajaban en el proyecto. 71 00:03:17,482 --> 00:03:21,103 Les dimos los autos y les permitimos usarlos en sus vidas diarias. 72 00:03:21,103 --> 00:03:24,822 A diferencia de un vehículo autoconducido real este tenía una gran salvedad: 73 00:03:24,822 --> 00:03:26,326 Había que prestar atención, 74 00:03:26,326 --> 00:03:28,959 porque era un vehículo experimental. 75 00:03:28,959 --> 00:03:32,484 Lo probamos mucho, pero podía fallar. 76 00:03:32,484 --> 00:03:34,443 Los capacitamos durante dos horas, 77 00:03:34,443 --> 00:03:36,905 los pusimos en el auto, les dejamos que lo usaran, 78 00:03:36,905 --> 00:03:38,762 y la respuesta fue asombrosa, 79 00:03:38,762 --> 00:03:41,286 como si alguien tratara de crear un producto. 80 00:03:41,286 --> 00:03:43,211 Cada uno de ellos dijo que le encantó. 81 00:03:43,211 --> 00:03:46,777 De hecho, tuvimos un conductor de Porsche que vino y nos dijo el primer día: 82 00:03:46,777 --> 00:03:49,440 "Esto es totalmente tonto. ¿En qué estamos pensando?" 83 00:03:49,690 --> 00:03:52,630 Pero al final, dijo: "No solo yo debería tenerlo, 84 00:03:52,630 --> 00:03:56,085 todos los demás deberían tenerlo, porque las personas conducen muy mal". 85 00:03:57,135 --> 00:03:58,870 Eso fue música para nuestros oídos, 86 00:03:58,870 --> 00:04:02,673 pero luego empezamos a observar qué hacía la gente dentro del auto, 87 00:04:02,673 --> 00:04:04,252 y esto fue revelador. 88 00:04:04,252 --> 00:04:06,690 Mi historia favorita es la de este caballero 89 00:04:06,690 --> 00:04:10,519 que mira el teléfono y se da cuenta de que la batería está baja, 90 00:04:10,519 --> 00:04:15,067 se da vuelta así en el auto y busca en su mochila, 91 00:04:15,067 --> 00:04:17,220 saca su laptop, 92 00:04:17,220 --> 00:04:18,786 la coloca en el asiento, 93 00:04:18,786 --> 00:04:20,551 gira hacia atrás otra vez, 94 00:04:20,551 --> 00:04:23,918 hurga en la mochila, saca el cargador de su teléfono, 95 00:04:23,918 --> 00:04:27,285 lo conecta en el laptop y al teléfono. 96 00:04:27,285 --> 00:04:29,328 Se asegura de que el teléfono está cargando. 97 00:04:29,328 --> 00:04:33,322 Todo esto a 100 km por hora en la autopista. 98 00:04:33,322 --> 00:04:35,806 ¿Correcto? Increíble. 99 00:04:35,806 --> 00:04:38,927 Lo pensamos y dijimos: es obvio, ¿no? 100 00:04:38,927 --> 00:04:41,190 Cuanto mejor sea la tecnología, 101 00:04:41,190 --> 00:04:43,311 menos confiable se volverá el conductor. 102 00:04:43,311 --> 00:04:45,707 Al hacer autos cada vez más inteligentes, 103 00:04:45,707 --> 00:04:48,609 quizá no veamos las ganancias que necesitamos. 104 00:04:48,609 --> 00:04:52,510 Ahora hablaré de algo un poco técnico durante un momento. 105 00:04:52,510 --> 00:04:54,988 Estamos viendo en este gráfico, en la parte inferior 106 00:04:54,988 --> 00:04:57,999 la frecuencia con la que el auto usa los frenos sin necesidad. 107 00:04:57,999 --> 00:04:59,770 Pueden ignorar gran parte de ese eje, 108 00:04:59,770 --> 00:05:03,339 porque si conducen en la ciudad, y el auto empieza a detenerse al azar, 109 00:05:03,339 --> 00:05:05,040 nunca comprarán ese vehículo. 110 00:05:05,040 --> 00:05:08,415 Y el eje vertical es la frecuencia con la que el auto usará los frenos 111 00:05:08,415 --> 00:05:11,464 cuando se supone que debe ayudar a evitar un accidente. 112 00:05:11,464 --> 00:05:13,685 Si vemos la esquina inferior izquierda, 113 00:05:13,685 --> 00:05:15,530 este es el auto clásico. 114 00:05:15,530 --> 00:05:18,663 No aplica los frenos por uno, no hace nada torpe, 115 00:05:18,663 --> 00:05:21,442 pero tampoco evita un accidente. 116 00:05:21,442 --> 00:05:24,280 Si queremos introducir un sistema de conducción asistida, 117 00:05:24,280 --> 00:05:26,508 digamos con freno de mitigación de colisiones, 118 00:05:26,508 --> 00:05:28,900 pondremos cierta tecnología allí, 119 00:05:28,900 --> 00:05:32,318 eso es esa curva, y tendrá unas propiedades operativas, 120 00:05:32,318 --> 00:05:34,808 pero nunca evitará todos los accidentes, 121 00:05:34,808 --> 00:05:36,767 porque no tiene esa capacidad. 122 00:05:36,767 --> 00:05:38,946 Pero tocaremos la curva por aquí, 123 00:05:38,946 --> 00:05:42,540 y quizá evite la mitad de los accidentes cometidos por conductores humanos, 124 00:05:42,540 --> 00:05:43,787 y eso es increíble, ¿no? 125 00:05:43,787 --> 00:05:46,394 Reducimos accidentes viales en un factor de dos. 126 00:05:46,394 --> 00:05:50,001 Ahora hay 17 000 personas menos que mueren al año en EE.UU. 127 00:05:50,001 --> 00:05:52,251 Pero si queremos un vehículo autoconducido, 128 00:05:52,251 --> 00:05:54,848 necesitamos una curva tecnológica que se parece a esto. 129 00:05:54,848 --> 00:05:57,307 Tendremos que poner más sensores en el vehículo, 130 00:05:57,307 --> 00:05:59,328 y alcanzaremos algún punto por aquí 131 00:05:59,328 --> 00:06:01,527 donde básicamente nunca habrá un accidente. 132 00:06:01,527 --> 00:06:03,790 Ocurrirán, pero con una frecuencia muy baja. 133 00:06:03,790 --> 00:06:06,251 Uds. y yo podríamos ver esto y argumentar 134 00:06:06,251 --> 00:06:09,856 si esto es incremental, y yo podría decir algo como "regla 80-20", 135 00:06:09,856 --> 00:06:12,424 y es realmente difícil subir en esa nueva curva. 136 00:06:12,424 --> 00:06:15,358 Pero veámoslo desde una dirección diferente por un momento. 137 00:06:15,358 --> 00:06:18,870 Veamos con qué frecuencia la tecnología tiene que hacer lo correcto. 138 00:06:18,870 --> 00:06:22,376 Este punto verde de aquí es un sistema de conducción asistida. 139 00:06:22,376 --> 00:06:24,861 Resulta que los conductores humanos 140 00:06:24,861 --> 00:06:27,508 cometen errores que llevan a accidentes de tránsito 141 00:06:27,508 --> 00:06:30,510 aproximadamente una vez cada 160 000 km en EE.UU. 142 00:06:30,510 --> 00:06:33,847 Un sistema de autoconducción, por el contrario, quizá toma decisiones 143 00:06:33,847 --> 00:06:37,350 unas 10 veces por segundo, 144 00:06:37,350 --> 00:06:38,932 por lo que el orden de magnitud 145 00:06:38,932 --> 00:06:41,764 es de unas 1000 veces cada 1,6 km. 146 00:06:41,764 --> 00:06:44,249 Si se compara la distancia entre estos dos, 147 00:06:44,249 --> 00:06:46,849 es de 10 a la octava, ¿no? 148 00:06:46,849 --> 00:06:48,614 Ocho órdenes de magnitud. 149 00:06:48,614 --> 00:06:51,423 Es como comparar lo rápido que puedo correr 150 00:06:51,423 --> 00:06:53,629 a la velocidad de la luz. 151 00:06:53,629 --> 00:06:57,414 Sin importar lo duro que entrene, nunca llegaré allí. 152 00:06:57,414 --> 00:06:59,852 Existe una brecha bastante grande. 153 00:06:59,852 --> 00:07:03,581 Y, finalmente, está el manejo de la incertidumbre. 154 00:07:03,581 --> 00:07:06,904 Este peatón podría entrar en la carretera, podría no entrar. 155 00:07:06,904 --> 00:07:09,950 No lo sé, ni lo saben nuestros algoritmos, 156 00:07:09,950 --> 00:07:12,764 pero en el caso de un sistema de asistencia de conducción, 157 00:07:12,804 --> 00:07:15,400 significa que no puede hacer algo porque, de nuevo, 158 00:07:15,400 --> 00:07:18,539 si pisa los frenos inesperadamente, es completamente inaceptable. 159 00:07:18,539 --> 00:07:21,872 Mientras que un sistema autoconducido puede mirar al peatón y decir: 160 00:07:21,872 --> 00:07:23,762 no sé qué está por hacer, 161 00:07:23,762 --> 00:07:27,524 desaceleraré, observaré mejor y después reaccionaré en consecuencia. 162 00:07:27,524 --> 00:07:31,086 Puede ser mucho más seguro que un sistema de conducción asistida. 163 00:07:31,086 --> 00:07:33,956 Eso es suficiente sobre la diferencia entre ambos sistemas. 164 00:07:33,956 --> 00:07:37,440 Hablemos ahora de cómo ve el auto el mundo. 165 00:07:37,440 --> 00:07:38,692 Este es nuestro vehículo. 166 00:07:38,692 --> 00:07:41,130 Empieza por entender dónde está en el mundo, 167 00:07:41,130 --> 00:07:43,917 alineando su mapa y los datos de su sensor, 168 00:07:43,917 --> 00:07:46,865 y luego apilamos encima lo que ve en el momento. 169 00:07:46,865 --> 00:07:50,520 Las cajas púrpura que pueden ver son otros vehículos en la carretera, 170 00:07:50,520 --> 00:07:53,048 y la cosa roja allí al lado es un ciclista, 171 00:07:53,048 --> 00:07:55,450 y a la distancia, si vemos de cerca, 172 00:07:55,450 --> 00:07:57,244 se ven unos conos. 173 00:07:57,244 --> 00:08:00,017 Luego sabemos dónde está el auto en el momento, 174 00:08:00,017 --> 00:08:03,380 pero tenemos que hacerlo mejor: tenemos que predecir qué ocurrirá. 175 00:08:03,380 --> 00:08:07,338 La camioneta de la parte superior derecha está a punto de pasar al carril izquierdo 176 00:08:07,338 --> 00:08:09,561 porque la carretera al frente está cerrada, 177 00:08:09,561 --> 00:08:11,292 por eso tiene que salir del camino. 178 00:08:11,292 --> 00:08:13,155 Conocer a esa camioneta es genial, 179 00:08:13,155 --> 00:08:15,634 pero tenemos que conocer qué piensan todos, 180 00:08:15,634 --> 00:08:18,141 por eso se vuelve un problema bastante complicado. 181 00:08:18,141 --> 00:08:22,890 Y sabiendo eso, hay que adivinar cómo debería responder el auto en el momento, 182 00:08:22,890 --> 00:08:26,756 qué trayectoria debería seguir, si debería acelerar o desacelerar. 183 00:08:26,756 --> 00:08:29,681 Y luego todo se reduce a seguir el camino: 184 00:08:29,681 --> 00:08:33,018 girar el volante a izquierda o derecha, presionar el freno o acelerar. 185 00:08:33,018 --> 00:08:35,482 Son realmente al final solo dos números. 186 00:08:35,482 --> 00:08:37,722 ¿Cuán difícil puede ser realmente? 187 00:08:37,943 --> 00:08:40,085 Cuando empezamos en 2009, 188 00:08:40,085 --> 00:08:42,003 este era el aspecto de nuestro sistema. 189 00:08:42,003 --> 00:08:45,254 Pueden ver nuestro auto en medio y las otras cajas en la carretera, 190 00:08:45,254 --> 00:08:46,845 conduciendo por la autopista. 191 00:08:46,845 --> 00:08:50,663 El auto tiene que entender dónde está y saber dónde están los otros. 192 00:08:50,663 --> 00:08:52,932 Tiene que entender geométricamente el mundo. 193 00:08:52,932 --> 00:08:56,040 Cuando empezamos a conducir en las calles del barrio y la ciudad, 194 00:08:56,040 --> 00:08:58,665 el problema adquiere un nuevo nivel de dificultad. 195 00:08:58,665 --> 00:09:01,899 Vemos peatones y autos cruzando 196 00:09:01,899 --> 00:09:03,670 en todas las direcciones, 197 00:09:03,670 --> 00:09:05,437 los semáforos, los pasos de peatones. 198 00:09:05,437 --> 00:09:08,114 Es un problema increíblemente complicado en comparación. 199 00:09:08,114 --> 00:09:10,217 Y una vez tenemos el problema resuelto, 200 00:09:10,217 --> 00:09:12,549 el vehículo debe poder lidiar con la construcción. 201 00:09:12,549 --> 00:09:15,330 Los conos de la izquierda obligan a conducir a la derecha, 202 00:09:15,330 --> 00:09:18,402 pero no se trata solo de la construcción en forma aislada, claro. 203 00:09:18,402 --> 00:09:22,005 También tiene en cuenta personas en movimiento por la zona de construcción. 204 00:09:22,005 --> 00:09:25,268 Y, claro, si alguien no cumple las reglas, la policía está allí 205 00:09:25,268 --> 00:09:28,310 y el vehículo debe entender que la luz titilante encima del auto 206 00:09:28,310 --> 00:09:31,995 significa que no es un vehículo cualquiera sino el de una patrulla de policía. 207 00:09:31,995 --> 00:09:34,347 De manera similar, la caja naranja en el lateral 208 00:09:34,347 --> 00:09:35,546 es un bus escolar, 209 00:09:35,546 --> 00:09:37,656 y debe recibir un trato especial también. 210 00:09:37,906 --> 00:09:41,369 Cuando estamos fuera en la carretera, otras personas tienen expectativas: 211 00:09:41,369 --> 00:09:43,149 Cuando un ciclista levanta el brazo, 212 00:09:43,149 --> 00:09:46,667 significa que está esperando que el auto le ceda el paso y le haga espacio 213 00:09:46,667 --> 00:09:48,720 para hacer un cambio de carril. 214 00:09:48,840 --> 00:09:51,203 Y cuando un oficial de policía se interpone en el camino, 215 00:09:51,203 --> 00:09:53,943 nuestro vehículo debe entender que esto significa "alto", 216 00:09:53,943 --> 00:09:57,449 y cuando indique avanzar, debemos continuar. 217 00:09:57,449 --> 00:10:01,210 Nuestra manera de lograr esto es intercambiando datos entre vehículos. 218 00:10:01,210 --> 00:10:02,906 El primer modelo, y más crudo, 219 00:10:02,906 --> 00:10:05,339 es cuando un vehículo ve una zona de construcción, 220 00:10:05,339 --> 00:10:07,831 y le avisa a otro para que esté en el carril correcto 221 00:10:07,831 --> 00:10:09,651 y así evitar en parte la dificultad. 222 00:10:09,651 --> 00:10:12,315 Pero en realidad entendemos mucho más que eso. 223 00:10:12,315 --> 00:10:15,324 Podríamos tomar los datos de los autos vistos en el tiempo, 224 00:10:15,324 --> 00:10:17,700 los cientos de miles de peatones, ciclistas, 225 00:10:17,700 --> 00:10:19,487 y vehículos que hemos visto, 226 00:10:19,487 --> 00:10:21,182 entender su aspecto, 227 00:10:21,182 --> 00:10:24,013 y usar eso para inferir el aspecto de los otros vehículos 228 00:10:24,013 --> 00:10:25,939 y el de los otros peatones. 229 00:10:25,939 --> 00:10:28,960 Y luego, incluso más importante, podríamos extraer un modelo 230 00:10:28,960 --> 00:10:31,190 de cómo esperamos que se muevan por el mundo. 231 00:10:31,190 --> 00:10:34,373 Aquí en la caja amarilla hay un peatón que cruza ante nosotros. 232 00:10:34,373 --> 00:10:36,503 La caja azul es un ciclista y anticipamos 233 00:10:36,503 --> 00:10:39,815 que se avisarían para sortear el auto y salir hacia la derecha. 234 00:10:40,115 --> 00:10:42,207 Aquí hay un ciclista que va por la carretera 235 00:10:42,207 --> 00:10:45,693 y sabemos que seguirá la trayectoria de la carretera. 236 00:10:45,693 --> 00:10:47,560 Aquí alguien gira a la derecha, 237 00:10:47,560 --> 00:10:50,580 y en un momento, alguien quiere girar en U frente a nosotros, 238 00:10:50,580 --> 00:10:53,704 y podemos anticipar ese comportamiento y responder con seguridad. 239 00:10:53,704 --> 00:10:56,262 Todo bien con estas cosas que ya hemos visto antes, 240 00:10:56,262 --> 00:10:59,127 pero, claro, uno encuentra muchas cosas que uno 241 00:10:59,127 --> 00:11:00,358 nunca antes vio el mundo. 242 00:11:00,358 --> 00:11:02,099 Por ejemplo, hace un par de meses, 243 00:11:02,099 --> 00:11:04,334 nuestros vehículos circulaban por Mountain View, 244 00:11:04,334 --> 00:11:05,978 y encontraron esto. 245 00:11:05,978 --> 00:11:08,040 Es una mujer en silla de ruedas electrónica 246 00:11:08,040 --> 00:11:10,947 persiguiendo a un pato en círculos por la carretera. (Risas) 247 00:11:10,947 --> 00:11:13,788 Y no hay ningún sitio en el manual del DMV 248 00:11:13,788 --> 00:11:16,033 que diga cómo resolver algo así, 249 00:11:16,033 --> 00:11:18,116 pero nuestros vehículos pudieron resolverlo, 250 00:11:18,116 --> 00:11:20,611 redujeron la velocidad, y condujeron de forma segura. 251 00:11:20,611 --> 00:11:22,472 Y no solo tenemos que lidiar con patos. 252 00:11:22,472 --> 00:11:26,180 Miren esta ave que vuela justo frente a nosotros. El auto reacciona. 253 00:11:26,180 --> 00:11:27,795 Aquí lidiamos con unos ciclistas 254 00:11:27,795 --> 00:11:31,085 que uno nunca esperaría ver en otro sitio que no fuese Mountain View. 255 00:11:31,085 --> 00:11:33,343 Y claro, tenemos que lidiar con los conductores, 256 00:11:33,343 --> 00:11:36,868 incluso con los muy pequeños. 257 00:11:36,868 --> 00:11:40,999 Miren a la derecha como alguien salta de este camión hacia nosotros. 258 00:11:42,100 --> 00:11:45,389 Y ahora, miren a la izquierda cuando el auto de la caja verde decide 259 00:11:45,389 --> 00:11:48,454 girar a la derecha a último momento. 260 00:11:48,454 --> 00:11:51,565 Aquí, cuando cambiamos de carril, el coche de la izquierda decide 261 00:11:51,565 --> 00:11:55,118 que también quiere hacerlo. 262 00:11:55,118 --> 00:11:57,811 Y aquí, vemos un auto que pasa un semáforo en rojo 263 00:11:57,811 --> 00:11:59,901 y cede el paso. 264 00:11:59,901 --> 00:12:03,755 Y, del mismo modo, aquí, un ciclista pasa esa luz también. 265 00:12:03,755 --> 00:12:06,501 Y, por supuesto, el vehículo responde en forma segura. 266 00:12:06,501 --> 00:12:09,102 Y, claro, tenemos personas que no sé por qué 267 00:12:09,102 --> 00:12:12,645 a veces en la carretera, se interponen entre dos vehículos autoconducidos. 268 00:12:12,645 --> 00:12:14,970 Uno se pregunta: "¿En qué estás pensando?" 269 00:12:14,970 --> 00:12:16,182 (Risas) 270 00:12:16,182 --> 00:12:18,703 Les he mostrado rápidamente muchas cosas 271 00:12:18,703 --> 00:12:21,353 por eso analizaré en detalle una de ellas rápidamente. 272 00:12:21,353 --> 00:12:24,293 Estamos viendo nuevamente la escena del ciclista, 273 00:12:24,293 --> 00:12:27,534 y habrán notado abajo, que todavía no podemos ver al ciclista, 274 00:12:27,534 --> 00:12:30,288 pero el auto sí puede: ese esa pequeña caja azul de allí, 275 00:12:30,288 --> 00:12:32,369 y eso proviene de los datos láser. 276 00:12:32,369 --> 00:12:34,787 En realidad, no es fácil de entender 277 00:12:34,787 --> 00:12:38,371 por eso giraré esos datos láser para analizarlos, 278 00:12:38,371 --> 00:12:41,400 y si son buenos analizando datos láser podrán ver que 279 00:12:41,400 --> 00:12:42,887 unos pocos puntos de esa curva, 280 00:12:42,887 --> 00:12:45,119 justo allí, esa caja azul es el ciclista. 281 00:12:45,119 --> 00:12:46,548 Si bien nuestra luz es roja, 282 00:12:46,548 --> 00:12:48,600 la luz del ciclista ya se puso en amarillo, 283 00:12:48,600 --> 00:12:51,038 y si observan, pueden verlo en la imagen. 284 00:12:51,038 --> 00:12:54,004 Pero el ciclista seguirá por la intersección. 285 00:12:54,004 --> 00:12:56,718 Nuestra luz ahora es verde, la de él es totalmente roja, 286 00:12:56,718 --> 00:13:01,010 y ahora anticipamos que esta bici hará el recorrido completo. 287 00:13:01,010 --> 00:13:04,752 Por desgracia, los otros conductores cercanos no prestaron mucha atención. 288 00:13:04,752 --> 00:13:07,909 Empezaron a avanzar, y afortunadamente para todos, 289 00:13:07,909 --> 00:13:10,920 este ciclista reacciona, evita, 290 00:13:10,920 --> 00:13:13,111 logra pasar la intersección. 291 00:13:13,111 --> 00:13:14,679 Y allá vamos. 292 00:13:14,679 --> 00:13:17,317 Como pueden ver, hemos hecho progresos apasionantes, 293 00:13:17,317 --> 00:13:19,529 y en este momento estamos bastante convencidos 294 00:13:19,539 --> 00:13:21,539 de que esta tecnología saldrá al mercado. 295 00:13:21,539 --> 00:13:25,962 Hacemos 4 millones 800 mil km de pruebas en simulador cada día, 296 00:13:25,962 --> 00:13:28,871 podrán imaginar la experiencia que tienen nuestros vehículos. 297 00:13:28,871 --> 00:13:31,885 Esperamos con ansia que esta tecnología salga a las carreteras, 298 00:13:31,885 --> 00:13:34,865 y creemos que la forma correcta es el enfoque de la autoconducción 299 00:13:34,865 --> 00:13:37,109 en vez del enfoque de la conducción asistida 300 00:13:37,109 --> 00:13:39,230 porque la urgencia es mucha. 301 00:13:39,230 --> 00:13:41,623 En el tiempo que llevó dar esta charla hoy, 302 00:13:41,623 --> 00:13:44,758 han muerto 34 personas en las carreteras de EE.UU. 303 00:13:44,758 --> 00:13:47,126 ¿Qué pronto podemos llevarlo a cabo? 304 00:13:47,126 --> 00:13:50,958 Bueno, es difícil de decir porque es un problema muy complicado, 305 00:13:50,958 --> 00:13:53,172 pero estos son mis dos niños. 306 00:13:53,172 --> 00:13:56,795 El más grande tiene 11 años, o sea que en 4 años y medio 307 00:13:56,795 --> 00:13:59,372 podrá tener su licencia de conducir. 308 00:13:59,372 --> 00:14:02,576 Mi equipo y yo estamos decididos a asegurarnos de que eso no pase. 309 00:14:02,576 --> 00:14:04,480 Gracias. 310 00:14:04,480 --> 00:14:08,147 (Risas) (Aplausos) 311 00:14:09,110 --> 00:14:11,678 Chris Anderson: Chris, Tengo una pregunta para ti. 312 00:14:11,678 --> 00:14:14,487 Chris Urmson: Claro. 313 00:14:14,487 --> 00:14:18,411 CA: Sin duda, la mente de tus autos es bastante alucinante. 314 00:14:18,411 --> 00:14:22,870 En este debate entre conducción asistida y autoconducción... 315 00:14:22,870 --> 00:14:25,911 ese debate existe hoy. 316 00:14:25,911 --> 00:14:28,744 Algunas compañías, por ejemplo Tesla, 317 00:14:28,744 --> 00:14:30,903 van por la senda de la conducción asistida. 318 00:14:30,903 --> 00:14:36,151 Tú dices que ese camino será un callejón sin salida 319 00:14:36,151 --> 00:14:41,607 porque no puedes seguir mejorando esa vía y llegar a la autoconducción 320 00:14:41,607 --> 00:14:45,137 en algún momento, y entonces el conductor dirá: "Esto parece seguro", 321 00:14:45,137 --> 00:14:47,784 girará hacia atrás, y entonces ocurrirá algo feo. 322 00:14:47,784 --> 00:14:50,250 CU: Cierto. No, eso es correcto, y no quiere decir 323 00:14:50,250 --> 00:14:53,997 que los sistemas de conducción asistida no vayan a ser increíblemente valiosos. 324 00:14:53,997 --> 00:14:56,135 Pueden salvar muchas vidas mientras tanto, 325 00:14:56,135 --> 00:15:00,088 pero al ver la oportunidad transformadora de ayudar a alguien como Steve a moverse, 326 00:15:00,088 --> 00:15:02,327 de llegar a buen puerto en materia de seguridad, 327 00:15:02,327 --> 00:15:04,886 de tener la oportunidad de cambiar nuestras ciudades 328 00:15:04,886 --> 00:15:08,420 de quitar los estacionamientos y deshacernos de esos cráteres urbanos, 329 00:15:08,420 --> 00:15:09,780 es la única opción a seguir. 330 00:15:09,780 --> 00:15:12,498 CA: Seguiremos tu progreso con gran interés. 331 00:15:12,498 --> 00:15:16,730 Muchas gracias, Chris. CU: Gracias. (Aplausos)