0:00:00.528,0:00:04.477 En 1885, Karl Benz a inventé l'automobile. 0:00:04.707,0:00:08.469 Quelques mois plus tard, [br]il l'a testée publiquement, 0:00:08.469,0:00:11.844 et, c'est véridique, [br]l'a envoyée dans un mur. 0:00:12.184,0:00:14.227 Depuis 130 ans, 0:00:14.227,0:00:18.476 nous travaillons sur l'élément [br]le moins fiable des autos, le chauffeur. 0:00:18.476,0:00:20.220 Les voitures sont plus robustes. 0:00:20.220,0:00:22.748 On a ajouté des ceintures de sécurité,[br]des airbags. 0:00:22.748,0:00:26.719 Cette décennie-ci, on a progressivement [br]rendu la voiture plus intelligente, 0:00:26.719,0:00:29.657 pour résoudre ce défaut, le chauffeur. 0:00:29.657,0:00:32.857 Aujourd'hui, je vais vous parler [br]de la différence 0:00:32.857,0:00:34.548 entre résoudre les problèmes 0:00:34.548,0:00:36.726 avec des systèmes [br]d'assistance à la conduite, 0:00:36.726,0:00:39.290 et concevoir des véhicules [br]entièrement automatisés, 0:00:39.290,0:00:41.170 et leur impact sur le monde. 0:00:41.170,0:00:44.165 Je vais aussi vous présenter [br]notre véhicule, 0:00:44.165,0:00:48.164 et vous inviter à voir le monde comme lui,[br]comment il réagit et ce qu'il fait. 0:00:48.164,0:00:51.351 Permettez-moi d'abord [br]de vous parler du problème. 0:00:51.651,0:00:53.299 C'est un sérieux pépin : 0:00:53.299,0:00:56.479 tous les ans, 1,2 million de personnes[br]sont tuées dans le monde. 0:00:56.479,0:01:00.172 Aux États-Unis, 33 000 personnes [br]perdent la vie sur les routes. 0:01:00.172,0:01:02.200 A titre de comparaison, 0:01:02.200,0:01:06.997 c'est l'équivalent d'un Boeing 737 [br]qui s'écrase 5 fois par semaine. 0:01:07.342,0:01:09.128 C'est impensable. 0:01:09.548,0:01:11.846 On nous vend les voitures ainsi, 0:01:11.846,0:01:14.563 mais la réalité ressemble à ceci. 0:01:14.563,0:01:16.722 Il n'y a pas de soleil, il pleut, 0:01:16.722,0:01:19.210 et on a envie de faire tout sauf conduire. 0:01:19.210,0:01:20.832 La raison est la suivante : 0:01:20.832,0:01:22.690 le trafic augmente. 0:01:22.690,0:01:26.196 Aux États-Unis, entre 1990 et 2010, 0:01:26.196,0:01:29.700 le nombre total de km parcourus [br]a augmenté de 38%. 0:01:30.213,0:01:32.962 Mais les routes ont grandi de 6%. 0:01:32.962,0:01:34.564 Ce n'est pas qu'une impression. 0:01:34.564,0:01:38.840 Le trafic s'est nettement aggravé[br]depuis un certain temps. 0:01:38.840,0:01:41.249 Ça a un coût humain. 0:01:41.529,0:01:45.477 Le temps de trajet maison - travail [br]est de 50 minutes aux USA. 0:01:45.477,0:01:49.126 Multipliez ça par [br]les 120 millions de travailleurs. 0:01:49.126,0:01:51.351 Ça donne 6 milliards de minutes 0:01:51.351,0:01:53.377 gaspillées en voiture, tous les jours. 0:01:53.377,0:01:56.204 C'est astronomique. [br]Tentons de le mettre à notre échelle. 0:01:56.204,0:01:57.978 Reprenons nos 6 milliards de minutes, 0:01:57.978,0:02:01.762 et divisons-les par l'espérance [br]de vie moyenne des gens. 0:02:01.762,0:02:04.897 On obtient 162 vies 0:02:04.897,0:02:07.822 passées, gaspillées, tous les jours, 0:02:07.822,0:02:09.866 pour aller du point A au point B. 0:02:09.866,0:02:11.596 C'est inimaginable. 0:02:11.596,0:02:14.440 Il y a aussi ceux [br]qui n'ont pas le privilège 0:02:14.440,0:02:16.112 de rester assis dans les bouchons. 0:02:16.112,0:02:17.690 Des personnes comme Steve. 0:02:17.690,0:02:19.675 C'est un type absolument brillant, 0:02:19.675,0:02:21.971 mais qui est aveugle. 0:02:21.971,0:02:25.188 Au lieu de passer 30 minutes [br]dans sa voiture pour aller travailler, 0:02:25.188,0:02:29.007 ça lui prend deux heures,[br]et plusieurs transports en commun. 0:02:29.007,0:02:31.552 Il peut solliciter un ami [br]ou un membre de sa famille. 0:02:31.552,0:02:35.221 Il ne jouit pas de la même liberté [br]de mouvement que vous ou moi. 0:02:35.221,0:02:37.681 On doit trouver une solution. 0:02:37.891,0:02:39.648 La sagesse populaire nous dit 0:02:39.648,0:02:42.978 de partir des systèmes[br]d'assistance à la conduite 0:02:43.000,0:02:45.890 et de les améliorer progressivement, 0:02:45.890,0:02:48.432 pour les transformer [br]en véhicules autonomes. 0:02:48.432,0:02:50.841 C'est un peu comme si je vous disais 0:02:50.841,0:02:54.898 que si je m'entraîne suffisamment [br]à sauter, je pourrais voler un jour. 0:02:54.898,0:02:57.626 On doit faire les choses autrement. 0:02:57.626,0:03:01.407 Les systèmes d'assistance à la conduite[br]sont différents des voitures autonomes 0:03:01.407,0:03:03.683 sur trois plans différents. 0:03:03.683,0:03:06.334 Je vais commencer [br]par vous présenter notre expérience. 0:03:06.334,0:03:08.587 En 2013, 0:03:08.587,0:03:11.250 on a réalisé le premier test [br]de notre véhicule autonome, 0:03:11.250,0:03:13.277 avec des passagers normaux. 0:03:13.277,0:03:15.479 Disons presque normaux -[br]nos employés Google, 0:03:15.479,0:03:17.482 qui ne travaillaient pas sur le projet. 0:03:17.482,0:03:18.982 On leur donné la voiture, 0:03:18.982,0:03:21.333 et demandé de l'utiliser [br]dans leur vie quotidienne. 0:03:21.333,0:03:24.822 Mais ce véhicule n'est pas [br]encore vraiment autonome. 0:03:24.822,0:03:26.326 Ils doivent être concentrés 0:03:26.326,0:03:28.959 car ils sont dans un véhicule pilote. 0:03:28.959,0:03:32.484 On l'avait déjà beaucoup testé,[br]mais il pouvait avoir un problème. 0:03:32.484,0:03:34.663 Les passagers ont reçu[br]deux heures de formation. 0:03:34.663,0:03:36.635 Ils sont montés dans la voiture. 0:03:36.635,0:03:38.762 Leurs réactions furent stupéfiantes. 0:03:38.762,0:03:41.286 Ils voulaient acheter ce véhicule. 0:03:41.286,0:03:43.211 Tous nous ont affirmé adorer ça. 0:03:43.211,0:03:46.887 Un de nos passagers avait une Porsche.[br]Le premier jour, il avait affirmé : 0:03:46.887,0:03:49.540 « C'est une idée stupide.[br]A quoi pensez-vous ? » 0:03:49.850,0:03:52.750 Mais en fin de test, il avait [br]changé d'avis : « J'en veux une ! 0:03:52.750,0:03:56.345 Et tout le monde devrait en avoir une.[br]Il y a tant de mauvais conducteurs. » 0:03:57.135,0:03:58.870 Nous buvions du petit lait. 0:03:58.870,0:04:02.673 Ensuite, on s'est intéressé [br]aux actions des passagers. 0:04:02.673,0:04:04.252 Ce fut une révélation. 0:04:04.252,0:04:06.690 Mon passager préféré est un homme 0:04:06.690,0:04:10.519 qui jette un coup d'œil sur son téléphone,[br]constate qu'il est presque à plat, 0:04:10.519,0:04:15.067 se retourne ainsi,[br]et fouille son sac à dos. 0:04:15.067,0:04:17.220 Il sort son PC portable, 0:04:17.220,0:04:18.787 le pose sur le siège, 0:04:18.787,0:04:20.551 va dans son sac à dos à nouveau, 0:04:20.551,0:04:23.918 fouille et sort le câble [br]pour recharger son téléphone. 0:04:23.918,0:04:27.285 Il le déroule, le branche sur sa machine,[br]et sur son téléphone. 0:04:27.285,0:04:29.328 Son téléphone est en train de charger. 0:04:29.328,0:04:33.322 Pendant tout ce temps, [br]il roule à 100 km/h sur l'autoroute. 0:04:33.322,0:04:35.806 Et voilà ! C'est incroyable. 0:04:35.806,0:04:38.927 Ça nous a fait réfléchir.[br]Une évidence nous est apparue. 0:04:38.927,0:04:41.740 La fiabilité du conducteur [br]est inversement proportionnelle 0:04:41.740,0:04:43.311 à la fiabilité de la technologie. 0:04:43.311,0:04:45.707 En améliorant les voitures[br]progressivement, 0:04:45.707,0:04:48.609 on ne peut pas arriver[br]à faire une avancée significative. 0:04:48.609,0:04:52.510 Permettez-moi de vous parler technique [br]quelques instants. 0:04:52.510,0:04:54.948 En abscisse de ce graphique, 0:04:54.948,0:04:57.999 le nombre de fois qu'un véhicule [br]freine inutilement. 0:04:57.999,0:04:59.620 On peut ignorer cet axe 0:04:59.620,0:05:03.099 car vous n'achèterez jamais une auto [br]qui s'arrête à l'improviste 0:05:03.099,0:05:05.040 quand vous roulez en ville. 0:05:05.040,0:05:08.415 Sur l'ordonnée, [br]le nombre de fois que le véhicule freine 0:05:08.415,0:05:11.464 quand il est supposé freiner,[br]pour éviter un accident. 0:05:11.464,0:05:13.685 En bas à gauche, dans le coin, 0:05:13.685,0:05:15.530 on a les voitures conventionnelles. 0:05:15.530,0:05:18.663 Elle ne freine pas à votre place,[br]elle ne fait rien de maladroit, 0:05:18.663,0:05:21.442 mais elle n'évite pas les accidents. 0:05:21.442,0:05:24.410 Quand on ajoute un système [br]d'assistance à la conduite, 0:05:24.410,0:05:26.288 un système anti-collision, par exemple, 0:05:26.288,0:05:28.350 on augmente la technologie embarquée. 0:05:28.470,0:05:31.288 En voici la courbe. [br]Le système a des propriétés spécifiques, 0:05:31.288,0:05:33.368 mais il n'évitera jamais[br]tous les accidents. 0:05:33.368,0:05:35.677 Il n'en a pas la capacité. 0:05:35.677,0:05:38.466 Prenons un point au hasard sur la courbe. 0:05:38.466,0:05:41.370 Le système évite la moitié[br]des accidents potentiels. 0:05:41.370,0:05:43.137 C'est formidable, non ? 0:05:43.137,0:05:46.184 On vient juste de réduire de moitié [br]les accidents. 0:05:46.184,0:05:50.381 17 000 personnes qui ne meurent plus [br]sur nos routes. 0:05:50.381,0:05:52.401 Mais avec une voiture autonome, 0:05:52.401,0:05:54.708 notre courbe doit ressembler à ça : 0:05:54.708,0:05:57.307 on a besoin d'embarquer plus de capteurs. 0:05:57.307,0:05:59.328 On choisit un point sur notre courbe, 0:05:59.328,0:06:01.347 où le véhicule n'aura jamais d'accident. 0:06:01.347,0:06:03.790 Il y en aura,[br]mais avec une fréquence très basse. 0:06:03.790,0:06:06.251 Nous pourrions maintenant[br]avoir une discussion, 0:06:06.251,0:06:09.276 sur la progressivité.[br]Je parlerai de la règle « 80-20 », 0:06:09.276,0:06:11.964 de combien il est difficile [br]de passer à la 2e courbe. 0:06:11.964,0:06:14.908 Mais observons ça d'un autre angle,[br]pendant un instant. 0:06:14.908,0:06:18.930 Regardons la fréquence avec laquelle [br]la technologie doit agir correctement. 0:06:18.930,0:06:22.376 Ce point vert représente [br]un système d'assistance à la conduite. 0:06:22.376,0:06:24.861 Il s'avère que les conducteurs,[br]aux États-Unis, 0:06:24.861,0:06:27.508 commettent des erreurs [br]qui entraînent un accident, 0:06:27.508,0:06:30.680 une fois tous les 160 000 km. 0:06:30.680,0:06:33.847 En revanche, un système de conduite [br]autonome prend environ 0:06:33.847,0:06:37.510 10 décisions par seconde. 0:06:37.510,0:06:38.932 En d'autres mots, 0:06:38.932,0:06:41.764 on parle de 1 000 décisions sur 1,6 km. 0:06:41.764,0:06:44.249 Si on compare la différence, 0:06:44.249,0:06:46.849 on arrive à 100 millions. 0:06:46.849,0:06:48.614 C'est une magnitude de facteur 8. 0:06:48.614,0:06:51.423 C'est comme comparer ma vitesse de course 0:06:51.423,0:06:53.629 à la vitesse de la lumière. 0:06:53.629,0:06:57.414 Même si je m'entraîne beaucoup,[br]je n'y arriverai jamais. 0:06:57.414,0:06:59.852 Il y a donc un ravin à traverser. 0:06:59.852,0:07:03.581 Enfin, comment le système [br]gère-t-il l'incertitude ? 0:07:03.581,0:07:06.904 Ce piéton va peut-être traverser.[br]Ou peut-être pas. 0:07:06.904,0:07:10.299 Je ne sais pas. Nos algorithmes non plus[br]ne savent pas le prédire. 0:07:10.310,0:07:12.594 Si on a un système [br]d'assistance à la conduite, 0:07:12.594,0:07:15.400 ça signifie qu'il ne va pas réagir, 0:07:15.400,0:07:18.739 car ce n'est pas acceptable [br]qu'il freine inopinément.[br] 0:07:18.739,0:07:21.872 Alors qu'un système autonome [br]va détecter le piéton et dire : 0:07:21.872,0:07:23.762 « Je ne sais pas ce qu'il va faire, 0:07:23.762,0:07:27.524 je vais ralentir, observer,[br]et réagir ensuite de manière adéquate. » 0:07:27.524,0:07:31.226 C'est donc bien plus sûr [br]que n'importe quel système d'assistance. 0:07:31.226,0:07:33.956 Voilà pour les différences entre les deux. 0:07:33.956,0:07:37.440 Passons un peu de temps [br]sur la vision de la voiture. 0:07:37.440,0:07:38.692 Voici notre véhicule. 0:07:38.692,0:07:41.380 D'abord, il se localise [br]par rapport à son environnement, 0:07:41.380,0:07:43.917 en alignant la carte [br]et les données des capteurs, 0:07:43.917,0:07:46.865 et ensuite, on ajoute [br]ce que le véhicule voit en temps réel. 0:07:46.865,0:07:50.520 Les objets mauves qui apparaissent,[br]ce sont les autres véhicules, 0:07:50.520,0:07:53.048 l'objet rouge, sur le côté,[br]c'est un cycliste, 0:07:53.048,0:07:55.450 et au loin, vers le haut,[br]si on est attentif, 0:07:55.450,0:07:57.244 on aperçoit des cônes. 0:07:57.244,0:08:00.017 On sait où se trouve la voiture[br]à un moment précis. 0:08:00.017,0:08:03.850 Mais on doit faire mieux :[br]on doit prédire ce qui va se passer. 0:08:03.850,0:08:06.918 Le pick-up en haut à droite,[br]va changer de bande, vers la gauche, 0:08:06.918,0:08:09.561 parce que la route est barrée devant. 0:08:09.561,0:08:11.292 Il doit donc dégager. 0:08:11.292,0:08:13.155 C'est super de prédire ça. 0:08:13.155,0:08:15.904 Mais ce qu'on doit vraiment savoir,[br]c'est ce que tout le monde pense. 0:08:15.904,0:08:18.141 C'est un peu plus compliqué. 0:08:18.141,0:08:22.890 On peut maintenant déterminer[br]la réaction du véhicule sur le moment, 0:08:22.890,0:08:26.756 la trajectoire à suivre, sa vitesse [br]d'accélération ou de décélération. 0:08:26.756,0:08:29.821 Ensuite, il s'agit juste [br]de suivre le chemin : 0:08:29.821,0:08:33.018 tourner à gauche ou à droite,[br]accélérer ou freiner. 0:08:33.018,0:08:35.482 En fin de compte, [br]il ne reste que deux chiffres. 0:08:35.482,0:08:37.723 Est-ce vraiment difficile ? 0:08:38.433,0:08:40.385 Quand on a commencé le projet en 2009, 0:08:40.385,0:08:42.183 notre système ressemblait à ça : 0:08:42.183,0:08:45.864 on voit notre voiture au centre,[br]et les autres objets sur la route, 0:08:45.885,0:08:49.393 Le véhicule doit comprendre sa position, [br]et celle des autres véhicules. 0:08:49.393,0:08:52.262 C'est une compréhension [br]géométrique du monde. 0:08:53.092,0:08:56.040 Dès qu'on a commencé à rouler en ville, 0:08:56.040,0:08:58.485 la difficulté a pris [br]des proportions incroyables. 0:08:58.485,0:09:01.979 Il y a des piétons qui traversent devant,[br]des voitures qui traversent, 0:09:01.979,0:09:03.790 et vont dans toutes les directions, 0:09:03.790,0:09:05.587 les feux, les passages piétons. 0:09:05.587,0:09:08.114 C'est extrêmement compliqué. 0:09:08.114,0:09:10.217 Dès qu'on a résolu ce problème, 0:09:10.217,0:09:12.729 le véhicule doit gérer les chantiers. 0:09:12.749,0:09:15.889 Voici les cônes à gauche,[br]qui obligent à rouler à droite. 0:09:15.889,0:09:18.282 Ce n'est évidemment pas un chantier isolé. 0:09:18.282,0:09:19.992 On doit gérer les autres véhicules 0:09:19.992,0:09:22.005 qui négocient le même passage. 0:09:22.005,0:09:25.268 Si quelqu'un enfreint une règle,[br]la police veille. 0:09:25.268,0:09:28.810 Et donc, notre voiture doit comprendre[br]que ce gyroscope sur cette auto 0:09:28.810,0:09:31.250 signifie qu'il s'agit [br]d'une voiture de police 0:09:31.250,0:09:33.537 Pareillement, la boîte orange, [br]sur le côté, 0:09:33.537,0:09:34.946 c'est un bus scolaire. 0:09:34.946,0:09:37.656 On doit donc le gérer différemment. 0:09:38.576,0:09:41.369 Sur la route,[br]les autres ont des attentes : 0:09:41.369,0:09:43.149 quand un cycliste lève le bras, 0:09:43.149,0:09:46.667 il s'attend à ce que les voitures [br]lui cèdent le passage, 0:09:46.667,0:09:48.720 pour lui permettre de changer de voie. 0:09:48.950,0:09:51.203 Et quand un officier de police[br]est sur la route, 0:09:51.203,0:09:53.943 notre véhicule doit savoir[br]que ceci signifie l'arrêt, 0:09:53.943,0:09:57.449 et que ce signal l'invite à avancer. 0:09:57.449,0:10:01.210 Pour y arriver, on échange les données [br]entre les véhicules. 0:10:01.210,0:10:02.906 Voici le premier modèle, imprécis : 0:10:02.906,0:10:05.019 quand un véhicule détecte un chantier, 0:10:05.019,0:10:08.081 il transmet l'information [br]aux autres véhicules 0:10:08.081,0:10:09.651 pour éviter toute difficulté. 0:10:09.651,0:10:12.315 Mais on a une compréhension plus profonde. 0:10:12.315,0:10:15.335 On pourrait intégrer toutes les données[br]détectées au fil du temps, 0:10:15.335,0:10:17.700 les centaines de milliers [br]de piétons, de cyclistes, 0:10:17.700,0:10:19.487 et de véhicules sur les routes, 0:10:19.487,0:10:21.182 et analyser leur apparence 0:10:21.182,0:10:23.953 pour déduire les caractéristiques [br]supposées 0:10:23.953,0:10:25.939 des autres véhicules, des autres piétons. 0:10:25.939,0:10:28.960 Plus important, on pourrait [br]utiliser ça pour modéliser 0:10:28.960,0:10:31.290 nos prévisions sur leurs mouvements. 0:10:31.290,0:10:34.253 Ici, l'objet jaune est un piéton[br]qui traverse devant nous. 0:10:34.253,0:10:36.503 L'objet bleu est un cycliste,[br]et nous anticipons 0:10:36.503,0:10:39.815 qu'ils vont contourner [br]la voiture sur la droite. 0:10:40.115,0:10:42.207 Un cycliste vient en sens opposé. 0:10:42.207,0:10:45.693 On sait qu'il va continuer tout droit[br]et longer la route. 0:10:45.693,0:10:47.560 Une voiture tourne à droite, 0:10:47.560,0:10:50.920 dans un instant, une autre va s'engager [br]dans le carrefour devant nous. 0:10:50.920,0:10:53.534 On peut anticiper ces comportements[br]et les gérer avec prudence. 0:10:53.534,0:10:56.262 Ça marche très bien [br]pour tout qu'on à déjà vu. 0:10:56.262,0:10:59.417 Mais il y a évidemment [br]plein de choses inédites. 0:10:59.528,0:11:01.299 Il y a quelques semaines, 0:11:01.299,0:11:03.424 nos véhicules roulaient à Mountain View, 0:11:03.424,0:11:04.828 et voici ce qui est arrivé. 0:11:04.828,0:11:06.990 Une dame en chaise électrique 0:11:06.990,0:11:10.677 qui pourchassait un canard sur la route.[br](Rires) 0:11:10.677,0:11:13.788 En fait, il n'y a aucun paragraphe [br]dans le code de la route 0:11:13.788,0:11:16.033 qui nous explique comment gérer ça. 0:11:16.033,0:11:18.176 Cependant, nos voitures y sont parvenues : 0:11:18.176,0:11:20.431 elles ont ralenti et roulé prudemment. 0:11:20.431,0:11:22.472 Il n'y a pas que les canards. 0:11:22.472,0:11:26.180 Cet oiseau vole juste devant nous.[br]La voiture réagit en conséquence. 0:11:26.180,0:11:27.795 Voici un cycliste, 0:11:27.795,0:11:31.085 qu'on ne peut rencontrer [br]qu'à Mountain View. 0:11:31.085,0:11:33.235 Bien entendu, il y a[br]les autres conducteurs, 0:11:33.235,0:11:36.868 même s'ils sont tout petits. 0:11:36.868,0:11:40.999 A droite, quelqu'un va sauter [br]de son camion vers nous. 0:11:42.460,0:11:45.389 Regardez à gauche, la voiture[br]avec le cube vert, décide 0:11:45.389,0:11:48.714 de tourner à droite [br]au tout dernier moment. 0:11:48.714,0:11:51.565 Au moment où on veut aller [br]sur la bande du milieu[br] 0:11:51.565,0:11:55.118 l'auto sur la gauche décide [br]de faire pareil. 0:11:55.118,0:11:57.811 Une voiture brûle le feu rouge, 0:11:57.811,0:11:59.901 et continue sa route. 0:11:59.901,0:12:03.755 Ici de même, un cycliste brûle le feu. 0:12:03.755,0:12:06.501 Notre véhicule a géré ça[br]en toute sécurité. 0:12:06.501,0:12:09.102 Il y a aussi plein de gens [br]qui font je ne sais quoi, 0:12:09.102,0:12:12.925 parfois même sur la route, comme ce type,[br]entre deux voitures autonomes. 0:12:12.925,0:12:15.250 On se demande [br]à quoi pensent les gens ! 0:12:15.250,0:12:16.182 (Rires) 0:12:16.182,0:12:18.703 Je vous ai montré beaucoup de choses. 0:12:18.703,0:12:20.913 je vais maintenant en décortiquer une. 0:12:20.913,0:12:23.373 Voici la scène avec le cycliste. 0:12:23.373,0:12:26.984 Sur l'image du bas, on constate[br]qu'on ne peut pas encore voir le cycliste.[br] 0:12:26.984,0:12:29.798 Mais la voiture peut : c'est l'objet bleu. 0:12:29.798,0:12:31.879 C'est possible grâce aux données du laser. 0:12:31.879,0:12:33.907 Ce n'est pas très facile à comprendre. 0:12:33.907,0:12:36.901 Je vais donc changer l'angle de vue [br]pour l'observer. 0:12:36.901,0:12:38.840 Quand on a l'habitude de ces données, 0:12:38.840,0:12:40.737 on voit des points sur la courbe. 0:12:40.737,0:12:43.779 Juste ici. Le cube bleu, [br]c'est le cycliste. 0:12:43.779,0:12:45.948 Notre feu est rouge. 0:12:45.948,0:12:48.020 Celui du cycliste vient de passer orange. 0:12:48.020,0:12:51.038 En louchant, on le devine sur l'image. 0:12:51.038,0:12:53.694 Le cycliste va quand même [br]traverser le carrefour. 0:12:53.694,0:12:56.828 Notre feu passe au vert,[br]celui du cycliste est rouge. 0:12:56.828,0:13:01.010 Nous anticipons que le vélo va continuer. 0:13:01.010,0:13:04.752 Malheureusement, les autres conducteurs[br]ne sont pas aussi attentifs. 0:13:04.752,0:13:07.909 Ils démarrent, et heureusement [br]pour tout le monde, 0:13:07.909,0:13:10.440 le cycliste réagit et les évite, 0:13:10.440,0:13:13.111 et arrive sain et sauf de l'autre côté. 0:13:13.111,0:13:14.679 A ce stade, nous démarrons. 0:13:14.679,0:13:17.627 Nous avons fait [br]des progrès encourageants. 0:13:17.627,0:13:19.529 Aujourd'hui, nous sommes convaincus 0:13:19.529,0:13:21.539 que cette technologie ira sur le marché. 0:13:21.539,0:13:26.322 Nous réalisons tous les jours [br]5 millions de km de test sur simulateur. 0:13:26.322,0:13:29.011 Nos véhicules ont une sacrée expérience. 0:13:29.011,0:13:31.875 Nous avons hâte de voir [br]cette technologie sur les routes. 0:13:31.875,0:13:34.825 Nous croyons que le chemin [br]de la conduite autonome est le bon. 0:13:34.825,0:13:36.739 Pas celui de l'assistance à la conduite. 0:13:36.739,0:13:39.230 Il y a urgence. 0:13:39.230,0:13:41.623 Durant mon temps de parole, 0:13:41.623,0:13:44.758 34 personnes sont décédées [br]sur les routes américaines. 0:13:44.758,0:13:47.126 Quand pourrons-nous l'utiliser ? 0:13:47.126,0:13:50.958 C'est une question difficile[br]parce que le problème est complexe. 0:13:50.958,0:13:53.172 Voici mes deux garçons. 0:13:53.172,0:13:56.795 L'aîné à 11 ans.[br]Dans 4 ans et demi, 0:13:56.795,0:13:59.372 il pourra obtenir son permis de conduire. 0:13:59.372,0:14:02.576 Avec mon équipe, je m'engage [br]à faire tout pour que ça n'arrive pas. 0:14:02.576,0:14:04.480 Merci. 0:14:04.480,0:14:08.147 (Rires) (Applaudissements) 0:14:09.110,0:14:11.678 Chris Anderson :[br]Chris, j'ai une question. 0:14:11.678,0:14:14.487 Christ Urmson : Vas-y ! 0:14:14.487,0:14:18.411 CA: L'intelligence de tes véhicules[br]est époustouflante. 0:14:18.411,0:14:22.870 C'est au sujet du débat entre assistance [br]de conduite et conduite autonome, 0:14:22.870,0:14:25.911 il y a un véritable débat. 0:14:25.911,0:14:28.744 Certaines compagnies, comme Tesla, 0:14:28.744,0:14:30.903 font le pari de la conduite assistée. 0:14:30.903,0:14:36.151 Selon toi, c'est une impasse, 0:14:36.151,0:14:41.607 parce que c'est impossible d'améliorer [br]au point de devenir autonome. 0:14:41.607,0:14:44.997 Un conducteur va penser [br]que c'est sécurisant, 0:14:44.997,0:14:47.784 monter à l'arrière, [br]et un accident monstrueux va arriver. 0:14:47.784,0:14:50.320 CU : C'est exact. [br]Cela dit, 0:14:50.320,0:14:53.997 les systèmes d'assistance à la conduite[br]continuent d'avoir beaucoup de valeur. 0:14:53.997,0:14:56.055 Ils sauvent beaucoup de vies. 0:14:56.055,0:14:59.818 Mais cette opportunité révolutionnaire [br]est le seul chemin possible 0:14:59.818,0:15:01.857 pour permettre à des personnes comme Steve 0:15:01.857,0:15:04.336 de voyager et d'arriver [br]à destination sain et sauf, 0:15:04.336,0:15:07.150 pour transformer nos villes, 0:15:07.150,0:15:09.780 et éliminer ces cratères urbains [br]que sont les parkings. 0:15:09.780,0:15:12.498 CA: On va suivre tes progrès [br]très attentivement. 0:15:12.498,0:15:16.730 Merci beaucoup, Chris. [br]CU: Merci. (Applaudissements)