0:00:01.185,0:00:04.895 Em 1885, Karl Benz inventou o automóvel. 0:00:04.943,0:00:08.753 Mais tarde, nesse ano,[br]testou-o publicamente 0:00:08.753,0:00:11.567 e — é mesmo verdade — [br]embateu contra um muro! 0:00:12.422,0:00:14.465 Desde há 130 anos, 0:00:14.465,0:00:18.574 que trabalhamos nessa parte[br]menos fiável do carro, o condutor. 0:00:18.574,0:00:20.490 Tornámos os carros mais fortes. 0:00:20.490,0:00:23.043 Colocámos cintos de segurança, "airbags", 0:00:23.043,0:00:26.909 e na última década, tentámos[br]tornar o carro mais inteligente 0:00:26.909,0:00:29.733 para resolver esse problema, o condutor. 0:00:30.133,0:00:33.127 Hoje, vou falar um pouco sobre a diferença 0:00:33.127,0:00:36.945 entre diminuir esse problema com sistemas[br]de assistência ao condutor 0:00:36.945,0:00:39.566 e ter carros totalmente autónomos 0:00:39.566,0:00:41.541 e o que eles podem fazer pelo mundo. 0:00:41.541,0:00:44.507 Também vou falar um pouco[br]do nosso carro 0:00:44.507,0:00:48.411 e permitir que vejam como ele vê o mundo,[br]como reage e o que faz, 0:00:48.411,0:00:51.351 mas primeiro, vou falar um[br]pouco sobre o problema. 0:00:51.746,0:00:53.299 E é um grande problema: 0:00:53.299,0:00:56.664 Morrem 1,2 milhões de pessoas por ano[br]nas estradas do mundo inteiro. 0:00:56.664,0:01:00.172 Só nos EUA, morrem[br]33 000 pessoas por ano. 0:01:00.419,0:01:02.200 Para pôr isso em perspetiva, 0:01:02.200,0:01:06.892 é o mesmo que um Boeing 737[br]cair do céu todos os dias úteis. 0:01:07.342,0:01:09.128 É quase inacreditável. 0:01:09.652,0:01:12.093 Os carros são-nos vendidos assim, 0:01:12.093,0:01:14.905 mas, na verdade, conduzir é assim. 0:01:14.905,0:01:16.979 Não há sol, está a chover, 0:01:16.979,0:01:19.248 e queremos fazer tudo menos conduzir. 0:01:19.248,0:01:20.955 O motivo para isso é: 0:01:20.955,0:01:22.966 O trânsito tem vindo a piorar. 0:01:22.966,0:01:26.253 Nos EUA, entre 1990 e 2010, 0:01:26.253,0:01:30.137 a distância percorrida por[br]veículos aumentou em 38%. 0:01:30.384,0:01:33.238 Aumentámos em 6% o número de estradas, 0:01:33.238,0:01:34.925 por isso não e só na nossa mente. 0:01:34.925,0:01:38.840 O trânsito está realmente pior[br]do que era há não muito tempo. 0:01:39.087,0:01:41.601 Tudo isto tem um alto custo[br]para a humanidade. 0:01:41.668,0:01:45.658 Se agarrarmos no tempo médio de viagem[br]nos EUA, que é de cerca de 50 minutos, 0:01:45.658,0:01:49.126 e multiplicarmos isso pelos 120 milhões[br]de trabalhadores que temos, 0:01:49.126,0:01:51.693 obtemos cerca de[br]seis mil milhões de minutos 0:01:51.693,0:01:53.748 desperdiçados em viagem todos os dias. 0:01:53.748,0:01:56.204 É um grande número,[br]vamos colocá-lo em perspetiva. 0:01:56.204,0:01:58.416 Agarramos nos seis mil milhões de minutos 0:01:58.416,0:02:01.933 e dividimo-los pela esperança média[br]de vida de uma pessoa, 0:02:01.933,0:02:05.049 o que resulta em 162 vidas 0:02:05.049,0:02:07.869 gastas todos os dias, desperdiçadas, 0:02:07.869,0:02:10.246 apenas para ir de do ponto A ao ponto B. 0:02:10.246,0:02:11.986 É inacreditável. 0:02:11.986,0:02:14.487 Depois, há aqueles[br]que não têm o privilégio 0:02:14.487,0:02:16.597 de ficarem engarrafados no trânsito. 0:02:16.597,0:02:17.690 Este é Steve. 0:02:17.690,0:02:19.455 É um homem incrivelmente capaz, 0:02:19.455,0:02:21.828 mas acontece que é cego. 0:02:21.971,0:02:25.188 Isso implica que, em vez duma[br]viagem de 30 minutos para o trabalho, 0:02:25.188,0:02:29.167 demora duas horas a encaixar[br]pedaços de transportes públicos 0:02:29.167,0:02:31.666 ou pede boleia a amigos e família. 0:02:31.666,0:02:35.039 Não tem a mesma liberdade[br]de movimentos que nós temos. 0:02:35.221,0:02:37.681 Devíamos fazer algo em relação a isso. 0:02:37.891,0:02:39.762 O senso comum diria 0:02:39.762,0:02:42.740 para agarrarmos nos sistemas[br]de assistência ao condutor 0:02:42.740,0:02:45.623 e os melhorarmos cada vez mais, 0:02:45.623,0:02:48.514 até os transformar em carros autónomos. 0:02:48.638,0:02:51.298 Estou aqui para mostrar[br]que isso é o mesmo que eu dizer 0:02:51.298,0:02:55.031 que, se treinar muito os meus saltos,[br]um dia conseguirei voar. 0:02:55.031,0:02:57.721 Na verdade, temos que fazer[br]algo um pouco diferente. 0:02:57.721,0:03:00.127 Então vou dizer-vos[br]que os carros autónomos 0:03:00.127,0:03:03.683 são diferentes dos sistemas de assistência[br]em três planos diferentes. 0:03:03.683,0:03:06.334 Vou começar por vos contar[br]a nossa experiência. 0:03:06.334,0:03:08.587 Em 2013, 0:03:08.587,0:03:11.250 fizemos o primeiro teste[br]de um carro autónomo 0:03:11.250,0:03:13.153 em que deixámos pessoas vulgares usá-lo. 0:03:13.153,0:03:15.774 Bem, quase vulgares...[br]eram 100 funcionários da Google, 0:03:15.774,0:03:17.748 mas não estavam a trabalhar no projeto. 0:03:17.748,0:03:21.079 Demos-lhes o carro e pedimos[br]que o usassem na sua vida quotidiana. 0:03:21.103,0:03:24.555 Mas ainda não era[br]um verdadeiro carro autónomo. 0:03:24.822,0:03:26.392 Tinham que prestar atenção, 0:03:26.392,0:03:28.959 porque era um veículo experimental. 0:03:28.959,0:03:32.480 Tínhamos feitos muitos testes,[br]mas ainda podia falhar. 0:03:32.480,0:03:34.519 Então demos-lhes duas horas de treino, 0:03:34.519,0:03:36.844 Colocámo-los no carro,[br]deixámos que o usassem, 0:03:36.844,0:03:38.971 e as reações deles[br]foram uma coisa incrível, 0:03:38.971,0:03:41.286 para alguém a tentar[br]pôr um produto no mundo. 0:03:41.286,0:03:43.211 Todos disseram que o adoraram. 0:03:43.211,0:03:46.777 Tivemos um condutor de um Porsche,[br]que nos disse, logo no primeiro dia: 0:03:46.777,0:03:49.440 "Isto é uma ideia estúpida.[br]Em que é que estão a pensar?" 0:03:49.850,0:03:52.490 Mas no final, disse:[br]"Eu queria ter um! 0:03:52.490,0:03:55.865 "E todos deviam ter um, porque as pessoas[br]são uns condutores terríveis". 0:03:57.135,0:03:58.993 Foi música para os nossos ouvidos, 0:03:58.993,0:04:02.815 mas depois começámos a observar[br]o que as pessoas faziam dentro do carro, 0:04:02.815,0:04:04.613 e isso abriu-nos os olhos. 0:04:04.613,0:04:06.785 A minha história preferida[br]é a deste senhor 0:04:06.785,0:04:10.461 que olha para o seu telemóvel[br]e repara que a bateria está fraca. 0:04:10.776,0:04:15.067 Então, vira-se para trás no carro[br]e vasculha na sua mochila, 0:04:15.067,0:04:17.220 saca do seu computador portátil, 0:04:17.220,0:04:18.787 coloca-o no banco, 0:04:18.787,0:04:20.551 vai de novo à mochila 0:04:20.551,0:04:23.918 procura, tira o carregador do telemóvel, 0:04:23.918,0:04:27.285 desenrola-o, coloca-o no portátil[br]e liga o telemóvel. 0:04:27.285,0:04:29.489 Não tarda, o telemóvel está a carregar. 0:04:29.489,0:04:33.036 Faz isto tudo a 100 km/hora,[br]na autoestrada. 0:04:33.322,0:04:35.339 Inacreditável! 0:04:35.806,0:04:38.927 Pensámos nisto e dissemos:[br]"É óbvio, não é? 0:04:38.927,0:04:41.190 "Quanto melhor fica a tecnologia, 0:04:41.190,0:04:43.494 "menos fiável será o condutor". 0:04:43.494,0:04:45.987 Se só tornarmos os carros[br]cada vez mais inteligentes, 0:04:45.987,0:04:48.609 provavelmente não veremos[br]as vitórias de que precisamos. 0:04:49.456,0:04:52.510 Deixem-me falar de algo[br]um pouco técnico, por momentos. 0:04:52.510,0:04:54.948 Na parte inferior deste gráfico 0:04:54.948,0:04:57.729 está a frequência com que o carro trava,[br]quando não devia. 0:04:57.729,0:04:59.953 Podemos ignorar a maior parte deste eixo 0:04:59.953,0:05:01.872 porque nunca iremos comprar um carro, 0:05:01.872,0:05:05.040 que pare de imprevisto,[br]quando estamos a conduzir na cidade. 0:05:05.040,0:05:08.415 O eixo vertical é a frequência[br]com que o carro trava, 0:05:08.415,0:05:11.384 quando deve, para nos ajudar[br]a evitar um acidente. 0:05:11.612,0:05:13.685 Se olharmos aqui para[br]o canto inferior esquerdo, 0:05:13.685,0:05:15.530 este é o carro clássico. 0:05:15.530,0:05:18.663 Não trava por nossa conta,[br]não faz nada inesperado, 0:05:18.663,0:05:21.442 mas também não nos livra[br]de um acidente. 0:05:21.756,0:05:24.460 Se quisermos introduzir um sistema[br]de condução assistida num carro, 0:05:24.460,0:05:26.288 com travagem anti-colisão, 0:05:26.288,0:05:28.595 vamos introduzir aqui[br]um conjunto de tecnologias. 0:05:28.595,0:05:31.632 Esta é a curva, que terá as suas[br]propriedades de funcionamento, 0:05:31.632,0:05:33.950 mas nunca evitará todos os acidentes, 0:05:33.950,0:05:36.009 porque não tem essa capacidade. 0:05:36.009,0:05:38.268 Mas vamos escolher[br]uma zona da curva por aqui. 0:05:38.268,0:05:41.246 O sistema talvez evite metade dos acidentes[br]em que o condutor humano falha. 0:05:41.246,0:05:43.133 Isso é incrível, não é? 0:05:43.133,0:05:46.394 Acabamos de reduzir para metade[br]os acidentes na estrada. 0:05:46.394,0:05:50.381 Agora há menos 17 000 mortes[br]por ano nos EUA. 0:05:50.381,0:05:52.458 Mas, se queremos um carro autónomo, 0:05:52.458,0:05:54.965 precisamos de uma curva[br]tecnológica deste género. 0:05:54.965,0:05:57.307 Precisaremos de mais sensores no veículo, 0:05:57.307,0:05:59.328 e escolheremos[br]um ponto operacional por aqui, 0:05:59.328,0:06:01.347 onde, basicamente[br]não haverá acidentes. 0:06:01.347,0:06:03.894 Ainda vão ocorrer, mas com[br]muito pouca frequência. 0:06:03.894,0:06:06.280 Agora, podemos olhar para isto[br]e podemos discutir 0:06:06.280,0:06:09.513 se é algo incremental[br]e eu responderia "regra dos 80:20". 0:06:09.513,0:06:11.728 É muito difícil ultrapassar [br]aquela nova curva. 0:06:11.728,0:06:14.529 Mas vamos analisar de outra[br]perspetiva, por momentos. 0:06:14.900,0:06:18.870 Vamos ver com que frequência é que[br]a tecnologia tem que fazer a coisa certa. 0:06:18.870,0:06:22.376 Este ponto verde aqui é um sistema[br]de assistência à condução. 0:06:22.376,0:06:24.861 Parece que os condutores nos EUA 0:06:24.861,0:06:27.774 fazem erros que provocam[br]um acidente de trânsito 0:06:27.774,0:06:30.680 em cada 160 000 km. 0:06:30.946,0:06:34.989 Por outro lado, um carro autónomo[br]provavelmente toma decisões 0:06:34.989,0:06:37.510 cerca de 10 vezes por segundo, 0:06:37.510,0:06:38.932 numa ordem de grandeza, 0:06:38.932,0:06:41.916 que corresponde a cerca [br]de 1000 decisões em cada 1,6 km. 0:06:41.916,0:06:44.668 Portanto, se compararem[br]a distância entre estas duas coisas, 0:06:44.668,0:06:46.849 é cerca de 100 milhões. 0:06:46.849,0:06:48.614 Oito ordens de magnitude. 0:06:48.614,0:06:51.423 É como comparar a minha[br]velocidade de corrida 0:06:51.423,0:06:53.467 com a velocidade da luz. 0:06:53.629,0:06:57.185 Por mais que eu treine,[br]nunca vou chegar lá perto. 0:06:57.414,0:06:59.852 Portanto há aqui um fosso muito grande. 0:07:00.137,0:07:03.581 Por fim, há a forma como[br]o sistema lida com a incerteza. 0:07:03.914,0:07:06.904 Este peão aqui vai[br]atravessar a estrada, ou não? 0:07:06.904,0:07:10.299 Não sei dizer, nem nenhum[br]dos nossos algoritmos. 0:07:10.310,0:07:12.594 Se tivermos um sistema[br]de assistência ao condutor, 0:07:12.594,0:07:15.276 significa que não vai reagir,[br]porque, novamente, 0:07:15.276,0:07:18.739 é totalmente inaceitável[br]que ele acione os travões inesperadamente. 0:07:19.034,0:07:21.872 Enquanto que um carro autónomo[br]deteta o peão e diz: 0:07:21.872,0:07:23.904 "Não sei o que é que ele vai fazer, 0:07:23.904,0:07:27.524 " vou abrandar, ver melhor, e depois[br]reagir apropriadamente." 0:07:27.524,0:07:31.182 Por isso, pode ser muito mais seguro[br]do que qualquer sistema de assistência. 0:07:31.506,0:07:33.956 Basta de falar sobre as[br]diferenças entre os dois. 0:07:33.956,0:07:36.916 Vamos falar um bocado[br]sobre como o carro vê o mundo. 0:07:37.259,0:07:38.692 Este é o nosso veículo. 0:07:38.692,0:07:41.130 Ele começa por perceber[br]onde está situado, 0:07:41.130,0:07:43.917 alinhando um mapa[br]e os seus dados sensoriais. 0:07:44.231,0:07:46.865 Depois colocamos em cima disso[br]o que ele vê no momento. 0:07:46.865,0:07:50.710 Todas as caixas roxas que aqui veem[br]são outros veículos na estrada, 0:07:50.710,0:07:53.048 e a coisa vermelha ali ao lado[br]é um ciclista, 0:07:53.048,0:07:55.450 e, à distância, se olharem bem de perto, 0:07:55.450,0:07:57.244 conseguem ver uns cones. 0:07:57.843,0:08:00.140 Aí sabemos onde o carro[br]se encontra no momento, 0:08:00.140,0:08:03.655 mas temos que fazer melhor que isso:[br]temos que prever o que vai acontecer. 0:08:03.655,0:08:07.261 Aqui a carrinha no canto superior direito[br]vai mudar para a faixa da esquerda 0:08:07.261,0:08:09.427 porque a estrada[br]à sua frente está fechada, 0:08:09.427,0:08:11.292 portanto terá que se desviar. 0:08:11.292,0:08:13.155 Reconhecer essa carrinha é ótimo, 0:08:13.155,0:08:15.634 mas precisamos de saber[br]o que todos estão a pensar, 0:08:15.634,0:08:18.141 o que se torna num problema[br]bastante complicado. 0:08:18.407,0:08:22.890 Podemos determinar como[br]o carro deve responder no momento, 0:08:22.890,0:08:26.756 que trajetória deve seguir, com que[br]velocidade deve abrandar ou acelerar. 0:08:26.756,0:08:29.478 Depois, tudo isso se torna[br]no caminho a seguir: 0:08:29.478,0:08:33.349 virar o volante para a esquerda ou direita,[br]acionar o travão ou o acelerador. 0:08:33.349,0:08:35.701 No final do dia são apenas dois números. 0:08:35.701,0:08:37.932 Até que ponto pode ser difícil? 0:08:38.433,0:08:40.292 Quando começámos, em 2009, 0:08:40.292,0:08:42.119 este era o nosso sistema. 0:08:42.119,0:08:45.025 Vemos o nosso carro no centro[br]e as outras caixas na estrada, 0:08:45.025,0:08:46.345 a seguir pela autoestrada. 0:08:46.345,0:08:50.272 O carro tem que perceber onde está e[br]a posição aproximada dos outros veículos. 0:08:50.272,0:08:53.092 É uma compreensão geométrica do mundo. 0:08:53.092,0:08:56.040 Quando começamos a conduzir[br]em bairros e estradas da cidade, 0:08:56.040,0:08:58.685 o problema passa a ter[br]toda uma nova dificuldade. 0:08:58.685,0:09:01.979 Vemos peões a passar à nossa frente,[br]carros a passar à nossa frente, 0:09:01.979,0:09:03.790 em todas as direções, 0:09:03.790,0:09:05.393 semáforos, passadeiras. 0:09:05.393,0:09:08.114 Em comparação, é um problema[br]incrivelmente complicado. 0:09:08.247,0:09:10.397 Depois, quando se tem[br]esse problema resolvido, 0:09:10.397,0:09:12.767 o veículo tem que conseguir[br]lidar com as obras. 0:09:12.767,0:09:15.880 Aqui estão os cones à esquerda[br]a obrigá-lo a virar para a direita, 0:09:15.880,0:09:18.424 mas não são apenas[br]as obras isoladas, claro. 0:09:18.424,0:09:22.005 Também tem que lidar com outros veículos[br]que passam por essa zona de obras. 0:09:22.005,0:09:25.268 Claro, se alguém quebrar as regras,[br]a polícia está lá. 0:09:25.268,0:09:28.890 O carro tem que perceber que aquela luz[br]a piscar no topo do carro 0:09:28.890,0:09:31.766 significa que não é apenas um carro,[br]é um carro da polícia. 0:09:31.766,0:09:33.874 Da mesma forma,[br]a caixa laranja deste lado 0:09:33.874,0:09:35.297 é um autocarro escolar. 0:09:35.297,0:09:37.656 Também temos que o tratar[br]de forma diferente. 0:09:38.576,0:09:41.369 Quando estamos na estrada,[br]as pessoas têm expetativas: 0:09:41.369,0:09:43.329 Assim, quando um ciclista[br]levanta o braço, 0:09:43.329,0:09:46.667 quer dizer que espera[br]que o carro lhe ceda a passagem 0:09:46.667,0:09:48.720 para ele poder mudar de direção. 0:09:49.030,0:09:51.203 E quando um policia está na estrada, 0:09:51.203,0:09:53.943 o nosso veículo deve perceber[br]que isso quer dizer parar 0:09:53.943,0:09:57.049 e que, quando fazem sinal para avançar,[br]deve continuar. 0:09:57.810,0:10:01.210 A forma de conseguirmos isto[br]é partilhando informações entre veículos. 0:10:01.210,0:10:03.191 Este é o primeiro modelo, mais em bruto. 0:10:03.191,0:10:05.019 Quando um veículo vê uma zona de obras 0:10:05.019,0:10:08.081 informa os outros veículos[br]para ficarem na faixa correta 0:10:08.081,0:10:09.651 para evitarem dificuldades. 0:10:09.651,0:10:12.381 Mas temos uma compreensão [br]mais profunda disso. 0:10:12.381,0:10:15.324 Podemos usar todos os dados[br]que os carros foram vendo, 0:10:15.324,0:10:17.919 as centenas de milhares[br]de peões, de ciclistas, 0:10:17.919,0:10:19.487 e de veículos que lá estiveram 0:10:19.487,0:10:21.239 e perceber como é que são 0:10:21.239,0:10:24.013 e usar isso para deduzir[br]o que é que os outros veículos são 0:10:24.013,0:10:25.939 e o que é que são os peões. 0:10:26.139,0:10:28.960 Ainda mais importante,[br]podemos obter isso de um modelo 0:10:28.960,0:10:31.290 de como prevemos[br]que eles se desloquem. 0:10:31.290,0:10:34.253 Aqui, a caixa amarela é um peão[br]a atravessar á nossa frente. 0:10:34.253,0:10:36.255 Aqui, a caixa azul é um ciclista 0:10:36.255,0:10:39.653 e prevemos que ele vai sair[br]da estrada á sua direita. 0:10:40.115,0:10:42.207 Aqui, há um ciclista em sentido oposto 0:10:42.207,0:10:45.045 e sabemos que ele vai continuar [br]ao longo da estrada 0:10:45.045,0:10:47.560 Aqui, alguém faz uma viragem á direita, 0:10:47.560,0:10:50.920 e daqui a pouco, alguém[br]vai inverter a marcha á nossa frente. 0:10:50.920,0:10:53.534 Podemos prever esse comportamento[br]e reagir com segurança. 0:10:53.534,0:10:56.262 Agora, está tudo a correr bem[br]para as coisas que vimos, 0:10:56.262,0:10:59.622 mas claro, encontramos imensas coisas[br]que nunca tínhamos visto. 0:11:00.358,0:11:01.756 Há uns meses, 0:11:01.756,0:11:04.095 os nossos veículos[br]estavam a percorrer a Mountain View, 0:11:04.124,0:11:05.768 e encontrámos isto. 0:11:05.768,0:11:07.936 Uma mulher numa cadeira de rodas elétrica, 0:11:07.936,0:11:10.107 às voltas, a perseguir um pato na estrada! 0:11:10.107,0:11:11.191 (Risos) 0:11:11.191,0:11:13.788 Acontece que, em parte alguma,[br]no código da estrada, 0:11:13.788,0:11:16.033 se explica como reagir a isto. 0:11:16.033,0:11:18.176 Mas os nossos veículos[br]foram capazes de gerir isso, 0:11:18.176,0:11:20.392 abrandar e seguir em segurança. 0:11:20.392,0:11:22.345 Mas não temos que lidar apenas com patos. 0:11:22.345,0:11:24.507 Observem este pássaro à nossa frente. 0:11:24.507,0:11:26.126 O carro reage a isso. 0:11:26.284,0:11:28.128 Aqui, estamos a lidar com um ciclista 0:11:28.128,0:11:31.085 como só encontramos em Mountain View. 0:11:31.085,0:11:33.562 E claro que temos que [br]lidar com condutores, 0:11:33.591,0:11:36.096 mesmo os mais pequenos. 0:11:37.763,0:11:40.999 Olhem para a direita,[br]alguém salta deste camião. 0:11:42.460,0:11:45.389 E agora, olhem para a esquerda,[br]o carro com caixa verde 0:11:45.389,0:11:48.380 decide, no último momento,[br]que precisa de virar à direita. 0:11:48.847,0:11:51.584 Aqui, quando vamos mudar de faixa,[br]o carro à nossa esquerda 0:11:51.584,0:11:53.708 decide que quer fazer o mesmo. 0:11:55.260,0:11:57.839 E aqui, vemos um carro[br]a passar um sinal vermelho 0:11:57.839,0:11:59.901 e a continuar o seu caminho. 0:11:59.901,0:12:03.374 Do mesmo modo, aqui um ciclista[br]passa também um sinal vermelho. 0:12:03.755,0:12:06.053 E claro, o nosso veículo[br]responde de forma segura. 0:12:06.748,0:12:09.102 Há pessoas, como este homem,[br]que, não sei como, 0:12:09.102,0:12:12.544 por vezes, atravessam a estrada[br]entre dois carros autónomos. 0:12:12.544,0:12:14.998 Temos de perguntar:[br]" Em que é que estás a pensar?" 0:12:14.998,0:12:16.182 (Risos) 0:12:16.182,0:12:18.703 Já vos inundei com todas estas coisas, 0:12:18.703,0:12:20.905 por isso, vou falar duma[br]muito rapidamente. 0:12:21.353,0:12:23.893 O que vemos aqui, [br]é a cena do ciclista outra vez. 0:12:23.893,0:12:27.003 Na realidade, ainda não vemos o ciclista, 0:12:27.307,0:12:29.973 mas o carro vê:[br]é aquela pequena caixa azul ali. 0:12:30.068,0:12:32.369 Isso vem das informações do laser. 0:12:32.369,0:12:34.529 Na verdade, não é muito fácil perceber, 0:12:34.529,0:12:37.275 por isso vou mudar o ângulo de leitura[br]e olhar para elas. 0:12:37.275,0:12:39.371 Se formos bons a ler dados laser, 0:12:39.371,0:12:41.944 podemos ver alguns pontos ali na curva. 0:12:41.944,0:12:43.982 Aquela caixa azul é o ciclista. 0:12:44.173,0:12:46.274 Quando o nosso sinal está vermelho, 0:12:46.274,0:12:48.352 o do ciclista já está amarelo. 0:12:48.352,0:12:50.799 Se semicerrarmos os olhos,[br]podemos ver isso na imagem. 0:12:50.952,0:12:53.933 Mas o ciclista vai avançar no cruzamento. 0:12:54.028,0:12:57.118 O nosso sinal mudou para verde,[br]o dele já está vermelho 0:12:57.118,0:13:01.010 e podemos prever que a bicicleta[br]vai atravessar-se à nossa frente. 0:13:01.314,0:13:04.752 Infelizmente, os outros condutores[br]não prestaram muita atenção. 0:13:04.913,0:13:08.032 Começaram a avançar[br]e, felizmente para todos, 0:13:08.032,0:13:10.462 este ciclista reage, evita-os 0:13:10.462,0:13:12.653 e passa pelo cruzamento. 0:13:13.111,0:13:14.898 E agora, cá vamos nós! 0:13:15.012,0:13:17.865 Como podem ver, fizemos [br]progressos muito excitantes. 0:13:17.865,0:13:21.557 Nesta altura, estamos convencidos[br]que esta tecnologia vai entrar no mercado. 0:13:21.557,0:13:26.322 Fizemos cinco milhões de km de testes[br]nos nossos simuladores, todos os dias. 0:13:26.322,0:13:29.011 Podem imaginar a experiência [br]que os nossos veículos têm. 0:13:29.372,0:13:31.875 Estamos ansiosos por ver[br]esta tecnologia na estrada. 0:13:31.875,0:13:34.765 Achamos que o caminho correto[br]é através dos carros autónomos 0:13:34.765,0:13:37.028 em vez de carros[br]com assistência ao condutor. 0:13:37.028,0:13:39.230 A urgência é enorme. 0:13:39.230,0:13:41.832 Durante o tempo[br]em que eu fiz esta palestra hoje, 0:13:41.832,0:13:44.758 morreram 34 pessoas[br]nas estradas dos EUA. 0:13:44.910,0:13:47.392 Quando é que podemos pôr isto cá fora? 0:13:47.392,0:13:50.958 É difícil dizer, porque é [br]um problema complicado. 0:13:51.338,0:13:53.372 Estes são os meus dois filhos. 0:13:53.372,0:13:55.213 O meu filho mais velho tem 11 anos. 0:13:55.213,0:13:59.114 Dentro de 4 anos e meio,[br]vai poder obter a carta de condução. 0:13:59.372,0:14:02.976 A minha equipa e eu estamos empenhados[br]em fazer que isso não aconteça! 0:14:03.147,0:14:04.480 Obrigado. 0:14:04.565,0:14:07.585 (Aplausos) 0:14:09.110,0:14:11.678 Chris Anderson: Chris,[br]tenho uma pergunta para ti. 0:14:11.754,0:14:13.344 Chris Urmson: Ok. 0:14:14.496,0:14:18.411 CA: Certamente a mente dos vossos carros[br]é bastante incompreensível. 0:14:18.411,0:14:22.870 Neste debate entre assistência ao condutor[br]e totalmente autónomo... 0:14:22.870,0:14:25.949 Há bastante debate sobre isto,[br]neste momento. 0:14:25.949,0:14:28.744 Há empresas como, por exemplo, a Tesla 0:14:28.744,0:14:31.464 que estão viradas[br]para a assistência á condução. 0:14:31.464,0:14:36.151 O que estás a dizer e dizer é que [br]isso vai ser um beco sem saída, 0:14:36.151,0:14:38.930 porque não conseguimos continuar 0:14:38.930,0:14:41.768 a melhorar esse caminho[br]e chegar a autónomo 0:14:41.768,0:14:45.203 em determinado ponto, e o condutor[br]vai dizer: " Isto parece seguro", 0:14:45.203,0:14:48.231 entra lá para trás,[br]e acontece algo muito feio. 0:14:48.231,0:14:49.526 CU: Certo, é isso mesmo. 0:14:49.526,0:14:52.345 Não estou a dizer que os sistemas[br]de assistência ao condutor 0:14:52.345,0:14:54.273 vão deixar de ter um valor incrível. 0:14:54.273,0:14:56.131 Podem salvar muitas vidas[br]entretanto. 0:14:56.131,0:14:57.978 mas ver a oportunidade transformadora 0:14:57.978,0:15:00.116 e ajudar alguém como o Steve[br]a dar uma volta, 0:15:00.116,0:15:01.942 para chegar ao fim em segurança, 0:15:01.942,0:15:04.336 ter a oportunidade de [br]mudar as nossas cidades 0:15:04.336,0:15:08.187 e eliminar essas crateras urbanas[br]a que chamamos parques de estacionamento, 0:15:08.187,0:15:09.780 é a única forma de avançar. 0:15:09.941,0:15:13.116 CA: Nós vamos acompanhando[br]o vosso progresso com enorme interesse. 0:15:13.116,0:15:14.825 - Muito obrigado Chris.[br]- Obrigado. 0:15:14.825,0:15:16.323 (Aplausos)