0:00:03.470,0:00:06.014 Deixem-me lhes mostrar algo. 0:00:06.014,0:00:10.260 (Vídeo) Garota: Certo, isso é um gato[br]sentado sobre a cama. 0:00:10.260,0:00:14.300 O garoto está acariciando o elefante. 0:00:14.300,0:00:18.454 Aquelas são pessoas [br]que estão entrando num avião. 0:00:18.454,0:00:21.134 É um avião grande! 0:00:21.134,0:00:23.570 Fei-Fei Li: Esta é uma criança[br]de três anos de idade 0:00:23.570,0:00:27.349 descrevendo o que vê numa série de fotos. 0:00:27.349,0:00:30.194 Ela ainda tem muito[br]o que aprender sobre este mundo, 0:00:30.194,0:00:34.743 mas já é uma especialista[br]numa importante tarefa: 0:00:34.743,0:00:37.679 dar sentido ao que vê. 0:00:37.679,0:00:42.455 Nossa sociedade está mais [br]tecnologicamente avançada do que nunca. 0:00:42.455,0:00:46.084 Mandamos pessoas para a Lua,[br]fazemos telefones que falam conosco 0:00:46.084,0:00:51.030 ou personalizamos estações de rádio[br]para tocar só as músicas de que gostamos. 0:00:51.030,0:00:55.085 No entanto, nossas máquinas[br]mais avançadas e computadores 0:00:55.085,0:00:57.988 ainda lutam para realizar esta tarefa. 0:00:57.988,0:01:01.447 Então, estou aqui hoje[br]para dar um relatório do progresso 0:01:01.447,0:01:05.494 sobre os últimos avanços[br]em nossa pesquisa em visão computacional, 0:01:05.494,0:01:10.385 uma das tecnologias mais inovadoras[br]e potencialmente revolucionárias 0:01:10.385,0:01:12.861 na ciência da computação. 0:01:12.861,0:01:17.412 Sim, temos protótipos de carros[br]que podem dirigir sozinhos, 0:01:17.412,0:01:21.265 mas sem uma visão inteligente,[br]não conseguem notar a diferença 0:01:21.265,0:01:25.235 entre um saco de papel amassado[br]na estrada, que pode ser atropelado, 0:01:25.235,0:01:28.825 e uma pedra daquele tamanho,[br]que deve ser evitada. 0:01:28.825,0:01:32.805 Fizemos câmeras incríveis de megapixel, 0:01:32.805,0:01:35.940 mas não demos visão aos cegos. 0:01:35.940,0:01:39.725 Os "drones" podem voar [br]sobre a terra firme, 0:01:39.725,0:01:41.859 mas não têm a tecnologia[br]de visão suficiente 0:01:41.859,0:01:45.320 para nos ajudar a rastrear[br]as mudanças das florestas tropicais. 0:01:45.320,0:01:48.270 As câmeras de segurança[br]estão em toda parte, 0:01:48.270,0:01:53.797 mas não nos alertam quando uma criança[br]está se afogando numa piscina. 0:01:53.797,0:01:59.762 Fotos e vídeos estão se tornando[br]partes integrais da vida global. 0:01:59.762,0:02:03.849 Estão sendo gerados a um ritmo[br]muito além do que qualquer humano, 0:02:03.849,0:02:06.632 -- ou grupos de seres humanos --[br]poderia esperar ver. 0:02:06.632,0:02:10.553 E vocês e eu estamos contribuindo [br]para isto nesta palestra TED. 0:02:10.553,0:02:16.465 No entanto, nosso software mais avançado[br]ainda tem dificuldade para compreender 0:02:16.465,0:02:19.661 e administrar este conteúdo enorme. 0:02:19.661,0:02:24.463 Então, em outras palavras,[br]coletivamente como sociedade, 0:02:24.463,0:02:26.449 somos muito cegos, 0:02:26.449,0:02:30.066 porque nossas máquinas[br]mais inteligentes ainda são cegas. 0:02:31.416,0:02:34.372 "Por que isto é tão difícil?",[br]vocês podem perguntar. 0:02:34.372,0:02:37.035 As câmeras podem tirar fotos como esta, 0:02:37.035,0:02:41.139 convertendo luzes numa matriz[br]bidimensional de números 0:02:41.139,0:02:42.789 conhecida como pixels, 0:02:42.789,0:02:45.040 mas estes são apenas números sem vida, 0:02:45.040,0:02:48.151 não carregam significado em si mesmos. 0:02:48.151,0:02:52.494 Assim como ouvir[br]não é o mesmo que escutar, 0:02:52.494,0:02:56.534 tirar fotos não é o mesmo que ver, 0:02:56.534,0:03:00.663 e por ver, queremos dizer, compreender. 0:03:00.663,0:03:07.470 Na verdade, a mãe natureza levou[br]540 milhões de anos de trabalho pesado 0:03:07.470,0:03:09.443 para realizar esta tarefa, 0:03:09.443,0:03:11.324 e muito deste esforço 0:03:11.324,0:03:16.595 foi para desenvolver o aparelho[br]de processamento visual do nosso cérebro, 0:03:16.595,0:03:19.242 não os olhos em si. 0:03:19.242,0:03:21.989 Então, a visão começa com os olhos, 0:03:21.989,0:03:25.507 mas acontece de fato no cérebro. 0:03:26.287,0:03:31.287 Então, por 15 anos, começando[br]com o meu doutorado na Caltech 0:03:31.287,0:03:34.173 e depois liderando [br]o Stanford's Vision Lab, 0:03:34.173,0:03:38.669 venho trabalhando com os meus mentores,[br]colaboradores e alunos 0:03:38.669,0:03:42.008 para ensinar os computadores a ver. 0:03:42.008,0:03:46.052 Nosso campo de pesquisa chama-se visão[br]computacional e aprendizado de máquina. 0:03:46.052,0:03:49.830 É parte do campo geral[br]da inteligência artificial. 0:03:51.000,0:03:56.493 Basicamente, queremos ensinar[br]as máquinas a ver como nós: 0:03:56.493,0:04:01.880 nomear objetos, identificar pessoas,[br]perceber a geometria 3D das coisas, 0:04:01.880,0:04:07.538 compreender relações, emoções,[br]ações e intenções. 0:04:07.538,0:04:13.721 Nós tecemos juntos histórias completas[br]das pessoas, lugares e coisas 0:04:13.721,0:04:15.885 no momento em que os vemos. 0:04:16.955,0:04:22.538 O primeiro passo rumo a este objetivo,[br]é ensinar um computador a ver objetos, 0:04:22.538,0:04:25.326 o bloco de construção do mundo visual. 0:04:25.326,0:04:30.340 De modo bem simples,[br]imaginem este processo de ensino 0:04:30.340,0:04:33.335 como mostrar aos computadores[br]algumas imagens de treinamento 0:04:33.335,0:04:36.656 de um objeto em particular, digamos gatos, 0:04:36.656,0:04:41.113 e projetar um modelo que aprenda[br]a partir destas imagens de treinamento. 0:04:41.113,0:04:43.007 Qual é a dificuldade disto? 0:04:43.007,0:04:47.489 Afinal de contas, um gato é apenas[br]uma coleção de forma e cores, 0:04:47.489,0:04:51.285 e foi o que fizemos nos primeiro dias[br]de modelagem de objetos. 0:04:51.285,0:04:55.197 Falamos ao algoritmo computacional,[br]numa linguagem matemática, 0:04:55.197,0:04:58.540 que um gato tem o rosto[br]arredondado, corpo gordinho, 0:04:58.540,0:05:00.839 duas orelhas pontudas e uma cauda longa, 0:05:00.839,0:05:02.239 e parecia tudo bem. 0:05:02.239,0:05:04.972 Mas, e este gato? 0:05:04.972,0:05:06.063 (Risos) 0:05:06.063,0:05:07.689 Ele está todo torto. 0:05:07.689,0:05:12.368 Agora é preciso adicionar outra forma[br]e outro ponto de vista ao objeto modelo. 0:05:12.368,0:05:14.833 Mas, e se os gatos estiverem escondidos? 0:05:14.833,0:05:17.362 E estes gatos bobos? 0:05:19.112,0:05:21.529 Agora vocês sabem do que estou falando. 0:05:21.529,0:05:24.896 Mesmo algo simples,[br]como um animal doméstico, 0:05:24.896,0:05:29.400 pode apresentar um número infinito[br]de variações ao objeto modelo, 0:05:29.400,0:05:31.633 e isto é só um objeto. 0:05:32.573,0:05:35.065 Então, há oito anos, 0:05:35.065,0:05:40.095 uma observação bem simples[br]e profunda mudou o meu pensamento. 0:05:41.425,0:05:44.110 Ninguém diz a uma criança como ver, 0:05:44.110,0:05:46.371 especialmente nos primeiros anos. 0:05:46.371,0:05:51.371 Elas aprendem através das experiências[br]e exemplos do mundo real. 0:05:51.371,0:05:54.111 Se considerarmos os olhos de uma criança 0:05:54.111,0:05:56.665 como um par de câmeras biológicas, 0:05:56.665,0:06:00.845 eles tiram uma foto[br]a cada 200 milissegundos, 0:06:00.845,0:06:03.979 o tempo médio em que o movimento[br]do olho é feito. 0:06:03.979,0:06:09.529 Então, aos três anos, uma criança[br]terá visto centenas de milhões de fotos 0:06:09.529,0:06:11.363 do mundo real. 0:06:11.363,0:06:13.693 São muitos exemplos de treinamento. 0:06:13.693,0:06:20.372 Então, em vez de focar [br]somente algoritmos melhores, 0:06:20.372,0:06:25.644 minha ideia foi dar-lhes[br]os tipos de dados de treinamento 0:06:25.644,0:06:28.963 que uma criança obtém[br]através das experiências, 0:06:28.963,0:06:32.841 tanto em quantidade quanto em qualidade. 0:06:32.841,0:06:34.699 Uma vez compreendendo isso, 0:06:34.699,0:06:37.670 sabíamos que precisávamos[br]coletar um conjunto de dados 0:06:37.670,0:06:42.129 que tivesse mais imagens[br]do que tínhamos antes, 0:06:42.129,0:06:44.706 talvez milhares de vezes mais, 0:06:44.706,0:06:48.817 e juntamente com o professor Kai Li,[br]da Universidade de Princeton, 0:06:48.817,0:06:53.569 lançamos o projeto ImageNet em 2007. 0:06:53.569,0:06:57.407 Felizmente, não tínhamos que colocar[br]uma câmera em nossas cabeças 0:06:57.407,0:06:59.171 e esperar por vários anos. 0:06:59.171,0:07:00.634 Fomos à internet, 0:07:00.634,0:07:05.070 o maior tesouro de imagens[br]que os humanos já criaram. 0:07:05.070,0:07:08.111 Baixamos aproximadamente[br]um bilhão de imagens 0:07:08.111,0:07:13.991 e usamos tecnologia de "crowdsourcing",[br]como a plataforma Amazon Mechanical Turk, 0:07:13.991,0:07:16.330 para nos ajudar[br]a classificar essas imagens. 0:07:16.330,0:07:21.230 No seu auge, o ImageNet foi[br]um dos maiores empregadores 0:07:21.230,0:07:24.226 de trabalhadores[br]da Amazon Mechanical Turk. 0:07:24.226,0:07:28.080 Juntos, quase 50 mil trabalhadores 0:07:28.080,0:07:32.120 de 167 países do mundo, 0:07:32.120,0:07:36.067 nos ajudaram a limpar, [br]separar e classificar 0:07:36.067,0:07:39.642 aproximadamente um bilhão[br]de candidatas a imagens. 0:07:40.612,0:07:43.265 Esse foi o tamanho do empenho 0:07:43.265,0:07:47.165 para capturar até mesmo[br]uma fração das imagens 0:07:47.165,0:07:51.298 que a mente de uma criança capta[br]nos primeiros anos de desenvolvimento. 0:07:51.298,0:07:56.050 Em retrospecto, [br]esta ideia de usar dados extensos 0:07:56.050,0:08:00.600 para treinar os algoritmos[br]computacionais pode parecer óbvia agora, 0:08:00.600,0:08:04.710 mas em 2007, não era tão óbvia assim. 0:08:04.710,0:08:08.588 Estivemos praticamente sós[br]nessa jornada por um bom tempo. 0:08:08.588,0:08:13.591 Alguns colegas próximos me aconselharam[br]a fazer algo mais útil pelo meu mandato, 0:08:13.591,0:08:17.933 e lutávamos constantemente para conseguir[br]financiamento para a pesquisa. 0:08:17.933,0:08:20.418 Uma vez, eu brinquei[br]com os meus alunos de graduação 0:08:20.418,0:08:24.481 que iria reabrir minha loja de lavagem[br]a seco para financiar o ImageNet. 0:08:24.481,0:08:28.812 Afinal de contas, foi assim[br]que financiei minha faculdade. 0:08:28.812,0:08:31.098 Então seguimos em frente. 0:08:31.098,0:08:34.813 Em 2009, o projeto ImageNet entregou 0:08:34.813,0:08:38.855 um banco de dados[br]de 15 milhões de imagens, 0:08:38.855,0:08:43.660 entre 22 mil classes de objetos e coisas, 0:08:43.660,0:08:46.980 organizadas pelas palavras[br]cotidianas em inglês. 0:08:46.980,0:08:49.906 Tanto em quantidade quanto em qualidade, 0:08:49.906,0:08:53.038 isso foi uma escala sem precedentes. 0:08:53.038,0:08:56.339 Como exemplo, no caso dos gatos, 0:08:56.339,0:08:59.148 temos mais de 62 mil gatos 0:08:59.148,0:09:03.258 de todos os aspectos e poses; 0:09:03.258,0:09:07.991 e todas as espécies[br]de gatos domésticos e selvagens. 0:09:07.991,0:09:11.825 Ficamos muito felizes em criar o ImageNet 0:09:11.825,0:09:15.383 e queríamos que todo o mundo das pesquisas[br]se beneficiasse com ele. 0:09:15.383,0:09:19.604 Assim, à moda TED, abrimos[br]todo o conjunto de dados 0:09:19.604,0:09:23.276 para a comunidade mundial [br]de pesquisa gratuitamente. 0:09:23.276,0:09:26.696 (Aplausos) 0:09:29.416,0:09:33.954 Agora que temos os dados para alimentar[br]o cérebro do nosso computador, 0:09:33.954,0:09:37.691 estamos prontos para retornar[br]aos algoritmos em si. 0:09:37.691,0:09:42.869 Como se viu, a riqueza de informações[br]fornecidas pelo ImageNet 0:09:42.869,0:09:47.675 foi um ajuste perfeito para uma classe[br]de algoritmos de aprendizado de máquina 0:09:47.675,0:09:50.090 chamada "rede neural convolucional", 0:09:50.090,0:09:55.338 iniciada por Kunihiko Fukushima,[br]Geoff Hinton e Yann LeCun 0:09:55.338,0:09:57.863 nos anos 1970 e 1980. 0:09:58.993,0:10:04.602 Assim como o cérebro é composto de bilhões[br]de neurônios altamente conectados, 0:10:04.602,0:10:08.456 uma unidade operacional básica[br]numa rede neural 0:10:08.456,0:10:10.871 é como um nó neuronal. 0:10:10.871,0:10:13.425 Ela obtém informações de outros nós 0:10:13.425,0:10:16.143 e envia dados para outros. 0:10:16.143,0:10:20.856 Além disso, essas centenas de milhares,[br]ou mesmo milhões de nós, 0:10:20.856,0:10:24.083 são organizadas em camadas hierárquicas, 0:10:24.083,0:10:26.587 parecidas com o cérebro. 0:10:26.587,0:10:31.420 Numa rede neural que usamos para treinar[br]nosso modelo de reconhecimento de objetos 0:10:31.420,0:10:34.601 há 24 milhões de nós, 0:10:34.601,0:10:37.468 140 milhões de parâmetros 0:10:37.468,0:10:40.481 e 15 bilhões de conexões. 0:10:40.481,0:10:43.076 É um modelo enorme. 0:10:43.076,0:10:46.977 Alimentada pelos dados[br]consideráveis do ImageNet 0:10:46.977,0:10:52.320 e os modernos CPUs e GPUs[br]para treinar um modelo colossal, 0:10:52.320,0:10:54.389 a rede neural convolucional 0:10:54.389,0:10:58.215 floresceu de um modo que ninguém esperava. 0:10:58.215,0:11:00.723 Tornou-se a arquitetura vencedora 0:11:00.723,0:11:06.063 para gerar novos resultados animadores[br]em reconhecimento de objetos. 0:11:06.063,0:11:08.873 Isto é um computador nos dizendo 0:11:08.873,0:11:11.173 que esta foto contém um gato 0:11:11.173,0:11:12.886 e onde ele está. 0:11:12.886,0:11:15.188 É claro que há mais coisas além de gatos. 0:11:15.188,0:11:17.626 Aqui está um algoritmo [br]computacional nos dizendo 0:11:17.626,0:11:20.610 que a foto contém um garoto[br]e um urso de pelúcia; 0:11:20.610,0:11:24.926 um cão, uma pessoa[br]e uma pequena pipa ao fundo; 0:11:24.926,0:11:28.401 ou uma foto com muitas informações 0:11:28.401,0:11:33.045 como um homem, um skate, corrimãos,[br]um poste de luz, e assim por diante. 0:11:33.045,0:11:34.397 Às vezes, 0:11:34.397,0:11:37.439 quando o computador[br]não tem certeza do que vê, 0:11:37.439,0:11:38.663 (Risos) 0:11:38.663,0:11:41.774 nós o ensinamos [br]a ser inteligente o bastante 0:11:41.774,0:11:45.652 para nos dar uma resposta segura[br]em vez de ficar deduzindo muito, 0:11:45.652,0:11:48.463 como nós faríamos. 0:11:48.463,0:11:53.129 Mas outras vezes, nosso algoritmo[br]computacional é notável aos nos dizer 0:11:53.129,0:11:55.382 exatamente o que são os objetos, 0:11:55.382,0:11:58.818 como a marca, o modelo e o ano dos carros. 0:11:58.818,0:12:04.204 Nós cruzamos esse algoritmo com milhões[br]de imagens do Google Street View 0:12:04.204,0:12:07.339 em centenas de cidades americanas 0:12:07.339,0:12:10.265 e descobrimos algo muito interessante: 0:12:10.265,0:12:13.585 primeiro, confirmou-se[br]a nossa sabedoria popular 0:12:13.585,0:12:16.875 de que preços de carros estão relacionados 0:12:16.875,0:12:19.220 ao rendimento das famílias. 0:12:19.220,0:12:23.747 Mas surpreendentemente,[br]o preço dos carros também se relaciona 0:12:23.747,0:12:26.117 com as taxas de crimes nas cidades, 0:12:26.127,0:12:30.070 ou padrões de votos pelo CEPs. 0:12:31.550,0:12:34.266 Espere um pouco. É isso mesmo? 0:12:34.266,0:12:39.419 Os computadores já igualaram ou mesmo[br]superaram as capacidades humanas? 0:12:39.419,0:12:41.557 Não tão rápido. 0:12:41.557,0:12:46.480 Até agora, apenas ensinamos[br]os computadores a ver objetos. 0:12:46.480,0:12:51.124 É como uma criancinha aprendendo[br]a pronunciar algumas palavras. 0:12:51.124,0:12:53.794 É um feito incrível, 0:12:53.794,0:12:56.254 mas é apenas o primeiro passo. 0:12:56.254,0:13:00.016 Em breve, outro marco[br]de desenvolvimento será atingido, 0:13:00.016,0:13:03.627 e as crianças começam[br]a se comunicar por meio de frases. 0:13:03.627,0:13:07.701 Então, em vez de dizer [br]que isto é um gato na foto, 0:13:07.701,0:13:12.903 vocês ouviram a garotinha nos dizendo[br]que isto é um gato deitado na cama. 0:13:12.903,0:13:18.498 Então, para ensinar um computador[br]a ver uma foto e criar frases, 0:13:18.498,0:13:22.446 o casamento entre os dados[br]e o algoritmo de aprendizado de máquina 0:13:22.446,0:13:24.721 deve dar outro passo. 0:13:24.721,0:13:28.877 Agora, o computador tem que aprender[br]tanto com as fotos 0:13:28.877,0:13:31.880 quanto com as frases em linguagem natural 0:13:31.880,0:13:34.903 geradas por humanos. 0:13:34.903,0:13:38.908 Assim como o cérebro integra[br]visão e linguagem, 0:13:38.908,0:13:44.109 nós desenvolvemos um modelo[br]que conecta partes de coisas visuais, 0:13:44.109,0:13:46.013 como fragmentos visuais, 0:13:46.013,0:13:50.216 com palavras e ideias em frases. 0:13:50.886,0:13:52.869 Há uns quatro meses, 0:13:52.869,0:13:55.626 finalmente juntamos tudo isso, 0:13:55.626,0:13:59.410 e produzimos um dos primeiros[br]modelos de visão computacional[br] 0:13:59.410,0:14:03.404 capaz de gerar frases do jeito humano 0:14:03.404,0:14:06.730 quando vê uma foto pela primeira vez. 0:14:06.730,0:14:11.554 Agora, vou mostrar o que o computador diz 0:14:11.554,0:14:13.529 quando vê a foto 0:14:13.529,0:14:16.999 que a garotinha viu,[br]no início desta palestra. 0:14:18.529,0:14:22.313 (Vídeo) Computador: Um homem está[br]em pé, próximo a um elefante. 0:14:24.053,0:14:28.027 Um grande avião sentado em cima[br]de uma pista de aeroporto. 0:14:28.657,0:14:33.269 FFL: Claro, estamos trabalhando com afinco[br]para melhorar nossos algoritmos, 0:14:33.269,0:14:35.765 e ele ainda tem muito o que aprender. 0:14:35.765,0:14:37.746 (Aplausos) 0:14:39.206,0:14:42.467 E o computador ainda comete erros. 0:14:42.467,0:14:46.238 (Vídeo) Computador: Um gato deitado[br]numa cama com um cobertor. (Risos) 0:14:46.238,0:14:48.561 FFL: É claro, quando ele vê muitos gatos, 0:14:48.561,0:14:51.747 ele acha que tudo se parece com um gato. 0:14:52.837,0:14:55.881 (Vídeo) Computador: Um garoto[br]está segurando um taco de beisebol. 0:14:55.881,0:14:57.576 (Risos) 0:14:57.576,0:15:02.309 FFL: Se nunca viu uma escova de dentes,[br]ele a confunde com um taco de beisebol. 0:15:02.799,0:15:06.743 (Vídeo) Computador: Um homem monta[br]um cavalo na rua, próximo a um edifício. 0:15:06.743,0:15:08.596 (Risos) 0:15:08.596,0:15:12.318 FFL: Não ensinamos Arte 101[br]aos computadores. 0:15:13.768,0:15:16.652 (Vídeo) Computador: Uma zebra[br]num campo gramado. 0:15:16.652,0:15:20.019 FFL: E ele não aprendeu a apreciar[br]a deslumbrante beleza da natureza 0:15:20.019,0:15:22.067 como nós apreciamos. 0:15:22.067,0:15:25.289 Tem sido uma longa jornada. 0:15:25.289,0:15:28.855 Ir da idade zero a três foi difícil. 0:15:28.855,0:15:35.111 O verdadeiro desafio é ir[br]dos 3 aos 13 e além disso. 0:15:35.111,0:15:39.476 Vejam esta foto do garoto[br]com o bolo novamente. 0:15:39.476,0:15:43.540 Até então, ensinamos[br]o computador a ver objetos 0:15:43.540,0:15:47.198 ou mesmo contar-nos uma simples [br]história quando vê uma foto. 0:15:47.198,0:15:51.554 (Vídeo) Computador: Uma pessoa[br]sentada à mesa com um bolo. 0:15:51.554,0:15:53.994 FFL: Mas há muito mais nesta foto 0:15:53.994,0:15:56.384 do que apenas uma pessoa e um bolo. 0:15:56.384,0:16:00.941 O que o computador não vê[br]é que esta é uma colomba 0:16:00.941,0:16:04.158 que é servida apenas durante a Páscoa. 0:16:04.158,0:16:07.363 O garoto está vestindo[br]a sua camiseta preferida, 0:16:07.363,0:16:11.333 que lhe foi dada de presente[br]pelo pai após uma viagem a Sydney. 0:16:11.333,0:16:15.141 E nós podemos ver a felicidade dele, 0:16:15.141,0:16:18.344 e o que está se passando em sua mente[br]exatamente naquele momento. 0:16:18.784,0:16:21.899 Este é o meu filho Leo. 0:16:21.899,0:16:24.383 Em minha busca pela inteligência visual, 0:16:24.383,0:16:26.644 penso nele constantemente 0:16:26.644,0:16:30.257 e no mundo futuro em que ele viverá. 0:16:30.257,0:16:32.278 Quando as máquinas puderem ver, 0:16:32.278,0:16:36.990 médicos e enfermeiros terão[br]pares extras de olhos incansáveis 0:16:36.990,0:16:41.082 para ajudá-los a diagnosticar[br]e cuidar de pacientes. 0:16:41.082,0:16:45.465 Os carros funcionarão de forma[br]mais inteligente e segura nas estradas. 0:16:45.465,0:16:47.969 Robôs, não apenas seres humanos, 0:16:47.969,0:16:50.744 nos ajudarão a realizar buscas[br]em áreas de desastres 0:16:50.744,0:16:53.359 e a salvar pessoas soterradas e feridas. 0:16:53.359,0:16:57.594 Descobriremos novas espécies,[br]materiais melhores 0:16:57.594,0:17:02.103 e exploraremos lugares que não podemos ver[br]com a ajuda das máquinas. 0:17:02.983,0:17:07.280 Pouco a pouco, estamos dando[br]visão às máquinas. 0:17:07.280,0:17:09.888 Primeiro, as ensinamos a ver, 0:17:09.888,0:17:12.841 então elas nos ajudam a ver melhor. 0:17:12.841,0:17:14.166 Pela primeira vez, 0:17:14.166,0:17:19.690 os olhos humanos não serão os únicos [br]ponderando e explorando nosso mundo. 0:17:19.690,0:17:23.400 Não usaremos as máquinas[br]apenas pela sua inteligência; 0:17:23.400,0:17:29.219 colaboraremos também com elas[br]de uma maneira que nem sequer imaginamos. 0:17:29.219,0:17:31.740 Esta é a minha busca: 0:17:31.740,0:17:34.452 dar aos computadores inteligência visual 0:17:34.452,0:17:39.283 e criar um futuro melhor[br]para o Leo e para o mundo. 0:17:39.283,0:17:40.424 Obrigada. 0:17:40.424,0:17:43.039 (Aplausos)