0:00:00.760,0:00:04.447 Quando eu era miúdo,[br]era um grandessíssimo "nerd". 0:00:05.320,0:00:07.610 Acho que alguns de vocês também eram. 0:00:07.643,0:00:08.821 (Risos) 0:00:08.893,0:00:12.242 E o senhor, que riu mais alto, [br]provavelmente ainda é. 0:00:12.304,0:00:14.151 (Risos) 0:00:14.280,0:00:15.880 Cresci numa cidade pequena 0:00:15.880,0:00:18.038 nas planícies empoeiradas[br]do norte do Texas, 0:00:18.085,0:00:21.297 filho de um xerife[br]que era filho de um pastor. 0:00:21.360,0:00:23.613 Meter-me em sarilhos estava fora de causa. 0:00:24.040,0:00:27.467 Por isso, comecei a ler [br]livros de cálculo por diversão. 0:00:27.538,0:00:28.856 (Risos) 0:00:28.965,0:00:30.861 Vocês também fizeram isso. 0:00:30.923,0:00:34.450 Isso levou-me a construir um laser,[br]um computador e modelos de foguetões 0:00:34.493,0:00:37.998 e levou-me a fazer combustível[br]para foguetões, no meu quarto. 0:00:40.074,0:00:41.816 Em termos científicos, 0:00:41.868,0:00:44.953 chamamos a isso uma ideia muito má. 0:00:45.005,0:00:46.240 (Risos) 0:00:46.360,0:00:48.269 Por volta dessa época, 0:00:48.569,0:00:51.871 "2001: A Odisseia no Espaço", de [br]Stanley Kubrick, chegou ao cinema 0:00:51.914,0:00:54.304 e a minha vida mudou para sempre. 0:00:54.457,0:00:56.545 Adorei tudo naquele filme, 0:00:56.579,0:00:59.086 especialmente o HAL 9000, 0:00:59.177,0:01:01.318 O HAL era um computador sensível 0:01:01.352,0:01:03.646 concebido para guiar a astronave Discovery 0:01:03.689,0:01:06.016 da Terra para Júpiter. 0:01:06.259,0:01:08.372 O HAL também era[br]um personagem com defeitos, 0:01:08.434,0:01:12.676 porque, no final, preferiu valorizar [br]a missão em vez da vida humana. 0:01:13.020,0:01:15.078 O HAL era uma personagem fictícia, 0:01:15.112,0:01:17.635 mas, mesmo assim,[br]fala dos nossos medos, 0:01:17.697,0:01:19.974 dos nossos medos de sermos subjugados 0:01:20.007,0:01:23.023 por alguma inteligência [br]insensível, artificial 0:01:23.076,0:01:25.236 que é indiferente à nossa humanidade. 0:01:25.880,0:01:28.513 Acredito que tais medos são infundados. 0:01:28.575,0:01:31.185 Na verdade, estamos numa época notável 0:01:31.228,0:01:32.974 da história humana, 0:01:32.998,0:01:37.736 em que, impelidos pela recusa de aceitar[br]os limites do nosso corpo e da nossa mente, 0:01:37.760,0:01:39.532 estamos a construir máquinas 0:01:39.584,0:01:43.096 de complexidade e graça [br]requintada e bonita 0:01:43.120,0:01:45.328 que alargará a experiência humana 0:01:45.380,0:01:47.470 de formas para além da nossa imaginação. 0:01:47.672,0:01:50.610 Depois duma carreira que me levou [br]da Academia da Força Aérea 0:01:50.643,0:01:52.494 até ao Comando Espacial, agora, 0:01:52.537,0:01:54.290 tornei-me engenheiro de sistemas, 0:01:54.337,0:01:56.955 e recentemente, envolvi-me[br]num problema de engenharia 0:01:56.998,0:01:59.374 associado à missão da NASA em Marte. 0:01:59.502,0:02:01.970 Em voos espaciais para a Lua, 0:02:02.032,0:02:05.016 podemos confiar no controlo [br]da missão em Houston 0:02:05.078,0:02:07.225 para observar todos os aspetos dum voo. 0:02:07.316,0:02:10.652 No entanto, Marte está[br]200 vezes mais longe 0:02:10.695,0:02:14.092 e, em resultado, são precisos[br]13 minutos, em média, 0:02:14.135,0:02:17.099 para um sinal viajar [br]da Terra até Marte. 0:02:17.171,0:02:20.552 Se houver problemas, [br]não há tempo suficiente. 0:02:20.840,0:02:23.421 Assim, uma solução razoável de engenharia 0:02:23.464,0:02:26.040 pede-nos para pôr o controlo da missão 0:02:26.074,0:02:28.728 dentro das paredes[br]da astronave Orion. 0:02:29.000,0:02:32.010 Uma outra ideia fascinante,[br]no perfil da missão, 0:02:32.043,0:02:34.977 coloca robôs humanoides[br]na superfície de Marte 0:02:35.049,0:02:36.962 antes de os seres humanos chegarem, 0:02:37.005,0:02:38.747 primeiro para construir instalações 0:02:38.795,0:02:42.283 e depois, para servir como membros [br]colaborativos da equipa de ciência 0:02:43.400,0:02:46.231 Como olhei para isto [br]numa perspetiva de engenharia 0:02:46.274,0:02:49.583 percebi rapidamente que aquilo[br]de que precisava para arquitetar 0:02:49.636,0:02:51.536 era de uma inteligência artificial, 0:02:51.560,0:02:54.078 esperta, colaborativa[br]e socialmente inteligente. 0:02:54.160,0:02:58.189 Por outras palavras, tinha de construir[br]algo muito parecido com um HAL 0:02:58.280,0:03:00.696 mas sem tendências homicidas. 0:03:00.862,0:03:02.222 (Risos) 0:03:02.920,0:03:04.859 Vamos fazer uma pausa por um momento 0:03:04.921,0:03:08.656 Será realmente possível construir[br]uma inteligência artificial assim? 0:03:08.803,0:03:10.136 Na verdade, é. 0:03:10.226,0:03:11.416 De muitas formas, 0:03:11.440,0:03:13.416 isso é um árduo problema de engenharia 0:03:13.440,0:03:15.457 com elementos de inteligência artificial, 0:03:15.472,0:03:19.511 não um problema complicado de IA [br]que precisa de ser projetado. 0:03:19.640,0:03:22.115 Parafraseando Alan Turing, 0:03:22.138,0:03:24.848 não estou interessado[br]em construir uma máquina sensível. 0:03:24.872,0:03:26.505 Não estou a construir um HAL. 0:03:26.558,0:03:28.936 Só estou a procurar um cérebro simples, 0:03:28.969,0:03:32.175 algo que ofereça a ilusão de inteligência. 0:03:33.000,0:03:36.278 A arte e a ciência da informática[br]têm percorrido um longo caminho 0:03:36.331,0:03:37.989 desde que o HAL esteve no ecrã 0:03:38.013,0:03:41.115 e imagino que, se o seu inventor[br]Dr. Chandra estivesse aqui hoje, 0:03:41.148,0:03:43.389 teria um monte de questões para nós. 0:03:43.460,0:03:45.376 Será realmente possível 0:03:45.400,0:03:49.416 termos um sistema de milhões[br]e milhões de dispositivos, 0:03:49.440,0:03:51.010 para ler nos fluxos de dados, 0:03:51.062,0:03:53.318 prever as suas falhas[br]e agir com antecedência? 0:03:53.352,0:03:54.416 É, sim. 0:03:54.449,0:03:57.825 Podemos construir sistemas que conversam[br]com humanos em língua natural? 0:03:57.859,0:03:58.856 Podemos, sim. 0:03:58.880,0:04:02.322 Podemos construir sistemas que[br]reconheçam objetos, identifiquem emoções, 0:04:02.346,0:04:05.217 se emocionem,[br]joguem jogos e até leiam lábios? 0:04:05.280,0:04:06.496 Podemos, sim. 0:04:06.520,0:04:08.893 Podemos construir um sistema[br]que estabeleça metas, 0:04:08.908,0:04:12.438 que execute planos para essas metas[br]e aprenda ao longo do caminho? 0:04:12.491,0:04:13.669 Podemos, sim. 0:04:13.712,0:04:16.972 Podemos construir sistemas[br]que tenham uma teoria de pensamento? 0:04:17.034,0:04:18.606 Estamos a aprender a fazer isso. 0:04:18.659,0:04:22.224 Podemos construir sistemas que têm[br]um fundamento ético e moral? 0:04:22.480,0:04:24.853 Temos de aprender a fazer isso. 0:04:25.360,0:04:26.936 Vamos aceitar, por instantes, 0:04:26.969,0:04:29.713 que é possível construir [br]essa inteligência artificial 0:04:29.765,0:04:31.958 para este tipo de missão e outros. 0:04:31.992,0:04:34.376 A pergunta seguinte[br]que devemos fazer é: 0:04:34.466,0:04:36.170 Devemos ter medo dela? 0:04:36.232,0:04:37.913 Cada nova tecnologia 0:04:37.965,0:04:40.595 traz consigo uma certa trepidação. 0:04:40.800,0:04:42.791 Quando viram carros pela primeira vez, 0:04:42.853,0:04:46.536 as pessoas queixaram-se[br]de que veríamos a destruição da família. 0:04:46.721,0:04:49.398 Quando viram os telefones,[br]pela primeira vez, 0:04:49.432,0:04:52.537 as pessoas recearam que fossem[br]destruir toda a conversação civil. 0:04:52.571,0:04:56.221 A certa altura, vimos a palavra escrita[br]tornar-se universal. 0:04:56.360,0:04:58.979 As pessoas pensaram perder[br]a capacidade de memorizar. 0:04:59.013,0:05:01.097 Tudo isto é verdade, até certo ponto, 0:05:01.131,0:05:03.404 mas acontece também que essas tecnologias 0:05:03.466,0:05:06.576 trouxeram-nos coisas[br]que ampliaram a experiência humana 0:05:06.600,0:05:08.546 de formas profundas. 0:05:09.840,0:05:12.386 Então, vamos levar isso [br]um pouco mais longe. 0:05:13.120,0:05:17.579 Eu não temo a criação[br]duma IA como esta, 0:05:17.880,0:05:21.696 porque ela acabará por incorporar[br]alguns dos nossos valores. 0:05:21.891,0:05:25.444 Considerem isto: construir um sistema[br]cognitivo é totalmente diferente 0:05:25.468,0:05:29.002 de construir um sistema tradicional[br]de software intensivo do passado. 0:05:29.055,0:05:31.216 Não os programamos. Ensinamo-los. 0:05:31.287,0:05:33.715 Para ensinar um sistema [br]a reconhecer flores, 0:05:33.767,0:05:36.736 mostro-lhe milhares de flores[br]dos tipos que gosto. 0:05:36.845,0:05:39.016 Para ensinar um sistema[br]a jogar um jogo... 0:05:39.182,0:05:41.790 — bem, eu ensinaria,[br]vocês também ensinariam. 0:05:42.600,0:05:44.754 Adoro flores. Vamos lá. 0:05:45.440,0:05:48.296 Para ensinar um sistema[br]a jogar um jogo como o Go, 0:05:48.339,0:05:50.471 deixá-lo-ia jogar[br]milhares de jogos do Go, 0:05:50.504,0:05:52.189 mas no processo também lhe ensino 0:05:52.241,0:05:54.619 como discernir um jogo bom[br]de um jogo mau. 0:05:54.767,0:05:58.330 Se eu quiser criar um assistente legal[br]artificialmente inteligente, 0:05:58.363,0:06:00.596 vou ensinar-lhe algumas noções de leis 0:06:00.625,0:06:03.019 mas, ao mesmo tempo,[br]estou a introduzir-lhe 0:06:03.062,0:06:06.200 o sentido de piedade e de justiça[br]que faz parte dessas leis. 0:06:06.560,0:06:09.764 Em termos científicos, é aquilo[br]a que chamamos verdade fundamental, 0:06:09.807,0:06:11.728 e este é o ponto importante: 0:06:11.771,0:06:13.275 ao produzir estas máquinas, 0:06:13.308,0:06:16.286 estamos a ensinar-lhes[br]um sentido dos nossos valores. 0:06:16.520,0:06:20.294 Para esse fim, confio tanto[br]numa inteligência artificial, 0:06:20.365,0:06:23.729 — ou mesmo mais — do que[br]num ser humano que é bem formado. 0:06:24.080,0:06:25.496 Mas podem perguntar: 0:06:25.529,0:06:28.088 "E quanto a agentes desonestos, 0:06:28.150,0:06:31.296 "a alguma organização[br]não governamental bem financiada?" 0:06:31.481,0:06:35.136 Eu não temo uma inteligência artificial[br]na mão de um lobo solitário. 0:06:35.360,0:06:37.424 Claramente, não conseguimos proteger-nos 0:06:37.462,0:06:39.777 contra todos os atos[br]fortuitos de violência, 0:06:39.843,0:06:42.008 mas a realidade é que um sistema destes 0:06:42.060,0:06:44.976 requer formação substancial[br]e formação subtil 0:06:45.028,0:06:47.410 muito para além[br]dos recursos de um indivíduo. 0:06:47.491,0:06:48.640 E além disso, 0:06:48.683,0:06:51.977 é muito mais do que injetar[br]um vírus de Internet no mundo 0:06:52.020,0:06:54.936 em que apertamos um botão,[br]e ele aparece num milhão de lugares 0:06:54.960,0:06:57.663 e os portáteis começam a explodir[br]por toda a parte. 0:06:57.706,0:07:00.408 Estes tipos de substância [br]são muito maiores, 0:07:00.460,0:07:02.375 e certamente vamos vê-los chegar. 0:07:02.653,0:07:05.576 Será que receio[br]que essa inteligência artificial 0:07:05.600,0:07:07.902 possa ameaçar toda a humanidade? 0:07:08.280,0:07:12.332 Se olharmos para filmes[br]como "The Matrix", "Metropolis", 0:07:12.394,0:07:15.856 "O Exterminador Implacável", [br]séries como "Westworld", 0:07:15.880,0:07:18.016 todos falam desse tipo de medo. 0:07:18.192,0:07:22.336 De facto, no livro "Superintelligence"[br]do filósofo Nick Bostrom, 0:07:22.360,0:07:24.000 ele pega neste tema 0:07:24.043,0:07:28.002 e nota que uma superinteligência[br]pode não só ser perigosa, 0:07:28.083,0:07:31.816 pode representar uma ameaça existencial[br]para toda a humanidade. 0:07:31.935,0:07:34.113 O argumento básico do Dr. Bostrom 0:07:34.165,0:07:37.082 é que tais sistemas vão acabar por ter 0:07:37.144,0:07:40.153 uma tal ânsia insaciável de informação 0:07:40.215,0:07:43.016 que talvez aprendam como aprender 0:07:43.116,0:07:45.703 e acabem por descobrir[br]que podem ter metas 0:07:45.756,0:07:48.071 que são contrárias [br]às necessidades humanas. 0:07:48.123,0:07:50.075 O Dr. Bostrom tem muitos seguidores. 0:07:50.137,0:07:54.390 É apoiado por pessoas como[br]Elon Musk e Stephen Hawking. 0:07:54.975,0:07:57.518 Com o devido respeito 0:07:58.160,0:08:00.176 a essas mentes brilhantes, 0:08:00.200,0:08:02.675 acho que estão fundamentalmente errados. 0:08:02.727,0:08:05.732 Há muitas peças do argumento[br]do Dr. Bostrom para desmontar, 0:08:05.794,0:08:08.092 mas não tenho tempo[br]para desmontá-las a todas, 0:08:08.144,0:08:10.536 mas muito rapidamente,[br]considerem isto: 0:08:10.760,0:08:14.257 o super conhecimento[br]é muito diferente da super ação. 0:08:14.320,0:08:16.930 O HAL só foi uma ameaça[br]para a tripulação do Discovery 0:08:16.973,0:08:20.722 na medida em que o HAL comandava[br]todos os aspetos do Discovery. 0:08:20.803,0:08:23.290 Então teria de ser com[br]superinteligência. 0:08:23.361,0:08:25.848 Teria que ter o domínio [br]sobre todo o nosso mundo. 0:08:25.901,0:08:28.697 Isto é o material do Skynet[br]de “O Exterminador Implacável” 0:08:28.760,0:08:30.606 em que tínhamos uma superinteligência 0:08:30.668,0:08:32.235 que comandava a vontade humana, 0:08:32.268,0:08:35.505 que dirigia todos os dispositivos[br]que estavam pelo mundo inteiro. 0:08:35.720,0:08:37.337 Em termos práticos, 0:08:37.362,0:08:39.229 isso não vai acontecer. 0:08:39.320,0:08:42.423 Não estamos a construir IA[br]que controlam o tempo, 0:08:42.476,0:08:44.059 que dirigem as marés, 0:08:44.093,0:08:47.288 que comandam os seres humanos[br]caprichosos e caóticos. 0:08:47.379,0:08:50.970 E além disso, se existisse[br]tal inteligência artificial, 0:08:51.041,0:08:54.063 teria de competir com economias humanas, 0:08:54.116,0:08:56.902 e, portanto, competir connosco[br]pelos recursos. 0:08:57.200,0:08:58.416 E, no final, 0:08:58.440,0:09:00.356 — não digam isto ao Siri — 0:09:00.440,0:09:02.282 podemos sempre desligá-los. 0:09:02.349,0:09:03.960 (Risos) 0:09:05.455,0:09:07.816 Estamos numa viagem incrível 0:09:07.840,0:09:10.336 de coevolução com as nossas máquinas. 0:09:10.502,0:09:12.979 Os seres humanos que somos hoje 0:09:13.032,0:09:15.416 não são os seres humanos[br]que seremos depois. 0:09:15.592,0:09:18.776 Preocuparmo-nos agora com o aparecimento[br]duma superinteligência 0:09:18.828,0:09:21.808 é, em muitos aspetos,[br]uma diversão perigosa. 0:09:21.870,0:09:24.187 porque o aparecimento[br]da própria informática 0:09:24.240,0:09:27.198 traz-nos uma série[br]de questões humanas e sociais 0:09:27.241,0:09:29.281 às quais devemos agora dar atenção. 0:09:29.360,0:09:32.176 Como é que organizo melhor a sociedade 0:09:32.200,0:09:34.697 quando a necessidade[br]de trabalho humano diminui? 0:09:34.741,0:09:38.461 Como posso trazer compreensão[br]e educação a todo o mundo 0:09:38.504,0:09:40.423 sem desrespeitar as nossas diferenças? 0:09:40.457,0:09:44.608 Como posso ampliar e melhorar a vida humana[br]através da assistência médica cognitiva? 0:09:44.660,0:09:47.459 Como posso usar a informática 0:09:47.512,0:09:49.529 para nos levar às estrelas? 0:09:49.760,0:09:51.876 E esta é a coisa excitante. 0:09:52.400,0:09:54.736 As oportunidades de usar a informática 0:09:54.760,0:09:56.696 para fazer avançar a experiência humana 0:09:56.748,0:09:59.250 estão ao nosso alcance,[br]aqui e agora, 0:09:59.640,0:10:01.758 e estamos apenas a começar. 0:10:02.280,0:10:03.572 Muito obrigado. 0:10:03.605,0:10:06.701 (Aplausos)