WEBVTT 00:00:01.000 --> 00:00:03.216 Vou falar sobre uma falha intuitiva 00:00:03.240 --> 00:00:04.840 que afeta muitos de nós. 00:00:05.480 --> 00:00:08.520 É a falha de reconhecer certo perigo. 00:00:09.360 --> 00:00:11.096 Eu vou descrever uma situação 00:00:11.120 --> 00:00:14.376 que considero aterrorizante 00:00:14.400 --> 00:00:16.160 e provável de acontecer, 00:00:16.840 --> 00:00:18.496 e não é uma boa combinação, 00:00:18.520 --> 00:00:19.916 ao que parece. 00:00:19.930 --> 00:00:21.600 Mesmo assim, em vez de sentir medo, 00:00:21.610 --> 00:00:24.640 a maioria vai achar legal o que vou falar. NOTE Paragraph 00:00:25.200 --> 00:00:28.176 Vou descrever como nossas conquistas 00:00:28.200 --> 00:00:29.976 na área da inteligência artificial 00:00:30.000 --> 00:00:31.776 poderão nos destruir. 00:00:31.800 --> 00:00:35.256 Na verdade, acho muito difícil ver como elas não vão nos destruir, 00:00:35.280 --> 00:00:36.960 ou nos inspirar a nos destruirmos. 00:00:37.400 --> 00:00:39.256 E se você é como eu, 00:00:39.280 --> 00:00:41.936 vai descobrir que é divertido pensar sobre essas coisas. 00:00:41.960 --> 00:00:45.336 E essa resposta é parte do problema. 00:00:45.360 --> 00:00:47.080 OK? Essa resposta deve te preocupar. 00:00:47.920 --> 00:00:50.576 Se eu quisesse te convencer nessa palestra 00:00:50.600 --> 00:00:54.016 de que a fome mundial é provável, 00:00:54.040 --> 00:00:57.096 por causa do aquecimento global ou qualquer outra catástrofe, 00:00:57.120 --> 00:01:00.536 e de que seus netos e os netos dos seus netos 00:01:00.560 --> 00:01:02.360 provavelmente viverão assim, 00:01:03.200 --> 00:01:04.400 você não pensaria: 00:01:05.440 --> 00:01:06.776 "Interessante. 00:01:06.800 --> 00:01:08.270 Gostei dessa Palestra TED." NOTE Paragraph 00:01:09.200 --> 00:01:10.720 Fome não é divertido. 00:01:11.800 --> 00:01:15.176 Morte por ficção científica, por outro lado, é divertida, 00:01:15.200 --> 00:01:18.696 e uma das coisas que mais me preocupa no desenvolvimento de IA nesse ponto 00:01:18.700 --> 00:01:23.296 é que somos incapazes de organizar uma resposta emocional apropriada 00:01:23.320 --> 00:01:25.136 para os perigos que estão à frente. 00:01:25.160 --> 00:01:28.490 Eu sou incapaz de ordenar essa resposta, e estou dando esta palestra. NOTE Paragraph 00:01:30.120 --> 00:01:32.816 É como se estivéssemos diante de duas portas. 00:01:32.840 --> 00:01:34.096 Na porta de número 1, 00:01:34.120 --> 00:01:37.416 paramos de progredir na área de IA. 00:01:37.440 --> 00:01:41.456 Nossos softwares e hardwares param de melhorar por algum motivo. 00:01:41.480 --> 00:01:44.480 Pare um pouco para refletir por que isso pode acontecer. 00:01:45.080 --> 00:01:48.736 Dado que automação e inteligência são valiosos, 00:01:48.760 --> 00:01:52.280 continuaremos a melhorar nossa tecnologia, se isso for possível. 00:01:53.200 --> 00:01:55.157 O que poderia nos impedir de fazer isso? 00:01:55.800 --> 00:01:57.600 Uma guerra nuclear em grande escala? 00:01:59.000 --> 00:02:00.560 Uma pandemia global? 00:02:02.320 --> 00:02:03.640 A colisão de um asteroide? 00:02:05.640 --> 00:02:08.216 Justin Bieber como presidente dos Estado Unidos? NOTE Paragraph 00:02:08.240 --> 00:02:11.050 (Risadas) NOTE Paragraph 00:02:12.760 --> 00:02:16.680 A questão é que algo teria que destruir a civilização que nós conhecemos. 00:02:17.360 --> 00:02:21.656 Você precisa imaginar o quão ruim teria que ser 00:02:21.680 --> 00:02:25.016 para impedir os avanços da nossa tecnologia 00:02:25.040 --> 00:02:26.256 permanentemente, 00:02:26.280 --> 00:02:28.296 geração após geração. 00:02:28.320 --> 00:02:30.456 Quase que por definição, essa é a pior coisa 00:02:30.480 --> 00:02:32.496 que já aconteceu na história humana. NOTE Paragraph 00:02:32.520 --> 00:02:33.816 A única alternativa, 00:02:33.840 --> 00:02:36.176 e é o que está atrás da porta de número 2, 00:02:36.200 --> 00:02:39.336 é que continuemos a aprimorar nossas máquinas inteligentes, 00:02:39.360 --> 00:02:40.960 ano após ano. 00:02:41.720 --> 00:02:45.360 Em algum ponto, construiremos máquinas mais inteligentes que nós, 00:02:46.080 --> 00:02:48.696 e uma vez que isso acontecer, 00:02:48.720 --> 00:02:50.696 elas aperfeiçoarão a si mesmas. 00:02:50.720 --> 00:02:53.456 E nós arriscamos o que o matemático I. J. Good chamou 00:02:53.480 --> 00:02:55.256 de "explosão de inteligência", 00:02:55.280 --> 00:02:57.280 que o processo poderia fugir do controle. NOTE Paragraph 00:02:58.120 --> 00:03:00.936 Isso é frequentemente caricaturado, desse jeito aqui, 00:03:00.960 --> 00:03:04.176 como medo de que exércitos de robôs malignos 00:03:04.200 --> 00:03:05.456 nos ataquem. 00:03:05.480 --> 00:03:08.176 Mas essa não é a situação mais provável. 00:03:08.200 --> 00:03:13.056 Não é que nossas máquinas se tornarão espontaneamente más. 00:03:13.080 --> 00:03:15.696 A preocupação é que construiremos máquinas 00:03:15.720 --> 00:03:17.776 que são muito mais competentes do que nós, 00:03:17.800 --> 00:03:21.576 e que a menor das divergências entre nosso propósito e o delas 00:03:21.600 --> 00:03:22.800 possa nos destruir. NOTE Paragraph 00:03:23.960 --> 00:03:26.040 Pense na nossa relação com as formigas. 00:03:26.600 --> 00:03:28.090 Nós não as odiamos. 00:03:28.090 --> 00:03:30.486 Nós não as machucamos de propósito. 00:03:30.486 --> 00:03:32.736 Na verdade, nós tentamos não machucar elas. 00:03:32.760 --> 00:03:34.776 Evitamos pisá-las na calçada. 00:03:34.800 --> 00:03:36.936 Mas sempre que a presença delas 00:03:36.960 --> 00:03:39.456 colide com um dos nossos objetivos, 00:03:39.480 --> 00:03:41.957 digamos que ao construirmos um prédio como este, 00:03:41.981 --> 00:03:44.471 nós exterminamos elas sem a menor cerimônia. 00:03:44.480 --> 00:03:47.416 A preocupação é que um dia vamos construir máquinas 00:03:47.440 --> 00:03:50.176 que, conscientes ou não, 00:03:50.200 --> 00:03:52.200 poderão nos tratar com o mesmo desprezo. NOTE Paragraph 00:03:53.660 --> 00:03:56.520 Eu suspeito que isso pareça difícil de acreditar para vocês. 00:03:57.360 --> 00:04:03.696 Aposto que alguns de vocês duvidam que uma IA superinteligente seja possível, 00:04:03.720 --> 00:04:05.376 muito menos inevitável. 00:04:05.400 --> 00:04:09.020 Mas então você precisar achar algo de errado com as seguintes suposições. 00:04:09.044 --> 00:04:10.616 E existem apenas três. NOTE Paragraph 00:04:11.620 --> 00:04:15.529 Inteligência é uma questão de processamento de informação 00:04:15.529 --> 00:04:17.349 em sistemas físicos. 00:04:17.349 --> 00:04:19.935 Na verdade, isso é mais do que uma suposição. 00:04:19.959 --> 00:04:23.416 Nós já construímos inteligência limitada em nossas máquinas, 00:04:23.440 --> 00:04:28.166 e muitas delas já trabalham num nível de inteligência sobre-humano. 00:04:28.840 --> 00:04:31.416 E sabemos que matéria comum 00:04:31.440 --> 00:04:34.116 pode dar origem ao que é chamado de "inteligência geral", 00:04:34.116 --> 00:04:37.730 a habilidade de pensar de forma flexível em vários domínios, 00:04:37.730 --> 00:04:40.956 porque nossos cérebros conseguiram isso. Certo? 00:04:40.956 --> 00:04:44.856 Existem apenas átomos aqui, 00:04:44.880 --> 00:04:49.376 e desde que continuemos a construir sistemas de átomos 00:04:49.400 --> 00:04:52.096 que mostrem mais e mais comportamento inteligente, 00:04:52.120 --> 00:04:54.656 a não ser que nos interrompam, 00:04:54.680 --> 00:04:58.056 vamos acabar construindo inteligência geral 00:04:58.080 --> 00:04:59.376 dentro de nossas máquinas. NOTE Paragraph 00:04:59.400 --> 00:05:03.050 É crucial perceber que a taxa de progresso não importa, 00:05:03.050 --> 00:05:06.426 porque qualquer progresso é suficiente para nos levar até a zona final. 00:05:06.426 --> 00:05:08.596 Não precisamos da Lei de Moore para continuar, 00:05:08.596 --> 00:05:11.716 Não precisamos de progresso exponencial, só precisamos continuar. NOTE Paragraph 00:05:13.480 --> 00:05:16.400 A segunda suposição é que vamos continuar. 00:05:17.000 --> 00:05:19.760 Continuaremos a melhorar nossas máquinas inteligentes. 00:05:21.000 --> 00:05:25.376 E dado o valor da inteligência... 00:05:25.400 --> 00:05:28.936 Inteligência ou é a fonte de tudo aquilo que valorizamos 00:05:28.960 --> 00:05:31.736 ou precisamos dela para que proteja aquilo que valorizamos. 00:05:31.760 --> 00:05:34.016 É a nossa fonte mais valiosa. 00:05:34.040 --> 00:05:35.576 Então nós queremos fazer isso. 00:05:35.600 --> 00:05:38.936 Temos problemas que precisamos resolver urgentemente. 00:05:38.960 --> 00:05:42.160 Queremos curar doenças como Alzheimer e câncer. 00:05:42.960 --> 00:05:46.896 Queremos entender sistemas econômicos. Queremos aprimorar a ciência climática. 00:05:46.920 --> 00:05:49.176 Nós faremos isso, se pudermos. 00:05:49.200 --> 00:05:52.486 O trem já saiu da estação, e não há freio para puxar. NOTE Paragraph 00:05:53.880 --> 00:05:59.336 Finalmente, não estamos em um pico de inteligência, 00:05:59.360 --> 00:06:01.160 não estamos nem perto disso. 00:06:01.640 --> 00:06:03.536 E essa é a percepção crucial. 00:06:03.560 --> 00:06:05.976 Isso é o que faz a nossa situação ser tão precária 00:06:06.000 --> 00:06:10.040 e a nossa intuição sobre riscos não ser confiável. NOTE Paragraph 00:06:11.110 --> 00:06:13.920 Pense na pessoa mais inteligente que já existiu. 00:06:14.720 --> 00:06:18.106 Na lista de quase todos aqui está John von Neumann. 00:06:18.106 --> 00:06:21.416 A impressão que ele causou nas pessoas ao seu redor, 00:06:21.440 --> 00:06:25.496 e isso inclui os melhores matemáticos e físicos de seu tempo, 00:06:25.520 --> 00:06:27.456 está muito bem documentada. 00:06:27.480 --> 00:06:31.200 Se apenas metade das histórias sobre ele forem meio verdadeiras, 00:06:31.200 --> 00:06:34.916 não há dúvida de que ele foi uma das pessoas mais inteligentes que já existiu. 00:06:34.916 --> 00:06:37.520 Considere o espectro da inteligência. 00:06:38.320 --> 00:06:39.749 Aqui temos John von Neumann. 00:06:41.560 --> 00:06:42.894 E aqui temos eu e você. 00:06:44.120 --> 00:06:45.416 E aqui temos uma galinha. NOTE Paragraph 00:06:45.440 --> 00:06:47.376 (Risadas) NOTE Paragraph 00:06:47.400 --> 00:06:48.616 Perdão, uma galinha. NOTE Paragraph 00:06:48.640 --> 00:06:49.896 (Risadas) NOTE Paragraph 00:06:49.920 --> 00:06:53.806 Não existe razão pra que eu torne isso mais depressivo do que precisa ser. NOTE Paragraph 00:06:53.806 --> 00:06:55.310 (Risadas) NOTE Paragraph 00:06:56.339 --> 00:06:59.876 Parece extremamente provável, no entanto, que esse espectro da inteligência 00:06:59.876 --> 00:07:02.960 se estenda muito além do que pensamos, 00:07:03.880 --> 00:07:07.096 e se construirmos máquinas mais inteligentes do que nós, 00:07:07.120 --> 00:07:09.416 elas provavelmente vão explorar esse espectro 00:07:09.440 --> 00:07:11.296 de maneiras que não podemos imaginar, 00:07:11.320 --> 00:07:13.840 e vão nos ultrapassar de formas inimagináveis. NOTE Paragraph 00:07:15.000 --> 00:07:19.336 E é importante reconhecer que isso é verdade apenas pela velocidade. 00:07:19.360 --> 00:07:24.416 Imagine se construíssemos uma IA superinteligente 00:07:24.440 --> 00:07:27.896 que não fosse mais inteligente do que seu time mediano de pesquisadores 00:07:27.920 --> 00:07:30.210 em Stanford ou no MIT. 00:07:30.210 --> 00:07:33.370 Circuitos eletrônicos funcionam quase 1 milhão de vezes mais rápido 00:07:33.370 --> 00:07:34.616 do que os biológicos, 00:07:34.616 --> 00:07:37.656 então essa máquina deve pensar 1 milhão de vezes mais rápido 00:07:37.680 --> 00:07:39.490 do que a mente que a criou. 00:07:39.490 --> 00:07:41.726 Você deixa ela funcionando por uma semana, 00:07:41.726 --> 00:07:45.820 e ela vai realizar 20 mil anos humanos de trabalho intelectual, 00:07:46.100 --> 00:07:48.430 semana após semana. 00:07:49.640 --> 00:07:52.736 Como poderíamos entender, muito menos restringir, 00:07:52.760 --> 00:07:55.040 uma mente progredindo dessa maneira? NOTE Paragraph 00:07:56.840 --> 00:07:58.976 Outra coisa que é preocupante, francamente, 00:07:59.000 --> 00:08:03.976 é... imagine o melhor cenário possível. 00:08:04.000 --> 00:08:08.140 Imagine que nos deparamos com o design de uma IA superinteligente 00:08:08.140 --> 00:08:09.826 que não tem problemas de segurança. 00:08:09.826 --> 00:08:12.856 Temos o design perfeito pela primeira vez. 00:08:12.880 --> 00:08:15.096 É como se tivéssemos recebido um oráculo 00:08:15.120 --> 00:08:17.136 que se comporta como deve. 00:08:17.160 --> 00:08:20.880 Essa máquina seria o perfeito dispositivo de economia de trabalho. 00:08:21.130 --> 00:08:23.789 Pode desenvolver a máquina que pode construir a máquina 00:08:23.789 --> 00:08:25.936 que pode executar qualquer trabalho físico, 00:08:25.936 --> 00:08:27.376 movido à luz solar, 00:08:27.400 --> 00:08:30.096 por mais ou menos o custo da matéria-prima. 00:08:30.120 --> 00:08:33.376 Estamos falando do fim do esforço físico humano. 00:08:33.400 --> 00:08:36.660 Também estamos falando do fim da maior parte do trabalho intelectual. NOTE Paragraph 00:08:37.200 --> 00:08:40.256 O que símios como nós fariam nessas circunstâncias? 00:08:40.280 --> 00:08:44.360 Estaríamos livres para jogar Frisbee e massagear uns aos outros. 00:08:45.840 --> 00:08:48.696 Adicione LSD e escolhas de roupas questionáveis, 00:08:48.720 --> 00:08:51.266 e o mundo inteiro seria como o Festival Burning Man. NOTE Paragraph 00:08:51.266 --> 00:08:52.970 (Risadas) NOTE Paragraph 00:08:54.320 --> 00:08:56.320 Pode até parecer muito bom, 00:08:57.280 --> 00:08:59.656 mas se pergunte: o que aconteceria 00:08:59.680 --> 00:09:02.416 sob a atual economia e ordem política? 00:09:02.440 --> 00:09:04.856 Possivelmente, iríamos presenciar 00:09:04.880 --> 00:09:09.016 um nível de desigualdade de riqueza e desemprego 00:09:09.040 --> 00:09:10.536 nunca visto antes. 00:09:10.560 --> 00:09:13.366 Sem a vontade de colocar imediatamente essa riqueza 00:09:13.366 --> 00:09:14.680 a serviço da humanidade, 00:09:15.640 --> 00:09:19.256 alguns poucos trilionários apareceriam nas capas das revistas de negócios, 00:09:19.280 --> 00:09:21.720 enquanto o resto do mundo passaria fome. NOTE Paragraph 00:09:22.320 --> 00:09:24.616 E o que os russos e os chineses fariam 00:09:24.640 --> 00:09:27.256 se soubessem que uma empresa no Vale do Silício 00:09:27.280 --> 00:09:30.016 estivesse pronta para implantar uma IA superinteligente? 00:09:30.040 --> 00:09:32.896 Essa máquina seria capaz de travar uma guerra, 00:09:32.920 --> 00:09:35.136 terrestre ou cibernética, 00:09:35.160 --> 00:09:36.840 com poder sem precedente. 00:09:38.120 --> 00:09:39.976 É um cenário onde o vencedor leva tudo. 00:09:40.000 --> 00:09:43.136 Estar seis meses à frente da competição 00:09:43.160 --> 00:09:45.936 é como estar 500 mil anos adiantado, 00:09:45.960 --> 00:09:47.456 no mínimo. 00:09:47.480 --> 00:09:52.216 Parece que mesmo os meros rumores desse tipo de avanço 00:09:52.240 --> 00:09:54.616 poderiam causar fúria em nossa espécie. NOTE Paragraph 00:09:54.640 --> 00:09:57.536 Uma das coisas mais assustadoras, 00:09:57.560 --> 00:10:00.336 na minha opinião, nesse momento, 00:10:00.360 --> 00:10:04.656 são os tipos de coisas que os pesquisadores de IA dizem 00:10:04.680 --> 00:10:06.240 quando querem nos tranquilizar. 00:10:07.000 --> 00:10:10.456 E eles nos dizem para não nos preocuparmos com o tempo. 00:10:10.480 --> 00:10:12.536 Esse é um caminho longo, se você não sabe. 00:10:12.560 --> 00:10:15.000 Provavelmente está a 50, 100 anos de distância. 00:10:15.720 --> 00:10:16.976 Um pesquisador disse: 00:10:17.000 --> 00:10:18.716 "Se preocupar com a segurança de IA 00:10:18.716 --> 00:10:21.170 é como se preocupar com a superpopulação em Marte." 00:10:22.026 --> 00:10:23.730 Essa é a versão do Vale do Silício 00:10:23.730 --> 00:10:26.446 para que você "não esquente sua cabecinha linda." NOTE Paragraph 00:10:26.446 --> 00:10:27.496 (Risadas) NOTE Paragraph 00:10:27.520 --> 00:10:29.416 Ninguém parece perceber 00:10:29.440 --> 00:10:32.056 que fazer referência ao tempo 00:10:32.080 --> 00:10:34.656 é um argumento inválido. 00:10:34.680 --> 00:10:37.936 Se inteligência é questão de processamento de informação, 00:10:37.960 --> 00:10:40.616 e se continuarmos a aperfeiçoar nossas máquinas, 00:10:40.640 --> 00:10:43.520 produziremos alguma forma de superinteligência. 00:10:44.320 --> 00:10:47.976 E não temos ideia de quanto tempo vai demorar 00:10:48.000 --> 00:10:50.400 para fazer isso de forma segura. 00:10:52.200 --> 00:10:53.496 Vou dizer novamente. 00:10:53.520 --> 00:10:57.336 Não temos ideia de quanto tempo vai levar 00:10:57.360 --> 00:10:59.600 para fazer isso de forma segura. NOTE Paragraph 00:11:00.920 --> 00:11:04.376 E se você não percebeu, 50 anos não são mais o que costumavam ser. 00:11:04.400 --> 00:11:06.856 Isso são 50 anos em meses. 00:11:06.880 --> 00:11:08.720 Esta é a idade que tem o iPhone. 00:11:09.440 --> 00:11:12.040 Este é o tempo que Os Simpsons está na televisão. 00:11:12.680 --> 00:11:15.056 Cinquenta anos não é muito tempo 00:11:15.080 --> 00:11:18.240 para conhecer um dos maiores desafios que nossa espécie enfrentará. 00:11:19.640 --> 00:11:23.656 Novamente, parece que estamos falhando em uma reação emocional adequada 00:11:23.680 --> 00:11:26.376 a algo que, com certeza, está vindo. NOTE Paragraph 00:11:26.400 --> 00:11:30.376 O cientista de computação Stuart Russell possui uma bela analogia: 00:11:30.400 --> 00:11:35.236 imagine que recebamos uma mensagem de uma civilização alienígena, 00:11:35.242 --> 00:11:36.138 que diz: 00:11:36.794 --> 00:11:38.520 "Pessoas da Terra, 00:11:38.630 --> 00:11:41.316 chegaremos ao seu planeta em 50 anos. 00:11:41.770 --> 00:11:43.090 Se preparem." 00:11:43.453 --> 00:11:47.543 E agora estamos contando os meses até a chegada da nave-mãe? NOTE Paragraph 00:11:47.543 --> 00:11:50.569 Nós teríamos mais urgência do que temos agora. 00:11:52.340 --> 00:11:54.406 Outro motivo dito para não nos preocuparmos 00:11:54.406 --> 00:11:57.842 é que essas máquinas não podem evitar compartilhar nossos valores 00:11:57.842 --> 00:12:00.488 porque eles serão literalmente extensões de nós mesmos. 00:12:00.488 --> 00:12:02.888 Eles serão transplantados em nossos cérebros 00:12:02.888 --> 00:12:05.214 e nos tornaremos parte de seus sistemas límbicos. 00:12:05.224 --> 00:12:06.970 Reserve um momento para considerar 00:12:06.970 --> 00:12:10.726 que o único caminho prudente e seguro recomendado, 00:12:11.180 --> 00:12:14.556 é implantar essa tecnologia diretamente em nossos cérebros. 00:12:14.556 --> 00:12:18.152 Esse pode ser o caminho mais seguro e prudente, 00:12:18.330 --> 00:12:21.426 mas, normalmente, os problemas de segurança da tecnologia NOTE Paragraph 00:12:21.426 --> 00:12:24.752 precisam ser resolvidos antes de ser implantado dentro da sua cabeça. NOTE Paragraph 00:12:24.752 --> 00:12:26.478 (Risadas) 00:12:26.740 --> 00:12:31.576 O maior problema é que construir uma IA superinteligente por si só 00:12:32.240 --> 00:12:34.096 parece ser mais fácil 00:12:34.096 --> 00:12:35.872 do que construir IA superinteligente 00:12:35.872 --> 00:12:37.832 e ter a neurociência completa 00:12:37.832 --> 00:12:40.798 que nos permita integrar perfeitamente nossas mentes. 00:12:40.798 --> 00:12:44.234 E dado que empresas e governos que estão trabalhando nisso 00:12:44.234 --> 00:12:47.490 se encontram numa corrida uns contra os outros, 00:12:47.740 --> 00:12:50.366 dado que vencer essa corrida é conquistar o mundo, 00:12:51.010 --> 00:12:53.626 supondo que você não o destrua no momento seguinte, 00:12:53.626 --> 00:12:56.096 então parece que o que for mais fácil de se fazer NOTE Paragraph 00:12:56.096 --> 00:12:57.742 será feito primeiro. 00:12:58.620 --> 00:13:01.236 Infelizmente, eu não tenho a solução para esse problema, 00:13:01.240 --> 00:13:03.866 a não ser recomendar que outros pensem sobre isso. 00:13:03.866 --> 00:13:06.342 Acho que precisamos de algo como o Projeto Manhattan 00:13:06.342 --> 00:13:08.278 na área de inteligência artificial. 00:13:08.278 --> 00:13:11.434 Não para construir uma IA, porque vamos inevitavelmente fazer isso, 00:13:11.434 --> 00:13:14.580 mas para entender como evitar uma corrida armamentista 00:13:14.580 --> 00:13:17.636 e construir uma IA que esteja alinhada aos nossos interesses. 00:13:18.160 --> 00:13:20.416 Quando se fala de uma IA superinteligente 00:13:20.416 --> 00:13:22.702 que pode modificar a si mesma, 00:13:22.702 --> 00:13:27.148 parece que temos apenas uma chance para acertar as condições primárias 00:13:27.280 --> 00:13:29.660 e, mesmo assim, teremos que assimilar NOTE Paragraph 00:13:29.660 --> 00:13:32.726 as consequências econômicas e políticas desse acerto. 00:13:33.940 --> 00:13:35.890 Mas no momento em que admitirmos 00:13:35.890 --> 00:13:40.680 que o processamento de informação é a fonte da inteligência, 00:13:40.700 --> 00:13:45.810 que um sistema computacional apropriado é a base do que é a inteligência, 00:13:46.464 --> 00:13:50.920 e admitirmos que continuaremos a aprimorar esse sistema, 00:13:50.920 --> 00:13:55.460 e que o horizonte do conhecimento provavelmente ultrapassa 00:13:55.550 --> 00:13:57.136 tudo o que sabemos agora, 00:13:58.240 --> 00:13:59.780 então teremos que admitir 00:13:59.780 --> 00:14:02.526 que estamos no processo de criação de algum tipo de deus. 00:14:03.310 --> 00:14:05.723 Agora seria um ótimo momento de ter a certeza NOTE Paragraph 00:14:05.723 --> 00:14:07.679 de que é um deus com o qual podemos viver. NOTE Paragraph 00:14:08.100 --> 00:14:09.153 Muito obrigado. 00:14:09.153 --> 00:14:13.303 (Aplausos)