WEBVTT 00:00:00.475 --> 00:00:02.707 Dez anos atrás, escrevi um livro que chamei 00:00:02.707 --> 00:00:05.800 de "Nosso Último Século?", ponto de interrogação. 00:00:05.800 --> 00:00:09.377 Minha editora tirou o ponto de interrogação. (Risos) 00:00:09.377 --> 00:00:11.379 A editora americana mudou o título 00:00:11.379 --> 00:00:15.168 para "Nossa Última Hora". 00:00:15.168 --> 00:00:18.660 Os americanos adoram recompensa e tragédia instantânea. 00:00:18.660 --> 00:00:20.368 (Risos) NOTE Paragraph 00:00:20.368 --> 00:00:22.118 E o tema era o seguinte: 00:00:22.118 --> 00:00:26.284 A nossa Terra existe há 45 milhões de séculos, 00:00:26.284 --> 00:00:28.297 mas este é especial -- 00:00:28.297 --> 00:00:31.313 é o primeiro em que uma espécie, a nossa, 00:00:31.313 --> 00:00:34.115 tem o futuro do planeta nas mãos. 00:00:34.115 --> 00:00:36.105 Por quase toda a história da Terra, 00:00:36.105 --> 00:00:38.041 as ameaças vieram da natureza -- 00:00:38.041 --> 00:00:41.537 doenças, terremotos, asteroides e por aí vai -- 00:00:41.537 --> 00:00:46.619 mas de agora em diante, os piores perigos vêm de nós. 00:00:47.209 --> 00:00:50.480 E agora não é só a ameaça nuclear; 00:00:50.480 --> 00:00:52.231 no nosso mundo conectado, 00:00:52.231 --> 00:00:55.394 falhas de rede podem causar um efeito cascata no mundo todo; 00:00:55.394 --> 00:00:59.350 viagens aéreas podem espalhar pandemias pelo mundo em dias; 00:00:59.350 --> 00:01:02.677 e as redes sociais podem disseminar rumores e pânico 00:01:02.677 --> 00:01:05.894 literalmente à velocidade da luz. 00:01:05.894 --> 00:01:09.119 Nós ligamos demais para perigos menores -- 00:01:09.119 --> 00:01:13.150 acidentes aéreos improváveis, comidas cancerígenas, 00:01:13.150 --> 00:01:15.376 doses mínimas de radiação e por aí vai -- 00:01:15.376 --> 00:01:18.201 mas nós e nossos mestres políticos 00:01:18.201 --> 00:01:21.774 negamos as possíveis catástrofes. 00:01:22.404 --> 00:01:25.442 O pior, graças a Deus, ainda não aconteceu. 00:01:25.442 --> 00:01:27.638 De fato, provavelmente nem vai. 00:01:27.638 --> 00:01:30.823 Mas se um acontecimento é potencialmente catastrófico, 00:01:30.823 --> 00:01:33.691 vale a pena pagar um bom dinheiro 00:01:33.691 --> 00:01:37.527 para se proteger dele, por mais improvável que seja, 00:01:37.527 --> 00:01:41.236 do mesmo jeito que contratamos seguro contra fogo para nossas casas. NOTE Paragraph 00:01:42.040 --> 00:01:47.037 E conforme a ciência oferece poderes e promessas maiores, 00:01:47.648 --> 00:01:50.903 o lado ruim também fica mais assustador. 00:01:50.903 --> 00:01:53.142 A cada dia ficamos mais vulneráveis. 00:01:53.142 --> 00:01:54.980 Em algumas décadas, 00:01:54.980 --> 00:01:57.210 milhões de pessoas vão poder 00:01:57.210 --> 00:02:00.331 usar a biotecnologia emergente para o mal, 00:02:00.331 --> 00:02:03.884 assim como usam a cibertecnologia hoje. 00:02:03.884 --> 00:02:07.083 Freeman Dyson, durante uma palestra TED, 00:02:07.083 --> 00:02:10.679 previu que crianças vão desenhar e criar novos organismos 00:02:10.679 --> 00:02:15.190 com a mesma facilidade com que a geração dele brincava com kits de química. 00:02:15.190 --> 00:02:17.718 Bom, isso pode estar beirando a ficção científica, 00:02:17.718 --> 00:02:20.901 mas mesmo se só uma parte da sua previsão se concretizasse, 00:02:20.901 --> 00:02:23.638 nossa ecologia e até nossa espécie 00:02:23.638 --> 00:02:26.773 não ficariam incólumes por muito tempo. 00:02:27.627 --> 00:02:31.490 Por exemplo, há alguns ecoextremistas 00:02:31.490 --> 00:02:33.999 que acham que seria melhor para o planeta, 00:02:33.999 --> 00:02:37.402 para Gaia, se houvesse bem menos humanos. 00:02:37.402 --> 00:02:40.119 O que vai acontecer quando pessoas assim dominarem 00:02:40.119 --> 00:02:42.256 técnicas de biologia sintética 00:02:42.256 --> 00:02:45.108 que serão comuns em 2050? 00:02:45.108 --> 00:02:48.150 E até lá, outros pesadelos da ficção científica 00:02:48.150 --> 00:02:49.860 podem virar realidade: 00:02:49.860 --> 00:02:51.930 robôs burros se revoltando, 00:02:51.930 --> 00:02:54.347 ou uma rede que desenvolveu uma consciência própria 00:02:54.347 --> 00:02:56.726 ameaçando todos nós. NOTE Paragraph 00:02:56.936 --> 00:03:00.206 Será que podemos nos proteger desses riscos regulamentando-os? 00:03:00.206 --> 00:03:02.613 Com certeza devemos tentar, mas essas empreitadas 00:03:02.613 --> 00:03:06.142 são tão competitivas, globalizadas 00:03:06.142 --> 00:03:08.122 e dirigidas pela pressão comercial 00:03:08.122 --> 00:03:11.407 que qualquer coisa que possa ser feita vai ser feita em algum lugar, 00:03:11.407 --> 00:03:13.443 não importa o que as leis dizem. 00:03:13.443 --> 00:03:16.930 É como as leis antidrogas -- tentamos regulamentar, mas não dá. 00:03:16.930 --> 00:03:19.974 E a aldeia global vai ter seus idiotas da aldeia, 00:03:19.974 --> 00:03:23.470 e eles terão um alcance global. NOTE Paragraph 00:03:23.470 --> 00:03:25.761 Então, como eu disse no meu livro, 00:03:25.761 --> 00:03:28.650 vamos viver um século muito turbulento. 00:03:28.650 --> 00:03:31.900 Podem haver obstáculos para a nossa sociedade -- 00:03:31.900 --> 00:03:35.825 de fato, há uma chance de 50% de termos um grande obstáculo. 00:03:36.255 --> 00:03:39.169 Mas existem eventos concebíveis 00:03:39.169 --> 00:03:41.330 que poderiam ser muito piores? 00:03:41.330 --> 00:03:44.500 Eventos que poderiam eliminar toda a vida? 00:03:44.760 --> 00:03:47.586 Quando um novo acelerador de partículas foi inaugurado, 00:03:47.586 --> 00:03:49.475 algumas pessoas assustadas perguntaram: 00:03:49.475 --> 00:03:51.725 "Será que ele pode destruir a Terra, ou pior, 00:03:51.725 --> 00:03:54.384 rasgar o tecido do espaço?" 00:03:54.384 --> 00:03:57.927 Por sorte, foi possível tranquilizá-las. 00:03:57.927 --> 00:03:59.971 Eu mesmo e outros apontamos que a natureza 00:03:59.971 --> 00:04:04.014 já fez os mesmos experimentos zilhões de vezes 00:04:04.014 --> 00:04:05.855 através de colisões de raios cósmicos. 00:04:05.855 --> 00:04:08.909 Mas, é claro, os cientistas devem ser cuidadosos 00:04:08.909 --> 00:04:11.489 com experimentos que geram condições 00:04:11.489 --> 00:04:13.792 nunca ocorridas no mundo natural. 00:04:13.792 --> 00:04:17.395 Os biólogos devem evitar a liberação de patógenos geneticamente modificados 00:04:17.395 --> 00:04:20.110 potencialmente devastadores. NOTE Paragraph 00:04:20.110 --> 00:04:23.627 E por falar nisso, a nossa aversão em especial 00:04:23.627 --> 00:04:27.088 ao risco de desastres realmente possíveis 00:04:27.298 --> 00:04:30.363 depende de uma questão filosófica e ética, 00:04:30.363 --> 00:04:32.033 que é essa: 00:04:32.033 --> 00:04:34.341 imaginem duas situações. 00:04:34.341 --> 00:04:39.577 A situação A dizima 90% da humanidade 00:04:39.577 --> 00:04:43.473 e a situação B dizima 100%. 00:04:43.473 --> 00:04:46.391 Quão pior é B em relação a A? 00:04:46.391 --> 00:04:49.414 Alguns diriam que é 10% pior. 00:04:49.414 --> 00:04:52.564 A contagem de vítimas é 10% maior. 00:04:52.564 --> 00:04:55.470 Mas eu digo que B é incomparavelmente pior. 00:04:55.470 --> 00:04:58.099 Como astrônomo, eu não posso acreditar 00:04:58.099 --> 00:05:00.566 que os humanos são o fim da história. 00:05:01.016 --> 00:05:03.889 Faltam cinco bilhões de anos até o Sol explodir, 00:05:03.889 --> 00:05:06.600 e o universo pode continuar para sempre. 00:05:06.600 --> 00:05:08.892 Então, a evolução pós-humanos, 00:05:08.892 --> 00:05:11.082 aqui na Terra e além, 00:05:11.082 --> 00:05:13.796 pode ser tão longa quanto o processo darwiniano 00:05:13.796 --> 00:05:17.077 que nos gerou, e ainda mais maravilhosa. 00:05:17.077 --> 00:05:19.741 De fato, a evolução no futuro vai ser muito mais rápida, 00:05:19.741 --> 00:05:21.940 no que diz respeito à tecnologia, 00:05:21.940 --> 00:05:24.239 não à seleção natural. NOTE Paragraph 00:05:24.239 --> 00:05:28.434 Então nós, certamente, diante dessas apostas tão altas, 00:05:28.434 --> 00:05:31.820 não devemos aceitar nem uma chance em um bilhão 00:05:31.820 --> 00:05:34.049 de que a extinção humana elimine 00:05:34.049 --> 00:05:36.359 esse imenso potencial. 00:05:36.359 --> 00:05:38.131 Algumas situações propostas 00:05:38.131 --> 00:05:39.950 podem mesmo ser ficção científica, 00:05:39.950 --> 00:05:43.336 mas outras podem ser perturbadoramente reais. 00:05:43.336 --> 00:05:46.210 É uma máxima importante a de que o desconhecido 00:05:46.210 --> 00:05:48.907 não é o mesmo que o improvável, 00:05:48.907 --> 00:05:51.505 e é por isso que nós da Universidade de Cambridge 00:05:51.505 --> 00:05:54.680 estamos criando um centro para estudar como mitigar 00:05:54.680 --> 00:05:56.712 esses riscos concretos. 00:05:57.532 --> 00:05:59.775 Parece que só vale a pena para algumas pessoas 00:05:59.775 --> 00:06:02.091 pensar sobre esses desastres em potencial. 00:06:02.091 --> 00:06:05.104 Precisamos de toda a ajuda que conseguirmos de outras pessoas, 00:06:05.104 --> 00:06:07.583 porque nós somos os guardiões de um precioso 00:06:07.583 --> 00:06:11.066 pálido ponto azul em um vasto universo, 00:06:11.066 --> 00:06:14.444 um planeta com 50 milhões de séculos ainda para viver. 00:06:14.444 --> 00:06:17.000 Então, não vamos colocar esse futuro em risco. NOTE Paragraph 00:06:17.000 --> 00:06:18.795 Eu gostaria de terminar citando 00:06:18.795 --> 00:06:22.296 o grande cientista Peter Medawar. 00:06:22.296 --> 00:06:25.569 Ele disse: "Os sinos que tocam para a humanidade 00:06:25.569 --> 00:06:28.213 são como sinos de gado. 00:06:28.213 --> 00:06:30.499 Eles estão presos em nossos pescoços, 00:06:30.499 --> 00:06:33.174 e a culpa é nossa se eles não fizerem 00:06:33.174 --> 00:06:35.305 um som bonito e melodioso." NOTE Paragraph 00:06:35.305 --> 00:06:36.842 Muito obrigado. NOTE Paragraph 00:06:36.842 --> 00:06:38.905 (Aplausos)