0:00:00.475,0:00:02.707 Dez anos atrás, escrevi[br]um livro que chamei 0:00:02.707,0:00:05.800 de "Nosso Último Século?",[br]ponto de interrogação. 0:00:05.800,0:00:09.377 Minha editora tirou[br]o ponto de interrogação. (Risos) 0:00:09.377,0:00:11.379 A editora americana mudou o título 0:00:11.379,0:00:15.168 para "Nossa Última Hora". 0:00:15.168,0:00:18.660 Os americanos adoram recompensa [br]e tragédia instantânea. 0:00:18.660,0:00:20.368 (Risos) 0:00:20.368,0:00:22.118 E o tema era o seguinte: 0:00:22.118,0:00:26.284 A nossa Terra existe há[br]45 milhões de séculos, 0:00:26.284,0:00:28.297 mas este é especial -- 0:00:28.297,0:00:31.313 é o primeiro em que[br]uma espécie, a nossa, 0:00:31.313,0:00:34.115 tem o futuro do planeta nas mãos. 0:00:34.115,0:00:36.105 Por quase toda a história da Terra, 0:00:36.105,0:00:38.041 as ameaças vieram da natureza -- 0:00:38.041,0:00:41.537 doenças, terremotos,[br]asteroides e por aí vai -- 0:00:41.537,0:00:46.619 mas de agora em diante,[br]os piores perigos vêm de nós. 0:00:47.209,0:00:50.480 E agora não é só a ameaça nuclear; 0:00:50.480,0:00:52.231 no nosso mundo conectado, 0:00:52.231,0:00:55.394 falhas de rede podem causar[br]um efeito cascata no mundo todo; 0:00:55.394,0:00:59.350 viagens aéreas podem espalhar[br]pandemias pelo mundo em dias; 0:00:59.350,0:01:02.677 e as redes sociais podem[br]disseminar rumores e pânico 0:01:02.677,0:01:05.894 literalmente à velocidade da luz. 0:01:05.894,0:01:09.119 Nós ligamos demais [br]para perigos menores -- 0:01:09.119,0:01:13.150 acidentes aéreos improváveis,[br]comidas cancerígenas, 0:01:13.150,0:01:15.376 doses mínimas de radiação e por aí vai -- 0:01:15.376,0:01:18.201 mas nós e nossos mestres políticos 0:01:18.201,0:01:21.774 negamos as possíveis catástrofes. 0:01:22.404,0:01:25.442 O pior, graças a Deus,[br]ainda não aconteceu. 0:01:25.442,0:01:27.638 De fato, provavelmente nem vai. 0:01:27.638,0:01:30.823 Mas se um acontecimento[br]é potencialmente catastrófico, 0:01:30.823,0:01:33.691 vale a pena pagar um bom dinheiro 0:01:33.691,0:01:37.527 para se proteger dele,[br]por mais improvável que seja, 0:01:37.527,0:01:41.236 do mesmo jeito que contratamos[br]seguro contra fogo para nossas casas. 0:01:42.040,0:01:47.037 E conforme a ciência oferece[br]poderes e promessas maiores, 0:01:47.648,0:01:50.903 o lado ruim também fica mais assustador. 0:01:50.903,0:01:53.142 A cada dia ficamos mais vulneráveis. 0:01:53.142,0:01:54.980 Em algumas décadas, 0:01:54.980,0:01:57.210 milhões de pessoas vão poder 0:01:57.210,0:02:00.331 usar a biotecnologia emergente para o mal, 0:02:00.331,0:02:03.884 assim como usam a cibertecnologia hoje. 0:02:03.884,0:02:07.083 Freeman Dyson, durante uma palestra TED, 0:02:07.083,0:02:10.679 previu que crianças vão desenhar[br]e criar novos organismos 0:02:10.679,0:02:15.190 com a mesma facilidade com que a geração[br]dele brincava com kits de química. 0:02:15.190,0:02:17.718 Bom, isso pode estar[br]beirando a ficção científica, 0:02:17.718,0:02:20.901 mas mesmo se só uma parte[br]da sua previsão se concretizasse, 0:02:20.901,0:02:23.638 nossa ecologia e até nossa espécie 0:02:23.638,0:02:26.773 não ficariam incólumes por muito tempo. 0:02:27.627,0:02:31.490 Por exemplo, há alguns ecoextremistas 0:02:31.490,0:02:33.999 que acham que seria melhor para o planeta, 0:02:33.999,0:02:37.402 para Gaia, se houvesse bem menos humanos. 0:02:37.402,0:02:40.119 O que vai acontecer quando[br]pessoas assim dominarem 0:02:40.119,0:02:42.256 técnicas de biologia sintética 0:02:42.256,0:02:45.108 que serão comuns em 2050? 0:02:45.108,0:02:48.150 E até lá, outros pesadelos[br]da ficção científica 0:02:48.150,0:02:49.860 podem virar realidade: 0:02:49.860,0:02:51.930 robôs burros se revoltando, 0:02:51.930,0:02:54.347 ou uma rede que desenvolveu[br]uma consciência própria 0:02:54.347,0:02:56.726 ameaçando todos nós. 0:02:56.936,0:03:00.206 Será que podemos nos proteger[br]desses riscos regulamentando-os? 0:03:00.206,0:03:02.613 Com certeza devemos tentar, [br]mas essas empreitadas 0:03:02.613,0:03:06.142 são tão competitivas, globalizadas 0:03:06.142,0:03:08.122 e dirigidas pela pressão comercial 0:03:08.122,0:03:11.407 que qualquer coisa que possa ser feita[br]vai ser feita em algum lugar, 0:03:11.407,0:03:13.443 não importa o que as leis dizem. 0:03:13.443,0:03:16.930 É como as leis antidrogas --[br]tentamos regulamentar, mas não dá. 0:03:16.930,0:03:19.974 E a aldeia global vai ter seus[br]idiotas da aldeia, 0:03:19.974,0:03:23.470 e eles terão um alcance global. 0:03:23.470,0:03:25.761 Então, como eu disse no meu livro, 0:03:25.761,0:03:28.650 vamos viver um século muito turbulento. 0:03:28.650,0:03:31.900 Podem haver obstáculos[br]para a nossa sociedade -- 0:03:31.900,0:03:35.825 de fato, há uma chance de[br]50% de termos um grande obstáculo. 0:03:36.255,0:03:39.169 Mas existem eventos concebíveis 0:03:39.169,0:03:41.330 que poderiam ser muito piores? 0:03:41.330,0:03:44.500 Eventos que poderiam eliminar toda a vida? 0:03:44.760,0:03:47.586 Quando um novo acelerador[br]de partículas foi inaugurado, 0:03:47.586,0:03:49.475 algumas pessoas assustadas perguntaram: 0:03:49.475,0:03:51.725 "Será que ele pode[br]destruir a Terra, ou pior, 0:03:51.725,0:03:54.384 rasgar o tecido do espaço?" 0:03:54.384,0:03:57.927 Por sorte, foi possível tranquilizá-las. 0:03:57.927,0:03:59.971 Eu mesmo e outros apontamos que a natureza 0:03:59.971,0:04:04.014 já fez os mesmos experimentos[br]zilhões de vezes 0:04:04.014,0:04:05.855 através de colisões de raios cósmicos. 0:04:05.855,0:04:08.909 Mas, é claro, [br]os cientistas devem ser cuidadosos 0:04:08.909,0:04:11.489 com experimentos que geram condições 0:04:11.489,0:04:13.792 nunca ocorridas no mundo natural. 0:04:13.792,0:04:17.395 Os biólogos devem evitar a liberação[br]de patógenos geneticamente modificados 0:04:17.395,0:04:20.110 potencialmente devastadores. 0:04:20.110,0:04:23.627 E por falar nisso,[br]a nossa aversão em especial 0:04:23.627,0:04:27.088 ao risco de desastres realmente possíveis 0:04:27.298,0:04:30.363 depende de uma questão filosófica e ética, 0:04:30.363,0:04:32.033 que é essa: 0:04:32.033,0:04:34.341 imaginem duas situações. 0:04:34.341,0:04:39.577 A situação A dizima 90% da humanidade 0:04:39.577,0:04:43.473 e a situação B dizima 100%. 0:04:43.473,0:04:46.391 Quão pior é B em relação a A? 0:04:46.391,0:04:49.414 Alguns diriam que é 10% pior. 0:04:49.414,0:04:52.564 A contagem de vítimas é 10% maior. 0:04:52.564,0:04:55.470 Mas eu digo que B é[br]incomparavelmente pior. 0:04:55.470,0:04:58.099 Como astrônomo, eu não posso acreditar 0:04:58.099,0:05:00.566 que os humanos são o fim da história. 0:05:01.016,0:05:03.889 Faltam cinco bilhões de anos[br]até o Sol explodir, 0:05:03.889,0:05:06.600 e o universo pode continuar para sempre. 0:05:06.600,0:05:08.892 Então, a evolução pós-humanos, 0:05:08.892,0:05:11.082 aqui na Terra e além, 0:05:11.082,0:05:13.796 pode ser tão longa quanto[br]o processo darwiniano 0:05:13.796,0:05:17.077 que nos gerou, e ainda mais maravilhosa. 0:05:17.077,0:05:19.741 De fato, a evolução no futuro[br]vai ser muito mais rápida, 0:05:19.741,0:05:21.940 no que diz respeito à tecnologia, 0:05:21.940,0:05:24.239 não à seleção natural. 0:05:24.239,0:05:28.434 Então nós, certamente, diante[br]dessas apostas tão altas, 0:05:28.434,0:05:31.820 não devemos aceitar nem[br]uma chance em um bilhão 0:05:31.820,0:05:34.049 de que a extinção humana elimine 0:05:34.049,0:05:36.359 esse imenso potencial. 0:05:36.359,0:05:38.131 Algumas situações propostas 0:05:38.131,0:05:39.950 podem mesmo ser ficção científica, 0:05:39.950,0:05:43.336 mas outras podem ser[br]perturbadoramente reais. 0:05:43.336,0:05:46.210 É uma máxima importante[br]a de que o desconhecido 0:05:46.210,0:05:48.907 não é o mesmo que o improvável, 0:05:48.907,0:05:51.505 e é por isso que nós[br]da Universidade de Cambridge 0:05:51.505,0:05:54.680 estamos criando um centro[br]para estudar como mitigar 0:05:54.680,0:05:56.712 esses riscos concretos. 0:05:57.532,0:05:59.775 Parece que só vale a pena[br]para algumas pessoas 0:05:59.775,0:06:02.091 pensar sobre esses desastres em potencial. 0:06:02.091,0:06:05.104 Precisamos de toda a ajuda[br]que conseguirmos de outras pessoas, 0:06:05.104,0:06:07.583 porque nós somos[br]os guardiões de um precioso 0:06:07.583,0:06:11.066 pálido ponto azul em um vasto universo, 0:06:11.066,0:06:14.444 um planeta com 50 milhões[br]de séculos ainda para viver. 0:06:14.444,0:06:17.000 Então, não vamos[br]colocar esse futuro em risco. 0:06:17.000,0:06:18.795 Eu gostaria de terminar citando 0:06:18.795,0:06:22.296 o grande cientista Peter Medawar. 0:06:22.296,0:06:25.569 Ele disse: "Os sinos que tocam[br]para a humanidade 0:06:25.569,0:06:28.213 são como sinos de gado. 0:06:28.213,0:06:30.499 Eles estão presos em nossos pescoços, 0:06:30.499,0:06:33.174 e a culpa é nossa se eles não fizerem 0:06:33.174,0:06:35.305 um som bonito e melodioso." 0:06:35.305,0:06:36.842 Muito obrigado. 0:06:36.842,0:06:38.905 (Aplausos)