Return to Video

Podemos evitar o fim do mundo?

  • 0:00 - 0:03
    Há dez anos, escrevi um livro
    a que dei o título
  • 0:03 - 0:06
    "O nosso último século?"
    Ponto de interrogação.
  • 0:06 - 0:09
    Os meus editores cortaram
    o ponto de interrogação.
  • 0:09 - 0:10
    (Risos)
  • 0:10 - 0:13
    Os editores norte-americanos
    mudaram o título para:
  • 0:13 - 0:15
    "A nossa última hora."
  • 0:15 - 0:16
    (Risos)
  • 0:16 - 0:19
    Os norte-americanos gostam de
    gratificação instantânea e do oposto.
  • 0:19 - 0:21
    (Risos)
  • 0:21 - 0:23
    O meu tema era o seguinte:
  • 0:23 - 0:27
    A nossa Terra existe
    há 45 milhões de séculos,
  • 0:27 - 0:29
    mas este é especial.
  • 0:29 - 0:32
    É o primeiro em que uma espécie, a nossa,
  • 0:32 - 0:34
    tem o futuro do planeta nas mãos.
  • 0:34 - 0:36
    Durante quase toda a história da Terra,
  • 0:36 - 0:39
    as ameaças surgiram da Natureza.
  • 0:39 - 0:42
    Doenças, tremores de terra,
    asteróides e outros.
  • 0:42 - 0:47
    Mas a partir de agora,
    os maiores perigos vêm de nós.
  • 0:47 - 0:51
    E já não é apenas a ameaça nuclear.
  • 0:51 - 0:53
    No nosso mundo interligado,
  • 0:53 - 0:56
    as falhas de rede podem
    suceder-se globalmente.
  • 0:56 - 1:00
    As viagens aéreas podem espalhar epidemias
    a nível mundial, em poucos dias;
  • 1:00 - 1:03
    e as redes sociais podem espalhar
    o pânico e rumores
  • 1:03 - 1:06
    à velocidade da luz, literalmente.
  • 1:06 - 1:10
    Lamuriamo-nos demasiado por causa
    de problemas menores
  • 1:10 - 1:13
    — quedas de avião improváveis,
    carcinogéneos na comida,
  • 1:13 - 1:16
    baixas doses de radiação
    e outras coisas —
  • 1:16 - 1:19
    mas nós e os nossos dirigentes políticos
  • 1:19 - 1:23
    estamos em negação em relação
    a cenários catastróficos.
  • 1:23 - 1:26
    Felizmente, o pior ainda não aconteceu.
  • 1:26 - 1:28
    De facto, provavelmente não acontecerá.
  • 1:28 - 1:31
    Mas se algo é potencialmente devastador,
  • 1:31 - 1:33
    vale a pena pagar um prémio considerável
  • 1:33 - 1:38
    para nos protegermos,
    mesmo sendo improvável,
  • 1:38 - 1:41
    tal como seguramos a nossa
    casa contra incêndios.
  • 1:42 - 1:47
    À medida que a ciência oferece
    maior poder e promessas,
  • 1:47 - 1:51
    a contrapartida torna-se
    também mais assustadora.
  • 1:51 - 1:53
    Ficamos cada vez mais vulneráveis.
  • 1:53 - 1:55
    Dentro de poucas décadas,
  • 1:55 - 1:57
    milhões terão a capacidade
  • 1:57 - 2:00
    de fazer um mau uso de biotecnologia
    em rápida evolução,
  • 2:00 - 2:04
    tal como fazem mau uso da tecnologia
    cibernética hoje em dia.
  • 2:04 - 2:07
    Freeman Dyson, numa TED Talk,
  • 2:07 - 2:11
    previu que as crianças desenharão
    e criarão novos organismos
  • 2:11 - 2:15
    de modo tão rotineiro como a sua geração
    brincava com conjuntos de química.
  • 2:15 - 2:18
    Isto pode estar no limiar
    da ficção científica,
  • 2:18 - 2:21
    mas mesmo que apenas uma parte
    deste cenário se concretizasse,
  • 2:21 - 2:24
    a nossa ecologia e até a nossa espécie
  • 2:24 - 2:28
    não escapariam incólumes por muito tempo.
  • 2:28 - 2:31
    Por exemplo, há alguns ecoextremistas
  • 2:31 - 2:34
    que pensam que seria
    melhor para o planeta
  • 2:34 - 2:37
    para Gaia, se houvesse
    muito menos humanos.
  • 2:37 - 2:40
    O que sucederá quando
    essas pessoas dominarem
  • 2:40 - 2:42
    as técnicas de biologia sintética
  • 2:42 - 2:46
    que estarão amplamente divulgadas em 2050?
  • 2:46 - 2:48
    E, nessa altura, outros pesadelos
    da ficção científica
  • 2:48 - 2:50
    poderão tornar-se realidade:
  • 2:50 - 2:52
    robôs estúpidos que se tornam velhacos
  • 2:52 - 2:55
    ou uma rede que desenvolve
    uma consciência própria
  • 2:55 - 2:57
    ameaçam-nos a todos.
  • 2:57 - 3:00
    Podemos proteger-nos desses riscos
    através de regulamentação?
  • 3:00 - 3:02
    Devemos certamente tentar,
  • 3:02 - 3:06
    mas estas empresas são tão
    competitivas, tão globalizadas,
  • 3:06 - 3:08
    e tão sujeitas a pressões comerciais,
  • 3:08 - 3:11
    que tudo o que possa ser feito,
    será feito algures,
  • 3:11 - 3:13
    independentemente da regulamentação.
  • 3:13 - 3:17
    É como as leis sobre a droga: tentamos
    regulamentar, mas não conseguimos.
  • 3:17 - 3:20
    E a aldeia global terá os
    seus idiotas da aldeia,
  • 3:20 - 3:23
    e eles terão um alcance global.
  • 3:24 - 3:26
    Como disse no meu livro,
  • 3:26 - 3:29
    teremos uma viagem acidentada
    através deste século.
  • 3:29 - 3:32
    A nossa sociedade poderá
    ter alguns reveses.
  • 3:32 - 3:36
    De facto, há uma possibilidade
    de 50% de ter um revés grave.
  • 3:37 - 3:41
    Mas poderemos conceber
    acontecimentos ainda piores?
  • 3:41 - 3:45
    Eventos que poderão aniquilar toda a vida?
  • 3:45 - 3:48
    Quando surgiu um novo
    acelerador de partículas,
  • 3:48 - 3:50
    algumas pessoas perguntaram ansiosamente
  • 3:50 - 3:52
    "Poderá destruir a Terra, ou pior ainda,
  • 3:52 - 3:55
    "desfazer a própria textura do espaço?"
  • 3:55 - 3:58
    Felizmente, podíamos ter alguma segurança.
  • 3:58 - 4:01
    Eu e outros recordámos que a Natureza
  • 4:01 - 4:04
    já fez as mesmas experiências,
    infinitas vezes,
  • 4:04 - 4:06
    através de colisões de raios cósmicos.
  • 4:06 - 4:09
    Mas os cientistas devem
    certamente ser cautelosos
  • 4:09 - 4:11
    com as experiências que criem condições
  • 4:11 - 4:15
    sem precedentes no mundo natural.
  • 4:15 - 4:18
    Os biólogos devem evitar produzir
    patogénicos geneticamente modificados
  • 4:18 - 4:21
    potencialmente devastadores.
  • 4:21 - 4:24
    A propósito, a nossa aversão especial
  • 4:24 - 4:28
    ao risco de verdadeiros
    desastres existenciais
  • 4:28 - 4:30
    depende de uma questão filosófica e ética
  • 4:30 - 4:33
    que é a seguinte:
  • 4:33 - 4:35
    Considerem dois cenários:
  • 4:35 - 4:40
    O cenário A elimina 90% da Humanidade.
  • 4:40 - 4:44
    O cenário B elimina 100%.
  • 4:44 - 4:47
    Quão pior é o B do que o A?
  • 4:47 - 4:50
    Alguns diriam 10% pior.
  • 4:50 - 4:53
    A contagem de corpos é 10% mais alta.
  • 4:53 - 4:56
    Eu considero que o B é
    incomparavelmente pior.
  • 4:56 - 5:01
    Como astrónomo, não posso acreditar
    que os humanos são o fim da história.
  • 5:01 - 5:04
    Faltam cinco mil milhões de anos
    até o sol explodir,
  • 5:04 - 5:07
    e o universo pode continuar para sempre,
  • 5:07 - 5:09
    por isso a evolução pós-humana
  • 5:09 - 5:11
    aqui na Terra e bastante mais longe
  • 5:11 - 5:14
    pode ser tão prolongada
    como o processo darwiniano
  • 5:14 - 5:17
    de que somos o resultado
    e até mais maravilhosa.
  • 5:17 - 5:20
    De facto, a evolução futura
    será muito mais rápida,
  • 5:20 - 5:24
    numa escala de tempo tecnológica,
    não de seleção natural.
  • 5:25 - 5:28
    Tendo em vista esses marcos imensos
  • 5:28 - 5:32
    não deveríamos aceitar sequer
    um risco de um para mil milhões
  • 5:32 - 5:37
    de que a extinção humana possa
    impedir este imenso potencial.
  • 5:37 - 5:40
    Alguns dos cenários apresentados
    poderão ser ficção científica,
  • 5:40 - 5:43
    mas outros poderão ser
    inquietantemente reais.
  • 5:43 - 5:46
    Uma máxima importante
    diz que o que não é familiar
  • 5:46 - 5:49
    não é necessariamente improvável.
  • 5:49 - 5:53
    Por isso, na Universidade de Cambridge
    estamos a criar um centro
  • 5:53 - 5:57
    para investigar como mitigar
    estes riscos existenciais.
  • 5:57 - 6:00
    Parece valer a pena, para algumas pessoas,
  • 6:00 - 6:03
    pensar nestes desastres potenciais.
  • 6:03 - 6:05
    Precisamos de toda a ajuda que consigamos,
  • 6:05 - 6:07
    porque somos mordomos
  • 6:07 - 6:11
    num precioso e pálido ponto
    azul num vasto cosmos,
  • 6:11 - 6:15
    um planeta que tem pela frente
    50 milhões de séculos.
  • 6:15 - 6:17
    Não desperdicemos esse futuro.
  • 6:17 - 6:19
    Gostaria de terminar com uma frase
  • 6:19 - 6:22
    de um grande cientista
    chamado Peter Medawar.
  • 6:22 - 6:26
    Cito: "Os sinos que dobram pela Humanidade
  • 6:26 - 6:29
    "são como os do gado alpino.
  • 6:29 - 6:31
    "Estão ligados ao nosso pescoço,
  • 6:31 - 6:36
    "e será por nossa culpa se não fizerem
    um som afinado e melodioso."
  • 6:36 - 6:37
    Muito obrigado.
  • 6:37 - 6:40
    (Aplausos)
Title:
Podemos evitar o fim do mundo?
Speaker:
Sir Martin Rees
Description:

Uma Terra pós-apocalíptica, sem humanos, parece algo da ficção científica da televisão e dos filmes. Mas nesta palestra breve e surpreendente, Lord Martin Rees pede-nos que pensemos nos riscos reais da nossa existência — ameaças naturais ou criadas pelos humanos que podem aniquilar a Humanidade. Como membro preocupado da raça humana, questiona: Qual é a pior coisa que pode eventualmente acontecer?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Portuguese subtitles

Revisions