Return to Video

¿Podemos evitar el fin del mundo?

  • 0:00 - 0:03
    Hace 10 años escribí
    un libro que titulé:
  • 0:03 - 0:06
    "¿Nuestro siglo final?"
    Signos de interrogación.
  • 0:06 - 0:09
    Mis editores quitaron los signos
    de interrogación. (Risas)
  • 0:09 - 0:11
    Los editores estadounidenses
    cambiaron el título por:
  • 0:11 - 0:15
    "Nuestra hora final".
  • 0:15 - 0:19
    A los estadounidenses les gusta la
    gratificación instantánea y lo contrario.
  • 0:19 - 0:20
    (Risas)
  • 0:20 - 0:22
    El tema era este:
  • 0:22 - 0:26
    Nuestra Tierra ha existido durante
    45 millones de siglos,
  • 0:26 - 0:28
    pero este siglo es especial;
  • 0:28 - 0:31
    es el primero en el que
    una especie, la nuestra,
  • 0:31 - 0:34
    tiene el futuro del planeta
    en sus manos.
  • 0:34 - 0:36
    Durante casi toda la
    historia de la Tierra,
  • 0:36 - 0:38
    las amenazas provinieron
    de la Naturaleza:
  • 0:38 - 0:42
    enfermedades, terremotos,
    asteroides, etc.;
  • 0:42 - 0:47
    pero a partir de ahora, los peores
    peligros vienen de nosotros.
  • 0:47 - 0:50
    Y ahora no solo está
    la amenaza nuclear;
  • 0:50 - 0:52
    en nuestro mundo interconectado,
  • 0:52 - 0:55
    las fallas de red pueden propagarse
    en cascada por el mundo;
  • 0:55 - 0:59
    los viajes en avión pueden propagar pandemias
    por el mundo en cuestión de días;
  • 0:59 - 1:03
    y los medios sociales pueden
    propagar pánico y rumores
  • 1:03 - 1:06
    literalmente a la
    velocidad de la luz.
  • 1:06 - 1:09
    Nos preocupamos demasiado
    por riesgos menores:
  • 1:09 - 1:13
    accidentes aéreos improbables,
    sustancias cancerígenas en los alimentos,
  • 1:13 - 1:15
    dosis bajas de radiación, etc.;
  • 1:15 - 1:18
    pero nosotros y nuestros políticos
  • 1:18 - 1:22
    negamos los escenarios catastróficos.
  • 1:22 - 1:25
    Por suerte, aún no ha sucedido lo peor.
  • 1:25 - 1:28
    De hecho, quizá no ocurrirá.
  • 1:28 - 1:31
    Pero si un evento es
    potencialmente devastador,
  • 1:31 - 1:34
    vale la pena pagar
    una prima sustancial
  • 1:34 - 1:38
    para protegerse en contra de eso,
    aunque sea poco probable,
  • 1:38 - 1:42
    así como tenemos un seguro
    de incendio en nuestra casa.
  • 1:42 - 1:47
    Y así como la ciencia ofrece
    mayor poder y más promesas,
  • 1:47 - 1:51
    el lado negativo
    da más miedo también.
  • 1:51 - 1:53
    Somos cada vez más vulnerables.
  • 1:53 - 1:55
    En unas pocas décadas,
  • 1:55 - 1:57
    millones podrán
  • 1:57 - 2:00
    usar mal los rápidos
    avances en biotecnología
  • 2:00 - 2:04
    así como hoy usan mal
    la cibertecnología.
  • 2:04 - 2:07
    Freeman Dyson, en una charla TED,
  • 2:07 - 2:11
    previó que los niños diseñarán
    y crearán nuevos organismos
  • 2:11 - 2:15
    tan rutinariamente como su generación
    jugaba con juegos de química.
  • 2:15 - 2:18
    Bueno, esto puede ser
    de ciencia ficción,
  • 2:18 - 2:21
    pero, de ocurrir ese escenario,
  • 2:21 - 2:24
    nuestra ecología
    e incluso nuestra especie
  • 2:24 - 2:28
    seguramente no sobreviviría
    mucho tiempo indemne.
  • 2:28 - 2:31
    Por ejemplo, hay algunos
    eco-extremistas
  • 2:31 - 2:34
    que piensan que sería
    mejor para el planeta,
  • 2:34 - 2:37
    para Gaia, si hubiera
    muchos menos humanos.
  • 2:37 - 2:40
    ¿Qué sucederá cuando estas
    personas dominen
  • 2:40 - 2:42
    técnicas de biología sintética
  • 2:42 - 2:45
    comunes en el 2050?
  • 2:45 - 2:48
    Para entonces, otras pesadillas
    de ciencia ficción
  • 2:48 - 2:50
    pueden hacerse realidad:
  • 2:50 - 2:52
    robots tontos que se vuelven hostiles,
  • 2:52 - 2:54
    o una red desarrolla una mente propia
  • 2:54 - 2:57
    y nos amenaza a todos.
  • 2:57 - 3:00
    Bueno, ¿podemos protegernos de
    tales riesgos con regulación?
  • 3:00 - 3:03
    Sin duda hay que probar,
    pero estas empresas
  • 3:03 - 3:06
    son tan competitivas,
    tan globalizadas,
  • 3:06 - 3:08
    impulsadas por tanta
    presión comercial,
  • 3:08 - 3:11
    que cualquier cosa posible de hacer
    se hará en alguna parte,
  • 3:11 - 3:13
    sin importar lo que digan
    las regulaciones.
  • 3:13 - 3:17
    Es como las leyes antinarcóticos,
    tratamos de regular, pero no podemos.
  • 3:17 - 3:20
    Y la aldea global tendrá
    sus tontos de aldea,
  • 3:20 - 3:23
    que tendrán un rango global.
  • 3:23 - 3:26
    Por eso, como dije en mi libro,
  • 3:26 - 3:29
    tendremos un viaje lleno
    de baches en este siglo.
  • 3:29 - 3:32
    Puede haber retrocesos
    en nuestra sociedad;
  • 3:32 - 3:36
    de hecho, existe una probabilidad
    del 50 % de un severo revés.
  • 3:36 - 3:39
    Pero ¿hay eventos concebibles
  • 3:39 - 3:41
    que puedan ser incluso peores,
  • 3:41 - 3:45
    que puedan extinguir la vida?
  • 3:45 - 3:48
    Cuando aparece un nuevo
    acelerador de partículas,
  • 3:48 - 3:49
    algunos preguntan con inquietud:
  • 3:49 - 3:52
    ¿Podría destruir la Tierra,
    o incluso peor,
  • 3:52 - 3:54
    desintegrar por completo
    el tejido del espacio?
  • 3:54 - 3:58
    Bueno por suerte hay consuelo.
  • 3:58 - 4:00
    Junto con otra gente
    señalo que la Naturaleza
  • 4:00 - 4:02
    ya ha hecho los mismos experimentos
  • 4:02 - 4:04
    millones y millones de veces
  • 4:04 - 4:06
    vía colisiones de rayos cósmicos.
  • 4:06 - 4:09
    Pero los científicos
    deberían tener precauciones
  • 4:09 - 4:11
    con experimentos que generen condiciones
  • 4:11 - 4:14
    sin precedentes en el mundo natural.
  • 4:14 - 4:17
    Los biólogos deben evitar la liberación
    potencialmente devastadora
  • 4:17 - 4:20
    de patógenos genéticamente modificados.
  • 4:20 - 4:24
    Y, por cierto, nuestra aversión especial
  • 4:24 - 4:27
    al riesgo de desastres
    verdaderamente existenciales
  • 4:27 - 4:30
    depende de una cuestión
    filosófica y ética,
  • 4:30 - 4:32
    y es esta:
  • 4:32 - 4:34
    Consideren 2 escenarios.
  • 4:34 - 4:40
    El Escenario A arrasa
    al 90 % de la humanidad.
  • 4:40 - 4:43
    El Escenario B arrasa al 100 %.
  • 4:43 - 4:46
    ¿Cuánto peor es B que A?
  • 4:46 - 4:49
    Algunos dirían 10 % peor.
  • 4:49 - 4:53
    El conteo de cuerpos es 10 % más alto.
  • 4:53 - 4:55
    Pero yo sostengo que B
    es incomparablemente peor.
  • 4:55 - 4:58
    Como astrónomo no puedo creer
  • 4:58 - 5:01
    que los humanos seamos
    el fin de la historia.
  • 5:01 - 5:04
    Faltan 5000 millones de años
    para que estalle el Sol,
  • 5:04 - 5:07
    y el universo puede
    seguir para siempre,
  • 5:07 - 5:09
    por eso la evolución post-humana
  • 5:09 - 5:11
    aquí en la Tierra y mucho más allá,
  • 5:11 - 5:14
    podría prolongarse como
    el proceso darwiniano
  • 5:14 - 5:17
    que condujo a nosotros,
    y ser aún más maravilloso.
  • 5:17 - 5:20
    Y, en efecto, la evolución futura
    ocurrirá mucho más rápido,
  • 5:20 - 5:22
    a escala de tiempo tecnológico,
  • 5:22 - 5:24
    no a escala de tiempo
    de selección natural.
  • 5:24 - 5:28
    Así que sin duda, en vista de
    lo mucho que está en juego,
  • 5:28 - 5:32
    no deberíamos aceptar un riesgo
    ni de 1 en 1000 millones
  • 5:32 - 5:34
    de que la extinción humana nos quite
  • 5:34 - 5:36
    este inmenso potencial.
  • 5:36 - 5:38
    Algunos de los escenarios previstos
  • 5:38 - 5:40
    pueden ser incluso de ciencia ficción,
  • 5:40 - 5:43
    pero otros pueden ser inquietantemente reales.
  • 5:43 - 5:46
    Es una máxima importante que lo no familiar
  • 5:46 - 5:49
    no es lo mismo que lo improbable,
  • 5:49 - 5:51
    y, de hecho, por eso en la
    Universidad de Cambridge
  • 5:51 - 5:55
    creamos un centro para
    estudiar cómo mitigar
  • 5:55 - 5:57
    estos riesgos existenciales.
  • 5:57 - 6:00
    Parece que vale la pena
    que unas pocas personas
  • 6:00 - 6:02
    piensen en estos
    desastres potenciales.
  • 6:02 - 6:05
    Necesitamos toda la ayuda
    que podamos conseguir de otros,
  • 6:05 - 6:08
    porque somos guardianes de un valioso
  • 6:08 - 6:11
    punto azul pálido en un vasto cosmos,
  • 6:11 - 6:14
    un planeta con 50 millones
    de siglos por delante.
  • 6:14 - 6:17
    Así que no pongamos
    en peligro ese futuro.
  • 6:17 - 6:19
    Y quiero terminar con la cita
  • 6:19 - 6:22
    de un gran científico
    llamado Peter Medawar.
  • 6:22 - 6:26
    Cito: "Las campanas que
    doblan por la humanidad
  • 6:26 - 6:28
    son como los cencerros
    del ganado alpino.
  • 6:28 - 6:30
    Están unidas a nuestros propios cuellos,
  • 6:30 - 6:33
    y debe ser culpa nuestra si no producen
  • 6:33 - 6:35
    un sonido armonioso y melódico".
  • 6:35 - 6:36
    Muchas gracias.
  • 6:36 - 6:39
    (Aplausos)
Title:
¿Podemos evitar el fin del mundo?
Speaker:
Sir Martin Rees
Description:

Una Tierra post-apocalíptica, sin humanos, parece cosa de la ciencia ficción de la TV y el cine. Pero en esta charla breve y sorprendente, Sir Martin Rees nos pide pensar en nuestros verdaderos riesgos existenciales, en las amenazas naturales y en los hechos generados por el hombre que podrían acabar con la humanidad. Como miembro preocupado por la especie humana se pregunta: ¿Qué es lo peor que podría pasar?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Spanish subtitles

Revisions Compare revisions