0:00:00.485,0:00:02.707 Hace 10 años escribí [br]un libro que titulé: 0:00:02.707,0:00:05.800 "¿Nuestro siglo final?" [br]Signos de interrogación. 0:00:05.800,0:00:09.377 Mis editores quitaron los signos [br]de interrogación. (Risas) 0:00:09.377,0:00:11.259 Los editores estadounidenses [br]cambiaron el título por: 0:00:11.259,0:00:15.168 "Nuestra hora final". 0:00:15.168,0:00:18.660 A los estadounidenses les gusta la [br]gratificación instantánea y lo contrario. 0:00:18.660,0:00:20.368 (Risas) 0:00:20.368,0:00:22.118 El tema era este: 0:00:22.118,0:00:26.284 Nuestra Tierra ha existido durante [br]45 millones de siglos, 0:00:26.284,0:00:28.297 pero este siglo es especial; 0:00:28.297,0:00:31.313 es el primero en el que [br]una especie, la nuestra, 0:00:31.313,0:00:34.115 tiene el futuro del planeta [br]en sus manos. 0:00:34.115,0:00:36.105 Durante casi toda la [br]historia de la Tierra, 0:00:36.105,0:00:38.041 las amenazas provinieron [br]de la Naturaleza: 0:00:38.041,0:00:41.537 enfermedades, terremotos, [br]asteroides, etc.; 0:00:41.537,0:00:47.209 pero a partir de ahora, los peores [br]peligros vienen de nosotros. 0:00:47.209,0:00:50.480 Y ahora no solo está [br]la amenaza nuclear; 0:00:50.480,0:00:52.231 en nuestro mundo interconectado, 0:00:52.231,0:00:55.394 las fallas de red pueden propagarse [br]en cascada por el mundo; 0:00:55.394,0:00:59.350 los viajes en avión pueden propagar pandemias [br]por el mundo en cuestión de días; 0:00:59.350,0:01:02.677 y los medios sociales pueden [br]propagar pánico y rumores 0:01:02.677,0:01:05.894 literalmente a la [br]velocidad de la luz. 0:01:05.894,0:01:09.119 Nos preocupamos demasiado [br]por riesgos menores: 0:01:09.119,0:01:13.150 accidentes aéreos improbables, [br]sustancias cancerígenas en los alimentos, 0:01:13.150,0:01:15.376 dosis bajas de radiación, etc.; 0:01:15.376,0:01:18.201 pero nosotros y nuestros políticos 0:01:18.201,0:01:22.404 negamos los escenarios catastróficos. 0:01:22.404,0:01:25.442 Por suerte, aún no ha sucedido lo peor. 0:01:25.442,0:01:27.638 De hecho, quizá no ocurrirá. 0:01:27.638,0:01:30.823 Pero si un evento es [br]potencialmente devastador, 0:01:30.823,0:01:33.691 vale la pena pagar [br]una prima sustancial 0:01:33.691,0:01:37.527 para protegerse en contra de eso, [br]aunque sea poco probable, 0:01:37.527,0:01:42.040 así como tenemos un seguro [br]de incendio en nuestra casa. 0:01:42.040,0:01:47.037 Y así como la ciencia ofrece [br]mayor poder y más promesas, 0:01:47.037,0:01:50.903 el lado negativo [br]da más miedo también. 0:01:50.903,0:01:53.142 Somos cada vez más vulnerables. 0:01:53.142,0:01:54.980 En unas pocas décadas, 0:01:54.980,0:01:57.210 millones podrán 0:01:57.210,0:02:00.331 usar mal los rápidos [br]avances en biotecnología 0:02:00.331,0:02:03.884 así como hoy usan mal [br]la cibertecnología. 0:02:03.884,0:02:07.083 Freeman Dyson, en una charla TED, 0:02:07.083,0:02:10.679 previó que los niños diseñarán [br]y crearán nuevos organismos 0:02:10.679,0:02:15.190 tan rutinariamente como su generación [br]jugaba con juegos de química. 0:02:15.190,0:02:17.718 Bueno, esto puede ser [br]de ciencia ficción, 0:02:17.718,0:02:20.901 pero, de ocurrir ese escenario, 0:02:20.901,0:02:23.638 nuestra ecología [br]e incluso nuestra especie 0:02:23.638,0:02:27.627 seguramente no sobreviviría [br]mucho tiempo indemne. 0:02:27.627,0:02:31.490 Por ejemplo, hay algunos [br]eco-extremistas 0:02:31.490,0:02:33.999 que piensan que sería [br]mejor para el planeta, 0:02:33.999,0:02:37.402 para Gaia, si hubiera [br]muchos menos humanos. 0:02:37.402,0:02:40.119 ¿Qué sucederá cuando estas [br]personas dominen 0:02:40.119,0:02:42.256 técnicas de biología sintética 0:02:42.256,0:02:45.108 comunes en el 2050? 0:02:45.108,0:02:48.150 Para entonces, otras pesadillas [br]de ciencia ficción 0:02:48.150,0:02:49.860 pueden hacerse realidad: 0:02:49.860,0:02:51.930 robots tontos que se vuelven hostiles, 0:02:51.930,0:02:54.347 o una red desarrolla una mente propia 0:02:54.347,0:02:56.936 y nos amenaza a todos. 0:02:56.936,0:03:00.206 Bueno, ¿podemos protegernos de [br]tales riesgos con regulación? 0:03:00.206,0:03:02.613 Sin duda hay que probar, [br]pero estas empresas 0:03:02.613,0:03:06.142 son tan competitivas, [br]tan globalizadas, 0:03:06.142,0:03:08.122 impulsadas por tanta [br]presión comercial, 0:03:08.122,0:03:11.407 que cualquier cosa posible de hacer [br]se hará en alguna parte, 0:03:11.407,0:03:13.443 sin importar lo que digan [br]las regulaciones. 0:03:13.443,0:03:16.930 Es como las leyes antinarcóticos,[br]tratamos de regular, pero no podemos. 0:03:16.930,0:03:19.974 Y la aldea global tendrá [br]sus tontos de aldea, 0:03:19.974,0:03:23.470 que tendrán un rango global. 0:03:23.470,0:03:25.761 Por eso, como dije en mi libro, 0:03:25.761,0:03:28.650 tendremos un viaje lleno [br]de baches en este siglo. 0:03:28.650,0:03:32.140 Puede haber retrocesos [br]en nuestra sociedad; 0:03:32.140,0:03:36.255 de hecho, existe una probabilidad [br]del 50 % de un severo revés. 0:03:36.255,0:03:39.169 Pero ¿hay eventos concebibles 0:03:39.169,0:03:41.330 que puedan ser incluso peores, 0:03:41.330,0:03:44.760 que puedan extinguir la vida? 0:03:44.760,0:03:47.686 Cuando aparece un nuevo [br]acelerador de partículas, 0:03:47.686,0:03:49.475 algunos preguntan con inquietud: 0:03:49.475,0:03:51.725 ¿Podría destruir la Tierra,[br]o incluso peor, 0:03:51.725,0:03:54.384 desintegrar por completo [br]el tejido del espacio? 0:03:54.384,0:03:57.927 Bueno por suerte hay consuelo. 0:03:57.927,0:03:59.971 Junto con otra gente [br]señalo que la Naturaleza 0:03:59.971,0:04:01.904 ya ha hecho los mismos experimentos 0:04:01.904,0:04:04.090 millones y millones de veces 0:04:04.090,0:04:05.855 vía colisiones de rayos cósmicos. 0:04:05.855,0:04:08.909 Pero los científicos [br]deberían tener precauciones 0:04:08.909,0:04:11.489 con experimentos que generen condiciones 0:04:11.489,0:04:13.972 sin precedentes en el mundo natural. 0:04:13.972,0:04:17.394 Los biólogos deben evitar la liberación [br]potencialmente devastadora 0:04:17.394,0:04:20.110 de patógenos genéticamente modificados. 0:04:20.110,0:04:23.627 Y, por cierto, nuestra aversión especial 0:04:23.627,0:04:27.088 al riesgo de desastres [br]verdaderamente existenciales 0:04:27.088,0:04:30.363 depende de una cuestión [br]filosófica y ética, 0:04:30.363,0:04:32.033 y es esta: 0:04:32.033,0:04:34.341 Consideren 2 escenarios. 0:04:34.341,0:04:39.577 El Escenario A arrasa [br]al 90 % de la humanidad. 0:04:39.577,0:04:43.473 El Escenario B arrasa al 100 %. 0:04:43.473,0:04:46.391 ¿Cuánto peor es B que A? 0:04:46.391,0:04:49.414 Algunos dirían 10 % peor. 0:04:49.414,0:04:52.564 El conteo de cuerpos es 10 % más alto. 0:04:52.564,0:04:55.470 Pero yo sostengo que B [br]es incomparablemente peor. 0:04:55.470,0:04:58.099 Como astrónomo no puedo creer 0:04:58.099,0:05:00.566 que los humanos seamos [br]el fin de la historia. 0:05:00.566,0:05:03.889 Faltan 5000 millones de años [br]para que estalle el Sol, 0:05:03.889,0:05:06.600 y el universo puede [br]seguir para siempre, 0:05:06.600,0:05:08.892 por eso la evolución post-humana 0:05:08.892,0:05:11.082 aquí en la Tierra y mucho más allá, 0:05:11.082,0:05:13.796 podría prolongarse como [br]el proceso darwiniano 0:05:13.796,0:05:17.077 que condujo a nosotros, [br]y ser aún más maravilloso. 0:05:17.077,0:05:19.741 Y, en efecto, la evolución futura [br]ocurrirá mucho más rápido, 0:05:19.741,0:05:21.940 a escala de tiempo tecnológico, 0:05:21.940,0:05:24.239 no a escala de tiempo [br]de selección natural. 0:05:24.239,0:05:28.434 Así que sin duda, en vista de [br]lo mucho que está en juego, 0:05:28.434,0:05:31.820 no deberíamos aceptar un riesgo[br]ni de 1 en 1000 millones 0:05:31.820,0:05:34.049 de que la extinción humana nos quite 0:05:34.049,0:05:36.359 este inmenso potencial. 0:05:36.359,0:05:38.131 Algunos de los escenarios previstos 0:05:38.131,0:05:39.950 pueden ser incluso de ciencia ficción, 0:05:39.950,0:05:43.336 pero otros pueden ser inquietantemente reales. 0:05:43.336,0:05:46.210 Es una máxima importante que lo no familiar 0:05:46.210,0:05:48.907 no es lo mismo que lo improbable, 0:05:48.907,0:05:51.305 y, de hecho, por eso en la [br]Universidad de Cambridge 0:05:51.305,0:05:54.680 creamos un centro para [br]estudiar cómo mitigar 0:05:54.680,0:05:56.712 estos riesgos existenciales. 0:05:56.712,0:05:59.775 Parece que vale la pena [br]que unas pocas personas 0:05:59.775,0:06:02.091 piensen en estos [br]desastres potenciales. 0:06:02.091,0:06:05.104 Necesitamos toda la ayuda [br]que podamos conseguir de otros, 0:06:05.104,0:06:07.583 porque somos guardianes de un valioso 0:06:07.583,0:06:11.066 punto azul pálido en un vasto cosmos, 0:06:11.066,0:06:14.444 un planeta con 50 millones [br]de siglos por delante. 0:06:14.444,0:06:17.000 Así que no pongamos [br]en peligro ese futuro. 0:06:17.000,0:06:18.795 Y quiero terminar con la cita 0:06:18.795,0:06:22.296 de un gran científico [br]llamado Peter Medawar. 0:06:22.296,0:06:25.569 Cito: "Las campanas que [br]doblan por la humanidad 0:06:25.569,0:06:28.213 son como los cencerros [br]del ganado alpino. 0:06:28.213,0:06:30.499 Están unidas a nuestros propios cuellos, 0:06:30.499,0:06:33.174 y debe ser culpa nuestra si no producen 0:06:33.174,0:06:35.000 un sonido armonioso y melódico". 0:06:35.000,0:06:36.500 Muchas gracias. 0:06:36.500,0:06:39.000 (Aplausos)