1 00:00:00,485 --> 00:00:02,707 Hace 10 años escribí un libro que titulé: 2 00:00:02,707 --> 00:00:05,800 "¿Nuestro siglo final?" Signos de interrogación. 3 00:00:05,800 --> 00:00:09,377 Mis editores quitaron los signos de interrogación. (Risas) 4 00:00:09,377 --> 00:00:11,259 Los editores estadounidenses cambiaron el título por: 5 00:00:11,259 --> 00:00:15,168 "Nuestra hora final". 6 00:00:15,168 --> 00:00:18,660 A los estadounidenses les gusta la gratificación instantánea y lo contrario. 7 00:00:18,660 --> 00:00:20,368 (Risas) 8 00:00:20,368 --> 00:00:22,118 El tema era este: 9 00:00:22,118 --> 00:00:26,284 Nuestra Tierra ha existido durante 45 millones de siglos, 10 00:00:26,284 --> 00:00:28,297 pero este siglo es especial; 11 00:00:28,297 --> 00:00:31,313 es el primero en el que una especie, la nuestra, 12 00:00:31,313 --> 00:00:34,115 tiene el futuro del planeta en sus manos. 13 00:00:34,115 --> 00:00:36,105 Durante casi toda la historia de la Tierra, 14 00:00:36,105 --> 00:00:38,041 las amenazas provinieron de la Naturaleza: 15 00:00:38,041 --> 00:00:41,537 enfermedades, terremotos, asteroides, etc.; 16 00:00:41,537 --> 00:00:47,209 pero a partir de ahora, los peores peligros vienen de nosotros. 17 00:00:47,209 --> 00:00:50,480 Y ahora no solo está la amenaza nuclear; 18 00:00:50,480 --> 00:00:52,231 en nuestro mundo interconectado, 19 00:00:52,231 --> 00:00:55,394 las fallas de red pueden propagarse en cascada por el mundo; 20 00:00:55,394 --> 00:00:59,350 los viajes en avión pueden propagar pandemias por el mundo en cuestión de días; 21 00:00:59,350 --> 00:01:02,677 y los medios sociales pueden propagar pánico y rumores 22 00:01:02,677 --> 00:01:05,894 literalmente a la velocidad de la luz. 23 00:01:05,894 --> 00:01:09,119 Nos preocupamos demasiado por riesgos menores: 24 00:01:09,119 --> 00:01:13,150 accidentes aéreos improbables, sustancias cancerígenas en los alimentos, 25 00:01:13,150 --> 00:01:15,376 dosis bajas de radiación, etc.; 26 00:01:15,376 --> 00:01:18,201 pero nosotros y nuestros políticos 27 00:01:18,201 --> 00:01:22,404 negamos los escenarios catastróficos. 28 00:01:22,404 --> 00:01:25,442 Por suerte, aún no ha sucedido lo peor. 29 00:01:25,442 --> 00:01:27,638 De hecho, quizá no ocurrirá. 30 00:01:27,638 --> 00:01:30,823 Pero si un evento es potencialmente devastador, 31 00:01:30,823 --> 00:01:33,691 vale la pena pagar una prima sustancial 32 00:01:33,691 --> 00:01:37,527 para protegerse en contra de eso, aunque sea poco probable, 33 00:01:37,527 --> 00:01:42,040 así como tenemos un seguro de incendio en nuestra casa. 34 00:01:42,040 --> 00:01:47,037 Y así como la ciencia ofrece mayor poder y más promesas, 35 00:01:47,037 --> 00:01:50,903 el lado negativo da más miedo también. 36 00:01:50,903 --> 00:01:53,142 Somos cada vez más vulnerables. 37 00:01:53,142 --> 00:01:54,980 En unas pocas décadas, 38 00:01:54,980 --> 00:01:57,210 millones podrán 39 00:01:57,210 --> 00:02:00,331 usar mal los rápidos avances en biotecnología 40 00:02:00,331 --> 00:02:03,884 así como hoy usan mal la cibertecnología. 41 00:02:03,884 --> 00:02:07,083 Freeman Dyson, en una charla TED, 42 00:02:07,083 --> 00:02:10,679 previó que los niños diseñarán y crearán nuevos organismos 43 00:02:10,679 --> 00:02:15,190 tan rutinariamente como su generación jugaba con juegos de química. 44 00:02:15,190 --> 00:02:17,718 Bueno, esto puede ser de ciencia ficción, 45 00:02:17,718 --> 00:02:20,901 pero, de ocurrir ese escenario, 46 00:02:20,901 --> 00:02:23,638 nuestra ecología e incluso nuestra especie 47 00:02:23,638 --> 00:02:27,627 seguramente no sobreviviría mucho tiempo indemne. 48 00:02:27,627 --> 00:02:31,490 Por ejemplo, hay algunos eco-extremistas 49 00:02:31,490 --> 00:02:33,999 que piensan que sería mejor para el planeta, 50 00:02:33,999 --> 00:02:37,402 para Gaia, si hubiera muchos menos humanos. 51 00:02:37,402 --> 00:02:40,119 ¿Qué sucederá cuando estas personas dominen 52 00:02:40,119 --> 00:02:42,256 técnicas de biología sintética 53 00:02:42,256 --> 00:02:45,108 comunes en el 2050? 54 00:02:45,108 --> 00:02:48,150 Para entonces, otras pesadillas de ciencia ficción 55 00:02:48,150 --> 00:02:49,860 pueden hacerse realidad: 56 00:02:49,860 --> 00:02:51,930 robots tontos que se vuelven hostiles, 57 00:02:51,930 --> 00:02:54,347 o una red desarrolla una mente propia 58 00:02:54,347 --> 00:02:56,936 y nos amenaza a todos. 59 00:02:56,936 --> 00:03:00,206 Bueno, ¿podemos protegernos de tales riesgos con regulación? 60 00:03:00,206 --> 00:03:02,613 Sin duda hay que probar, pero estas empresas 61 00:03:02,613 --> 00:03:06,142 son tan competitivas, tan globalizadas, 62 00:03:06,142 --> 00:03:08,122 impulsadas por tanta presión comercial, 63 00:03:08,122 --> 00:03:11,407 que cualquier cosa posible de hacer se hará en alguna parte, 64 00:03:11,407 --> 00:03:13,443 sin importar lo que digan las regulaciones. 65 00:03:13,443 --> 00:03:16,930 Es como las leyes antinarcóticos, tratamos de regular, pero no podemos. 66 00:03:16,930 --> 00:03:19,974 Y la aldea global tendrá sus tontos de aldea, 67 00:03:19,974 --> 00:03:23,470 que tendrán un rango global. 68 00:03:23,470 --> 00:03:25,761 Por eso, como dije en mi libro, 69 00:03:25,761 --> 00:03:28,650 tendremos un viaje lleno de baches en este siglo. 70 00:03:28,650 --> 00:03:32,140 Puede haber retrocesos en nuestra sociedad; 71 00:03:32,140 --> 00:03:36,255 de hecho, existe una probabilidad del 50 % de un severo revés. 72 00:03:36,255 --> 00:03:39,169 Pero ¿hay eventos concebibles 73 00:03:39,169 --> 00:03:41,330 que puedan ser incluso peores, 74 00:03:41,330 --> 00:03:44,760 que puedan extinguir la vida? 75 00:03:44,760 --> 00:03:47,686 Cuando aparece un nuevo acelerador de partículas, 76 00:03:47,686 --> 00:03:49,475 algunos preguntan con inquietud: 77 00:03:49,475 --> 00:03:51,725 ¿Podría destruir la Tierra, o incluso peor, 78 00:03:51,725 --> 00:03:54,384 desintegrar por completo el tejido del espacio? 79 00:03:54,384 --> 00:03:57,927 Bueno por suerte hay consuelo. 80 00:03:57,927 --> 00:03:59,971 Junto con otra gente señalo que la Naturaleza 81 00:03:59,971 --> 00:04:01,904 ya ha hecho los mismos experimentos 82 00:04:01,904 --> 00:04:04,090 millones y millones de veces 83 00:04:04,090 --> 00:04:05,855 vía colisiones de rayos cósmicos. 84 00:04:05,855 --> 00:04:08,909 Pero los científicos deberían tener precauciones 85 00:04:08,909 --> 00:04:11,489 con experimentos que generen condiciones 86 00:04:11,489 --> 00:04:13,972 sin precedentes en el mundo natural. 87 00:04:13,972 --> 00:04:17,394 Los biólogos deben evitar la liberación potencialmente devastadora 88 00:04:17,394 --> 00:04:20,110 de patógenos genéticamente modificados. 89 00:04:20,110 --> 00:04:23,627 Y, por cierto, nuestra aversión especial 90 00:04:23,627 --> 00:04:27,088 al riesgo de desastres verdaderamente existenciales 91 00:04:27,088 --> 00:04:30,363 depende de una cuestión filosófica y ética, 92 00:04:30,363 --> 00:04:32,033 y es esta: 93 00:04:32,033 --> 00:04:34,341 Consideren 2 escenarios. 94 00:04:34,341 --> 00:04:39,577 El Escenario A arrasa al 90 % de la humanidad. 95 00:04:39,577 --> 00:04:43,473 El Escenario B arrasa al 100 %. 96 00:04:43,473 --> 00:04:46,391 ¿Cuánto peor es B que A? 97 00:04:46,391 --> 00:04:49,414 Algunos dirían 10 % peor. 98 00:04:49,414 --> 00:04:52,564 El conteo de cuerpos es 10 % más alto. 99 00:04:52,564 --> 00:04:55,470 Pero yo sostengo que B es incomparablemente peor. 100 00:04:55,470 --> 00:04:58,099 Como astrónomo no puedo creer 101 00:04:58,099 --> 00:05:00,566 que los humanos seamos el fin de la historia. 102 00:05:00,566 --> 00:05:03,889 Faltan 5000 millones de años para que estalle el Sol, 103 00:05:03,889 --> 00:05:06,600 y el universo puede seguir para siempre, 104 00:05:06,600 --> 00:05:08,892 por eso la evolución post-humana 105 00:05:08,892 --> 00:05:11,082 aquí en la Tierra y mucho más allá, 106 00:05:11,082 --> 00:05:13,796 podría prolongarse como el proceso darwiniano 107 00:05:13,796 --> 00:05:17,077 que condujo a nosotros, y ser aún más maravilloso. 108 00:05:17,077 --> 00:05:19,741 Y, en efecto, la evolución futura ocurrirá mucho más rápido, 109 00:05:19,741 --> 00:05:21,940 a escala de tiempo tecnológico, 110 00:05:21,940 --> 00:05:24,239 no a escala de tiempo de selección natural. 111 00:05:24,239 --> 00:05:28,434 Así que sin duda, en vista de lo mucho que está en juego, 112 00:05:28,434 --> 00:05:31,820 no deberíamos aceptar un riesgo ni de 1 en 1000 millones 113 00:05:31,820 --> 00:05:34,049 de que la extinción humana nos quite 114 00:05:34,049 --> 00:05:36,359 este inmenso potencial. 115 00:05:36,359 --> 00:05:38,131 Algunos de los escenarios previstos 116 00:05:38,131 --> 00:05:39,950 pueden ser incluso de ciencia ficción, 117 00:05:39,950 --> 00:05:43,336 pero otros pueden ser inquietantemente reales. 118 00:05:43,336 --> 00:05:46,210 Es una máxima importante que lo no familiar 119 00:05:46,210 --> 00:05:48,907 no es lo mismo que lo improbable, 120 00:05:48,907 --> 00:05:51,305 y, de hecho, por eso en la Universidad de Cambridge 121 00:05:51,305 --> 00:05:54,680 creamos un centro para estudiar cómo mitigar 122 00:05:54,680 --> 00:05:56,712 estos riesgos existenciales. 123 00:05:56,712 --> 00:05:59,775 Parece que vale la pena que unas pocas personas 124 00:05:59,775 --> 00:06:02,091 piensen en estos desastres potenciales. 125 00:06:02,091 --> 00:06:05,104 Necesitamos toda la ayuda que podamos conseguir de otros, 126 00:06:05,104 --> 00:06:07,583 porque somos guardianes de un valioso 127 00:06:07,583 --> 00:06:11,066 punto azul pálido en un vasto cosmos, 128 00:06:11,066 --> 00:06:14,444 un planeta con 50 millones de siglos por delante. 129 00:06:14,444 --> 00:06:17,000 Así que no pongamos en peligro ese futuro. 130 00:06:17,000 --> 00:06:18,795 Y quiero terminar con la cita 131 00:06:18,795 --> 00:06:22,296 de un gran científico llamado Peter Medawar. 132 00:06:22,296 --> 00:06:25,569 Cito: "Las campanas que doblan por la humanidad 133 00:06:25,569 --> 00:06:28,213 son como los cencerros del ganado alpino. 134 00:06:28,213 --> 00:06:30,499 Están unidas a nuestros propios cuellos, 135 00:06:30,499 --> 00:06:33,174 y debe ser culpa nuestra si no producen 136 00:06:33,174 --> 00:06:35,000 un sonido armonioso y melódico". 137 00:06:35,000 --> 00:06:36,500 Muchas gracias. 138 00:06:36,500 --> 00:06:39,000 (Aplausos)