Hace 10 años escribí
un libro que titulé:
"¿Nuestro siglo final?"
Signos de interrogación.
Mis editores quitaron los signos
de interrogación. (Risas)
Los editores estadounidenses
cambiaron el título por:
"Nuestra hora final".
A los estadounidenses les gusta la
gratificación instantánea y lo contrario.
(Risas)
El tema era este:
Nuestra Tierra ha existido durante
45 millones de siglos,
pero este siglo es especial;
es el primero en el que
una especie, la nuestra,
tiene el futuro del planeta
en sus manos.
Durante casi toda la
historia de la Tierra,
las amenazas provinieron
de la Naturaleza:
enfermedades, terremotos,
asteroides, etc.;
pero a partir de ahora, los peores
peligros vienen de nosotros.
Y ahora no solo está
la amenaza nuclear;
en nuestro mundo interconectado,
las fallas de red pueden propagarse
en cascada por el mundo;
los viajes en avión pueden propagar pandemias
por el mundo en cuestión de días;
y los medios sociales pueden
propagar pánico y rumores
literalmente a la
velocidad de la luz.
Nos preocupamos demasiado
por riesgos menores:
accidentes aéreos improbables,
sustancias cancerígenas en los alimentos,
dosis bajas de radiación, etc.;
pero nosotros y nuestros políticos
negamos los escenarios catastróficos.
Por suerte, aún no ha sucedido lo peor.
De hecho, quizá no ocurrirá.
Pero si un evento es
potencialmente devastador,
vale la pena pagar
una prima sustancial
para protegerse en contra de eso,
aunque sea poco probable,
así como tenemos un seguro
de incendio en nuestra casa.
Y así como la ciencia ofrece
mayor poder y más promesas,
el lado negativo
da más miedo también.
Somos cada vez más vulnerables.
En unas pocas décadas,
millones podrán
usar mal los rápidos
avances en biotecnología
así como hoy usan mal
la cibertecnología.
Freeman Dyson, en una charla TED,
previó que los niños diseñarán
y crearán nuevos organismos
tan rutinariamente como su generación
jugaba con juegos de química.
Bueno, esto puede ser
de ciencia ficción,
pero, de ocurrir ese escenario,
nuestra ecología
e incluso nuestra especie
seguramente no sobreviviría
mucho tiempo indemne.
Por ejemplo, hay algunos
eco-extremistas
que piensan que sería
mejor para el planeta,
para Gaia, si hubiera
muchos menos humanos.
¿Qué sucederá cuando estas
personas dominen
técnicas de biología sintética
comunes en el 2050?
Para entonces, otras pesadillas
de ciencia ficción
pueden hacerse realidad:
robots tontos que se vuelven hostiles,
o una red desarrolla una mente propia
y nos amenaza a todos.
Bueno, ¿podemos protegernos de
tales riesgos con regulación?
Sin duda hay que probar,
pero estas empresas
son tan competitivas,
tan globalizadas,
impulsadas por tanta
presión comercial,
que cualquier cosa posible de hacer
se hará en alguna parte,
sin importar lo que digan
las regulaciones.
Es como las leyes antinarcóticos,
tratamos de regular, pero no podemos.
Y la aldea global tendrá
sus tontos de aldea,
que tendrán un rango global.
Por eso, como dije en mi libro,
tendremos un viaje lleno
de baches en este siglo.
Puede haber retrocesos
en nuestra sociedad;
de hecho, existe una probabilidad
del 50 % de un severo revés.
Pero ¿hay eventos concebibles
que puedan ser incluso peores,
que puedan extinguir la vida?
Cuando aparece un nuevo
acelerador de partículas,
algunos preguntan con inquietud:
¿Podría destruir la Tierra,
o incluso peor,
desintegrar por completo
el tejido del espacio?
Bueno por suerte hay consuelo.
Junto con otra gente
señalo que la Naturaleza
ya ha hecho los mismos experimentos
millones y millones de veces
vía colisiones de rayos cósmicos.
Pero los científicos
deberían tener precauciones
con experimentos que generen condiciones
sin precedentes en el mundo natural.
Los biólogos deben evitar la liberación
potencialmente devastadora
de patógenos genéticamente modificados.
Y, por cierto, nuestra aversión especial
al riesgo de desastres
verdaderamente existenciales
depende de una cuestión
filosófica y ética,
y es esta:
Consideren 2 escenarios.
El Escenario A arrasa
al 90 % de la humanidad.
El Escenario B arrasa al 100 %.
¿Cuánto peor es B que A?
Algunos dirían 10 % peor.
El conteo de cuerpos es 10 % más alto.
Pero yo sostengo que B
es incomparablemente peor.
Como astrónomo no puedo creer
que los humanos seamos
el fin de la historia.
Faltan 5000 millones de años
para que estalle el Sol,
y el universo puede
seguir para siempre,
por eso la evolución post-humana
aquí en la Tierra y mucho más allá,
podría prolongarse como
el proceso darwiniano
que condujo a nosotros,
y ser aún más maravilloso.
Y, en efecto, la evolución futura
ocurrirá mucho más rápido,
a escala de tiempo tecnológico,
no a escala de tiempo
de selección natural.
Así que sin duda, en vista de
lo mucho que está en juego,
no deberíamos aceptar un riesgo
ni de 1 en 1000 millones
de que la extinción humana nos quite
este inmenso potencial.
Algunos de los escenarios previstos
pueden ser incluso de ciencia ficción,
pero otros pueden ser inquietantemente reales.
Es una máxima importante que lo no familiar
no es lo mismo que lo improbable,
y, de hecho, por eso en la
Universidad de Cambridge
creamos un centro para
estudiar cómo mitigar
estos riesgos existenciales.
Parece que vale la pena
que unas pocas personas
piensen en estos
desastres potenciales.
Necesitamos toda la ayuda
que podamos conseguir de otros,
porque somos guardianes de un valioso
punto azul pálido en un vasto cosmos,
un planeta con 50 millones
de siglos por delante.
Así que no pongamos
en peligro ese futuro.
Y quiero terminar con la cita
de un gran científico
llamado Peter Medawar.
Cito: "Las campanas que
doblan por la humanidad
son como los cencerros
del ganado alpino.
Están unidas a nuestros propios cuellos,
y debe ser culpa nuestra si no producen
un sonido armonioso y melódico".
Muchas gracias.
(Aplausos)