0:00:00.485,0:00:03.137 Tien jaar geleden schreef ik een boek [br]met de titel: 0:00:03.137,0:00:05.800 'Onze Laatste Eeuw?' [br] 0:00:05.800,0:00:09.377 Mijn uitgevers lieten het vraagteken weg.[br](Gelach) 0:00:09.377,0:00:12.249 De Amerikaanse uitgevers [br]maakten ervan: 0:00:12.249,0:00:14.538 'Ons Laatste Uur'. 0:00:14.538,0:00:18.660 Amerikanen willen boter bij de vis. 0:00:18.660,0:00:20.368 (Gelach) 0:00:20.368,0:00:22.118 Het ging hierover: 0:00:22.118,0:00:26.284 onze Aarde bestaat al[br]45 miljoen eeuwen, 0:00:26.284,0:00:28.297 maar deze eeuw is speciaal. 0:00:28.297,0:00:31.313 Het is de eerste waar één soort, [br]de onze, 0:00:31.313,0:00:33.905 de toekomst van de planeet[br]in handen heeft. 0:00:33.905,0:00:36.105 Gedurende de hele geschiedenis [br]van de Aarde 0:00:36.105,0:00:38.041 kwamen de bedreigingen van de natuur - 0:00:38.041,0:00:41.537 ziekte, aardbevingen, asteroïden[br]enzovoort - 0:00:41.537,0:00:47.209 Maar vanaf nu komen [br]de ergste bedreigingen van onszelf. 0:00:47.209,0:00:50.480 En niet alleen de kerndreiging. 0:00:50.480,0:00:52.231 In onze verbonden wereld 0:00:52.231,0:00:55.394 kunnen netwerken [br]mondiaal uitvallen. 0:00:55.394,0:00:59.350 Luchtverkeer kan pandemieën[br]in dagen verspreiden. 0:00:59.350,0:01:02.677 Sociale media kunnen [br]paniek en geruchten 0:01:02.677,0:01:05.894 letterlijk met de lichtsnelheid [br]verspreiden. 0:01:05.894,0:01:09.119 We bekommeren ons [br]teveel om kleine gevaren: 0:01:09.119,0:01:13.150 onwaarschijnlijke luchtvaartongevallen,[br]carcinogenen in ons voedsel, 0:01:13.150,0:01:15.376 lage stralingsdosissen, enzovoort. 0:01:15.376,0:01:18.201 Maar wij en onze politieke meesters 0:01:18.201,0:01:22.404 zijn blind voor catastrofale scenario's. 0:01:22.404,0:01:25.442 De ergste hebben gelukkig[br]nog niet plaatsgevonden. 0:01:25.442,0:01:27.638 Waarschijnlijk zullen dat ze ook niet. 0:01:27.638,0:01:30.823 Maar als een gebeurtenis[br]verwoestend kan zijn, 0:01:30.823,0:01:33.691 is het de moeite waard[br]een serieuze prijs te betalen 0:01:33.691,0:01:37.527 om je ertegen te verzekeren,[br]- ook als het onwaarschijnlijk is - 0:01:37.527,0:01:42.040 net zoals we betalen [br]voor onze brandverzekering. 0:01:42.040,0:01:47.037 Terwijl de wetenschap steeds [br]grotere macht en beloften inhoudt, 0:01:47.037,0:01:50.903 worden de negatieve aspecten[br]ook angstaanjagender. 0:01:50.903,0:01:53.142 We worden steeds kwetsbaarder. 0:01:53.142,0:01:54.980 Binnen enkele tientallen jaren 0:01:54.980,0:01:57.210 zullen miljoenen de mogelijkheid hebben 0:01:57.210,0:02:00.331 om de snel groeiende biotechnologie [br]te misbruiken, 0:02:00.331,0:02:03.884 net zoals ze vandaag [br]cybertechnologie misbruiken. 0:02:03.884,0:02:07.083 Freeman Dyson voorzag in een TED Talk 0:02:07.083,0:02:10.679 dat kinderen nieuwe organismen[br]zouden ontwerpen en maken 0:02:10.679,0:02:15.190 net zoals zijn generatie[br]met een chemiedoos speelde. 0:02:15.190,0:02:17.718 Dit balanceert [br]op de rand van sciencefiction, 0:02:17.718,0:02:21.091 maar als dit scenario ook maar [br]gedeeltelijk werkelijkheid zou worden, 0:02:21.091,0:02:23.638 dan zou onze ecologie en zelfs onze soort 0:02:23.638,0:02:27.627 het niet lang ongedeerd overleven. 0:02:27.627,0:02:31.000 Zo heb je bijvoorbeeld eco-extremisten 0:02:31.000,0:02:34.399 die denken dat het voor de planeet, [br]voor Gaia, beter zou zijn 0:02:34.399,0:02:37.402 als er veel minder mensen zouden zijn. 0:02:37.402,0:02:39.859 Wat gaat er gebeuren [br]als dergelijke mensen 0:02:39.859,0:02:43.566 technieken van synthetische biologie[br]- tegen 2050 gemeengoed - 0:02:43.566,0:02:45.108 onder de knie gaan krijgen. 0:02:45.108,0:02:48.150 Ook andere sciencefiction-nachtmerries 0:02:48.150,0:02:49.860 kunnen werkelijkheid worden: 0:02:49.860,0:02:51.930 domme robots die op hol slaan 0:02:51.930,0:02:54.347 of een netwerk [br]dat een eigen wil gaat ontwikkelen, 0:02:54.347,0:02:56.936 kan ons allemaal gaan bedreigen. 0:02:56.936,0:03:00.206 Kunnen we ons tegen dergelijke [br]risico's beschermen door regelgeving? 0:03:00.206,0:03:03.423 Proberen moeten we het zeker,[br]maar deze ondernemingen 0:03:03.423,0:03:06.142 zijn zo competitief, zo mondiaal, 0:03:06.142,0:03:08.122 en zo gedreven door winstbejag, 0:03:08.122,0:03:11.407 dat alles wat mogelijk is[br]ergens zal worden gedaan, 0:03:11.407,0:03:13.443 wat de regels ook zullen zeggen. 0:03:13.443,0:03:16.930 Net zoals de drugswetten - we proberen [br]te reguleren, maar het lukt niet. 0:03:16.930,0:03:19.974 Het werelddorp [br]zal zijn dorpsidioten hebben, 0:03:19.974,0:03:23.470 met een mondiaal bereik. 0:03:23.470,0:03:25.761 Zoals ik zei in mijn boek 0:03:25.761,0:03:28.650 hebben we deze eeuw [br]een harde rit voor de boeg. 0:03:28.650,0:03:32.140 Er kunnen zich tegenslagen voordoen [br]voor onze maatschappij - 0:03:32.140,0:03:36.255 inderdaad, een 50% kans [br]op een zware tegenslag. 0:03:36.255,0:03:39.169 Maar zijn er gebeurtenissen denkbaar 0:03:39.169,0:03:41.330 die nog erger kunnen zijn, 0:03:41.330,0:03:44.760 die alle leven op Aarde [br]zouden kunnen uitroeien? 0:03:44.760,0:03:47.686 Toen een nieuwe deeltjesversneller[br]in gang werd gezet, 0:03:47.686,0:03:49.475 vroegen sommigen zich angstig af 0:03:49.475,0:03:51.725 of dit de Aarde kon vernietigen[br]of, erger nog, 0:03:51.725,0:03:54.384 de structuur van de ruimte verstoren. 0:03:54.384,0:03:57.927 Hier kan je gelukkig [br]gerustgesteld worden. 0:03:57.927,0:03:59.971 Ik en anderen legden uit [br]dat de natuur 0:03:59.971,0:04:01.904 dit soort experimenten 0:04:01.904,0:04:04.090 al ontelbare keren had gedaan, 0:04:04.090,0:04:05.855 bij botsingen [br]in de kosmische straling. 0:04:05.855,0:04:08.909 Maar wetenschappers [br]moeten zeker voorzichtig zijn 0:04:08.909,0:04:11.489 met experimenten [br]die voorwaarden scheppen 0:04:11.489,0:04:13.972 zonder precedent in de natuurlijke wereld. 0:04:13.972,0:04:17.395 Biologen moeten vermijden om[br]potentieel verwoestende 0:04:17.395,0:04:20.110 genetisch gemodificeerde [br]pathogenen los te laten. 0:04:20.110,0:04:23.627 Overigens hangt onze specifieke afkeer 0:04:23.627,0:04:27.088 voor het risico [br]op waarlijk existentiële rampen 0:04:27.088,0:04:30.363 van een filosofische en ethische vraag af. 0:04:30.363,0:04:32.033 En wel deze. 0:04:32.033,0:04:34.341 Beschouw twee scenario's. 0:04:34.341,0:04:39.577 Scenario A [br]roeit 90% van de mensheid uit. 0:04:39.577,0:04:43.473 Scenario B [br]roeit 100% van de mensheid uit. 0:04:43.473,0:04:46.391 Hoeveel is B erger dan A? 0:04:46.391,0:04:49.414 Sommigen zouden zeggen 10% erger. 0:04:49.414,0:04:52.564 Er zijn 10% meer doden. 0:04:52.564,0:04:55.470 Maar ik zeg dat B [br]onvergelijkbaar erger is. 0:04:55.470,0:04:58.099 Als astronoom kan ik niet geloven 0:04:58.099,0:05:00.566 dat mensheid het einde van het verhaal is. 0:05:00.566,0:05:03.889 We hebben nog 5 miljard jaar [br]voordat de zon ontploft 0:05:03.889,0:05:07.270 en het universum [br]kan misschien eeuwig blijven bestaan. 0:05:07.270,0:05:11.082 Posthumane evolutie kan [br]hier op Aarde en ver daarbuiten 0:05:11.082,0:05:13.796 even lang duren [br]als het Darwiniaanse proces 0:05:13.796,0:05:16.837 dat tot ons heeft geleid,[br]en zelfs nog wonderlijker zijn. 0:05:16.837,0:05:20.241 Toekomstige evolutie [br]zal inderdaad veel vlugger verlopen 0:05:20.241,0:05:21.940 op een technologische tijdschaal, 0:05:21.940,0:05:24.239 niet op de tijdschaal [br]van natuurlijke selectie. 0:05:24.239,0:05:28.434 Met deze immense kansen voor ogen 0:05:28.434,0:05:31.820 zouden we zelfs geen risico [br]van één op een miljard moeten accepteren 0:05:31.820,0:05:33.509 waardoor onze uitroeiing 0:05:33.509,0:05:36.359 deze immense mogelijkheden [br]zouden uitsluiten. 0:05:36.359,0:05:38.131 Enkele voorgestelde scenario's 0:05:38.131,0:05:39.950 lijken misschien sciencefiction, 0:05:39.950,0:05:43.336 maar andere zijn [br]misschien verontrustend realistisch. 0:05:43.336,0:05:45.470 Het is belangrijk je te realiseren [br] 0:05:45.470,0:05:48.907 dat het ongewone niet hetzelfde is [br]als het onwaarschijnlijke. 0:05:48.907,0:05:51.305 Daarom hebben we in Cambridge 0:05:51.305,0:05:53.930 een onderzoekscentrum opgericht[br]om te bestuderen 0:05:53.930,0:05:57.032 hoe we deze existentiële[br]risico's kunnen afzwakken. 0:05:57.032,0:05:59.775 Het leek waardevol dat enkele mensen 0:05:59.775,0:06:02.091 gingen nadenken over mogelijke rampen. 0:06:02.091,0:06:05.104 We hebben daarbij [br]alle hulp van anderen nodig 0:06:05.104,0:06:07.583 omdat we de beheerders zijn [br]van een kostbaar 0:06:07.583,0:06:11.066 bleekblauw plekje [br]in een weidse kosmos, 0:06:11.066,0:06:14.444 een planeet [br]die nog 50 miljoen eeuwen te gaan heeft. 0:06:14.444,0:06:17.000 Laten we die toekomst [br]niet in gevaar brengen. 0:06:17.000,0:06:18.795 Ik zou willen eindigen met een citaat 0:06:18.795,0:06:22.296 van de grote wetenschapper [br]Peter Medawar. 0:06:22.296,0:06:25.569 "De klokken die luiden voor de mensheid 0:06:25.569,0:06:28.213 zijn als de bellen van Alpenvee. 0:06:28.213,0:06:30.499 Ze hangen om onze eigen nek, 0:06:30.499,0:06:33.174 dus hangt het van ons af 0:06:33.174,0:06:35.305 of ze al dan niet welluidend zijn." 0:06:35.305,0:06:37.572 Erg bedankt. 0:06:37.572,0:06:39.685 (Applaus)