Return to Video

Können wir das Ende der Welt verhindern?

  • 0:00 - 0:03
    Vor 10 Jahren schrieb ich
    ein Buch mit dem Titel
  • 0:03 - 0:06
    „Unser letztes Jahrhundert?“ Fragezeichen.
  • 0:06 - 0:09
    Meine Verleger entfernten
    das Fragezeichen. (Gelächter)
  • 0:09 - 0:12
    Die amerikanischen Verleger
    ersetzten unseren Titel durch
  • 0:12 - 0:15
    „Unsere letzte Stunde“.
  • 0:15 - 0:19
    Amerikaner mögen sofortige
    Genussbefriedigung und auch das Gegenteil.
  • 0:19 - 0:20
    (Gelächter)
  • 0:20 - 0:22
    Mein Thema ist folgendes:
  • 0:22 - 0:26
    Unsere Erde existiert
    seit 45 Millionen Jahrhunderten.
  • 0:26 - 0:28
    Aber dieses Jahrhundert
    ist ein besonderes:
  • 0:28 - 0:31
    Zum ersten Mal hält
    unsere menschliche Spezies
  • 0:31 - 0:34
    die Zukunft des Planeten
    in ihren Händen.
  • 0:34 - 0:36
    In fast der gesamten Geschichte der Erde
  • 0:36 - 0:38
    gingen die Gefahren von der Natur aus --
  • 0:38 - 0:42
    Krankheiten, Erdbeben, Asteroiden usw.
  • 0:42 - 0:47
    Aber von nun an kommen die
    schlimmsten Gefahren von uns.
  • 0:47 - 0:50
    Und das ist heutzutage nicht nur
    die nukleare Bedrohung;
  • 0:50 - 0:52
    in unserer vernetzten Welt
  • 0:52 - 0:55
    können Netzwerkausfälle
    globale Kettenreaktionen auslösen;
  • 0:55 - 0:59
    Luftverkehr kann innerhalb von Tagen
    Epidemien verbreiten
  • 0:59 - 1:03
    und soziale Medien können
    Panik und Gerüchte
  • 1:03 - 1:06
    buchstäblich in
    Lichtgeschwindigkeit verbreiten.
  • 1:06 - 1:09
    Wir sorgen uns zu sehr
    über kleinere Risiken --
  • 1:09 - 1:13
    unwahrscheinliche Flugzeugabstürze,
    Krebserreger im Essen,
  • 1:13 - 1:15
    geringe Strahlendosis usw.
  • 1:15 - 1:18
    Aber wir und unsere führenden Politiker
  • 1:18 - 1:22
    leugnen katastrophale Szenarien.
  • 1:22 - 1:25
    Die schlimmsten sind zum Glück
    noch nicht eingetreten.
  • 1:25 - 1:28
    Wahrscheinlich werden sie das auch nicht.
  • 1:28 - 1:31
    Aber wenn ein Ereignis potentiell
    verheerend sein kann,
  • 1:31 - 1:34
    ist großer Einsatz gerechtfertigt,
  • 1:34 - 1:38
    um sich davor zu schützen --
    auch wenn es unwahrscheinlich ist.
  • 1:38 - 1:42
    Genauso, wie wir unser Haus
    gegen Brandschäden versichern.
  • 1:42 - 1:47
    Die Wissenschaft bietet immer
    größere Macht und Versprechen,
  • 1:47 - 1:51
    aber ihre Nachteile werden
    auch immer beängstigender.
  • 1:51 - 1:53
    Wir werden immer angreifbarer.
  • 1:53 - 1:55
    Innerhalb weniger Jahrzehnte
  • 1:55 - 1:57
    werden Millionen dazu in der Lage sein,
  • 1:57 - 2:00
    schnell voranschreitende
    Biotechnologien zu missbrauchen,
  • 2:00 - 2:04
    genau wie das heute mit der
    Cybertechnologie geschieht.
  • 2:04 - 2:08
    In einem TED-Talk sah
    Freeman Dyson Kinder in der Zukunft
  • 2:08 - 2:11
    mit der Erschaffung
    von Organismen spielen
  • 2:11 - 2:15
    wie seine Generation mit
    Chemiebaukästen.
  • 2:15 - 2:18
    Damit mögen wir am Rande
    von Science Fiction sein,
  • 2:18 - 2:21
    aber selbst wenn nur ein Teil
    seines Szenarios wahr werden würde,
  • 2:21 - 2:24
    könnten unser Ökosystem
    und sogar unsere Spezies
  • 2:24 - 2:28
    sicher nicht lange
    unversehrt überleben.
  • 2:28 - 2:31
    Es gibt z. B. einige Öko-Extremisten,
  • 2:31 - 2:35
    die glauben, dass es für den Planeten,
    für Gaia, besser wäre,
  • 2:35 - 2:37
    wenn es viel weniger Menschen gäbe.
  • 2:37 - 2:40
    Was passiert, wenn diese Leute
  • 2:40 - 2:42
    synthetische Biotechnik beherrschen,
  • 2:42 - 2:45
    die bis 2050 weit verbreitet sein wird?
  • 2:45 - 2:48
    Und wenn sich bis dahin
    andere Science Fiction-Albträume
  • 2:48 - 2:50
    in Wirklichkeit verwandeln:
  • 2:50 - 2:52
    Wenn Roboter ein Eigenleben entwickeln
  • 2:52 - 2:54
    oder ein Netzwerk eigenständig
    zu denken beginnt,
  • 2:54 - 2:57
    dann ist das eine Gefahr für uns alle.
  • 2:57 - 3:00
    Wie können wir uns durch Vorschriften
    vor solchen Risiken schützen?
  • 3:00 - 3:03
    Wir müssen es versuchen.
    Doch diese Unternehmen
  • 3:03 - 3:06
    sind so konkurrenzstark, so globalisiert
  • 3:06 - 3:08
    und von wirtschaftlichem Druck getrieben,
  • 3:08 - 3:11
    dass alles, was getan werden kann,
    irgendwo getan werden wird,
  • 3:11 - 3:13
    egal was Vorschriften dazu sagen.
  • 3:13 - 3:17
    Wie mit der Drogengesetzgebung --
    Wir scheitern am Versuch der Regulierung.
  • 3:17 - 3:20
    Im globalen Dorf wird es Dorftrottel geben
  • 3:20 - 3:23
    und diese werden es
    zu globaler Reichweite bringen.
  • 3:23 - 3:26
    Wie ich schon in meinem Buch schrieb:
  • 3:26 - 3:29
    Es wird eine holprige Fahrt
    durch dieses Jahrhundert.
  • 3:29 - 3:32
    Es mag einige Rückschläge
    für unsere Gesellschaft geben --
  • 3:32 - 3:36
    eine 50-prozentige Wahrscheinlichkeit
    für einen schweren Rückschlag.
  • 3:36 - 3:39
    Gibt es jedoch absehbare Ereignisse,
  • 3:39 - 3:41
    die sogar noch schlimmer sein könnten,
  • 3:41 - 3:45
    die alles Leben auslöschen können?
  • 3:45 - 3:48
    Als ein neuer Teilchenbeschleuniger
    online gestellt wurde,
  • 3:48 - 3:49
    stellten viele ängstlich die Frage,
  • 3:49 - 3:52
    ob er die Erde zerstören könnte,
    oder noch schlimmer,
  • 3:52 - 3:55
    das Gebilde des Weltraums
    auseinanderzureißen vermag.
  • 3:55 - 3:58
    Glücklicherweise konnte man
    die Gemüter beruhigen.
  • 3:58 - 4:00
    Andere und ich haben betont,
  • 4:00 - 4:03
    dass die Natur die gleichen
    Experimente schon zigmal
  • 4:03 - 4:06
    mittels Kollisionen kosmischer
    Strahlung durchgeführt hat.
  • 4:06 - 4:09
    Doch Wissenschaftler sollten
    sicherlich vorsichtig
  • 4:09 - 4:11
    mit Experimenten sein,
    die Bedingungen hervorrufen,
  • 4:11 - 4:14
    die es in der natürlichen Welt
    zuvor noch nicht gab.
  • 4:14 - 4:17
    Biologen sollten die Freisetzung
    potentiell zerstörerischer,
  • 4:17 - 4:20
    genetisch veränderter
    Krankheitserreger vermeiden.
  • 4:20 - 4:24
    Übrigens hängt unsere besondere Aversion
  • 4:24 - 4:27
    gegen das Risiko
    existentieller Katastrophen
  • 4:27 - 4:30
    von einer philosophischen
    und ethischen Frage ab,
  • 4:30 - 4:32
    die da lautet:
  • 4:32 - 4:34
    Ziehe zwei Szenarien in Betracht.
  • 4:34 - 4:40
    Szenario A löscht 90 % der Menschheit aus.
  • 4:40 - 4:43
    Szenario B löscht 100 % aus.
  • 4:43 - 4:46
    Wieviel schlimmer ist B
    im Vergleich zu A?
  • 4:46 - 4:49
    Einige würden sagen um 10 % schlimmer.
  • 4:49 - 4:53
    Die Zahl der Opfer ist um 10 % höher.
  • 4:53 - 4:55
    Aber ich behaupte, dass B
    noch viel schlimmer ist.
  • 4:55 - 4:58
    Als Astronom kann ich
    mir nicht vorstellen,
  • 4:58 - 5:01
    dass Menschen das Ende
    der Geschichte sind.
  • 5:01 - 5:04
    Wir befinden uns 5 Milliarden Jahre
    vor der Sonnenverbrennung,
  • 5:04 - 5:07
    und das Universum könnte
    für immer weiter bestehen.
  • 5:07 - 5:09
    Also könnte post-menschliche Evolution
  • 5:09 - 5:11
    auf der Erde und weit darüber hinaus
  • 5:11 - 5:14
    so lange dauern wie der Evolutionsprozess,
  • 5:14 - 5:17
    aus dem wir, und noch
    viel Herrlicheres, hervorgegangen sind.
  • 5:17 - 5:20
    Gewiss wird künftige Evolution
    auf einer technologischen Zeitskala
  • 5:20 - 5:22
    viel schneller erfolgen,
  • 5:22 - 5:24
    als die Zeitskala natürlicher Evolution.
  • 5:24 - 5:28
    Also sollten wir sicherlich
    im Hinblick auf diese gravierenden Folgen
  • 5:28 - 5:32
    nicht einmal ein Risiko von eins
    zu einer Milliarde eingehen,
  • 5:32 - 5:34
    dass das Aussterben der Menschen
  • 5:34 - 5:36
    dieses immense Potential verhindern kann.
  • 5:36 - 5:38
    Einige vorstellbare Szenarien
  • 5:38 - 5:40
    könnten tatsächlich Science Fiction,
  • 5:40 - 5:43
    andere hingegen
    beunruhigend realistisch sein.
  • 5:43 - 5:46
    Es ist eine wichtige Maxime,
    dass das Unbekannte
  • 5:46 - 5:49
    nicht gleichzusetzen ist
    mit dem Unwahrscheinlichen.
  • 5:49 - 5:51
    Darum richten wir
    an der Cambridge University
  • 5:51 - 5:55
    ein Studienzentrum ein,
    um zu untersuchen,
  • 5:55 - 5:57
    wie man diese existentiellen
    Risiken mindern kann.
  • 5:57 - 6:00
    Es scheint, als sei es nur
    für wenige die Mühe wert,
  • 6:00 - 6:02
    über diese möglichen
    Katastrophen nachzudenken.
  • 6:02 - 6:05
    Wir brauchen all die Hilfe von anderen,
    die wir bekommen können,
  • 6:05 - 6:08
    weil wir die Hüter eines wertvollen,
  • 6:08 - 6:11
    blassblauen Punktes im weiten Kosmos sind,
  • 6:11 - 6:14
    einem Planeten, der 50 Millionen
    Jahrhunderte vor sich hat.
  • 6:14 - 6:17
    Setzen wir die Zukunft nicht aufs Spiel.
  • 6:17 - 6:19
    Ich möchte mit dem Zitat
  • 6:19 - 6:22
    eines großartigen Wissenschaftlers,
    Peter Medawar, abschließen.
  • 6:22 - 6:26
    „Die Glocken, die die Stunde
    der Menschheit schlagen,
  • 6:26 - 6:28
    sind wie die Glocken für das Vieh
    auf der Alpenwiese.
  • 6:28 - 6:30
    Sie sind an unsere eigenen
    Hälse gebunden
  • 6:30 - 6:33
    und es kann nur unsere Schuld sein,
  • 6:33 - 6:36
    wenn sie nicht wohlklingend
    und melodisch ertönen.“
  • 6:36 - 6:38
    Vielen Dank.
  • 6:38 - 6:40
    (Applaus)
Title:
Können wir das Ende der Welt verhindern?
Speaker:
Sir Martin Rees
Description:

Eine post-apokalyptische, menschenleere Erde klingt nach Science Fiction aus Fernsehserien oder Filmen. Doch in diesem kurzen, überraschenden Vortrag fordert uns Lord Martin Rees auf, über unsere realen existentiellen Risiken nachzudenken – naturgegebene und vom Menschen gemachte Bedrohungen, die die Menschheit auslöschen könnten. Als besorgtes Mitglied der menschlichen Spezies fragt er: Was ist das Schlimmste, das passieren könnte?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

German subtitles

Revisions