Return to Video

Kan vi förhindra jordens undergång?

  • 0:00 - 0:03
    För tio år sen skrev jag en bok
    som jag döpte till
  • 0:03 - 0:06
    "Our Final Century?", frågetecken.
  • 0:06 - 0:09
    Min förläggare tog bort frågetecknet.
    (Skratt)
  • 0:09 - 0:12
    Den amerikanske förläggaren ändrade titeln
  • 0:12 - 0:15
    till "Our Final Hour."
  • 0:15 - 0:17
    Amerikaner gillar både
    snabb behovstillfredsställelse
  • 0:17 - 0:19
    och dess motsats.
  • 0:19 - 0:20
    (Skratt)
  • 0:20 - 0:22
    Och mitt tema var följande:
  • 0:22 - 0:26
    Vår jord har existerat
    i 45 miljoner århundraden,
  • 0:26 - 0:28
    men det här är speciellt:
  • 0:28 - 0:31
    det är det första där en art, vår,
  • 0:31 - 0:34
    har planetens öde i sina händer.
  • 0:34 - 0:36
    Under nästan hela jordens historia
  • 0:36 - 0:38
    har hoten kommit från naturen -
  • 0:38 - 0:42
    sjukdom, jordbävningar,
    asteroider och så vidare -
  • 0:42 - 0:46
    men från och med nu
    kommer de värsta farorna
  • 0:46 - 0:47
    från oss själva.
  • 0:47 - 0:50
    Och det handlar inte bara om kärnvapenhot;
  • 0:50 - 0:52
    i vår sammankopplade värld
  • 0:52 - 0:55
    kan nätverk som bryter samman
    ge globala effekter,
  • 0:55 - 0:59
    flygresor kan sprida pandemier
    över hela världen på ett par dagar,
  • 0:59 - 1:03
    och sociala medier
    kan sprida panik och rykten,
  • 1:03 - 1:06
    bokstavligen med ljusets hastighet.
  • 1:06 - 1:09
    Vi retar upp oss för mycket
    på mindre problem -
  • 1:09 - 1:13
    osannolika flygolyckor,
    cancerframkallande ämnen i mat,
  • 1:13 - 1:15
    låga stråldoser, och så vidare -
  • 1:15 - 1:18
    men vi och våra politiska ledare
  • 1:18 - 1:22
    lever i förnekelse
    inför katastrofscenarier.
  • 1:22 - 1:25
    De värsta har som tur är inte hänt än.
  • 1:25 - 1:28
    Det kommer de förmodligen inte att göra.
  • 1:28 - 1:31
    Men om en händelse
    skulle kunna innebära katastrof
  • 1:31 - 1:34
    är det värt att betala en rejäl premie
  • 1:34 - 1:38
    för att skydda sig mot den,
    även om den är osannolik,
  • 1:38 - 1:41
    på samma sätt som vi har en hemförsäkring.
  • 1:42 - 1:47
    Och när vetenskapens makt
    och potential ökar,
  • 1:47 - 1:51
    gör det att den mörka baksidan
    också blir hemskare.
  • 1:51 - 1:53
    Vi blir ännu mer sårbara.
  • 1:53 - 1:55
    Inom ett par årtionden
  • 1:55 - 1:57
    kommer miljontals att ha möjligheten
  • 1:57 - 2:00
    att missbruka den snabbväxande biotekniken
  • 2:00 - 2:04
    på samma sätt som datateknik
    missbrukas idag.
  • 2:04 - 2:07
    Freeman Dyson förutsåg i ett TED-talk
  • 2:07 - 2:11
    att barn kommer att designa
    och skapa nya organismer
  • 2:11 - 2:15
    lika rutinmässigt som hans generation
    lekte med kemilådor.
  • 2:15 - 2:18
    Det här kanske ligger
    på gränsen till science fiction,
  • 2:18 - 2:21
    men om även en liten del
    av det här scenariot blir sanning
  • 2:21 - 2:24
    kommer vår ekologi
    och till och med vår art
  • 2:24 - 2:27
    inte att klara sig länge
    oskadda ifrån det.
  • 2:28 - 2:31
    Det finns till exempel
    några eko-extremister
  • 2:31 - 2:34
    som tror att det vore bättre
    för vår planet, för Gaia,
  • 2:34 - 2:37
    om det fanns många färre människor.
  • 2:37 - 2:40
    Vad händer när sådana människor
    har lärt sig bemästra
  • 2:40 - 2:42
    syntetiska biologitekniker
  • 2:42 - 2:45
    som kommer att vara allmänt kända 2050?
  • 2:45 - 2:48
    Och vid det laget kan andra
    mardrömmar från science fiction
  • 2:48 - 2:50
    ha blivit verklighet:
  • 2:50 - 2:52
    dumma robotar som blivit onda,
  • 2:52 - 2:54
    eller ett nätverk som skapat
    sitt eget medvetande
  • 2:54 - 2:57
    och hotar oss alla.
  • 2:57 - 3:00
    Kan vi skydda oss mot sådana risker
    genom lagstiftning?
  • 3:00 - 3:03
    Vi måste givetvis försöka,
    men de här företagen
  • 3:03 - 3:06
    är så tävlingsinriktade och globaliserade
  • 3:06 - 3:08
    och så marknadsdrivna
  • 3:08 - 3:11
    att allt som går att göra
    kommer att göras någonstans,
  • 3:11 - 3:13
    vilka lagar som än gäller.
  • 3:13 - 3:17
    Det är som med lagarna mot droger -
    vi försöker reglera dem, men misslyckas.
  • 3:17 - 3:20
    Och den globala byn
    kommer att ha sina byfånar,
  • 3:20 - 3:23
    och de kommer att ha global räckvidd.
  • 3:23 - 3:26
    Som jag skrev i min bok
  • 3:26 - 3:29
    kommer vi att få en skakig resa
    genom det här århundradet.
  • 3:29 - 3:32
    Vårt samhälle kommer kanske
    att råka ut för bakslag -
  • 3:32 - 3:36
    risken är faktiskt 50 procent
    att det kommer ett svårt bakslag.
  • 3:36 - 3:39
    Men finns det tänkbara händelser
  • 3:39 - 3:41
    som kan vara ännu värre,
  • 3:41 - 3:44
    som kan släcka ut allt liv?
  • 3:45 - 3:48
    När en ny partikelaccelerator dök upp
  • 3:48 - 3:49
    frågade sig några människor oroligt
  • 3:49 - 3:52
    om den kunde förstöra jorden,
    eller ännu värre,
  • 3:52 - 3:54
    riva sönder rymdens struktur?
  • 3:54 - 3:58
    Som tur är kunde vi ge dem
    ett lugnande besked.
  • 3:58 - 4:00
    Jag och andra pekade på att naturen
  • 4:00 - 4:02
    har gjort samma typ av experiment
  • 4:02 - 4:04
    otaliga gånger förut,
  • 4:04 - 4:06
    via kosmiska strålkrockar.
  • 4:06 - 4:09
    Men vetenskapsmän ska vara försiktiga
  • 4:09 - 4:11
    med att skapa tillstånd
  • 4:11 - 4:14
    som aldrig förut har funnits i universum.
  • 4:14 - 4:17
    Biologer ska undvika att släppa ut
  • 4:17 - 4:20
    genetiskt modifierade gifter
    som kan orsaka massförstörelse.
  • 4:20 - 4:24
    Och vår speciella motvilja
  • 4:24 - 4:27
    mot katastrofer som hotar vår existens
  • 4:27 - 4:30
    handlar förresten
    om en filosofisk och etisk fråga,
  • 4:30 - 4:32
    nämligen den här:
  • 4:32 - 4:34
    Tänk dig två scenarier.
  • 4:34 - 4:39
    Scenario A slår ut 90 procent
    av mänskligheten.
  • 4:40 - 4:43
    Scenario B slår ut 100 procent.
  • 4:43 - 4:46
    Hur mycket värre är B än A?
  • 4:46 - 4:49
    Några skulle säga 10 procent värre.
  • 4:49 - 4:52
    Antalet döda är 10 procent högre.
  • 4:53 - 4:55
    Men jag menar att B är ojämförligt värre.
  • 4:55 - 4:58
    Som astronom kan jag inte tro
  • 4:58 - 5:01
    att människorna är slutet på historien.
  • 5:01 - 5:04
    Det är fem miljarder år kvar
    innan solen brinner ut,
  • 5:04 - 5:07
    och universum kanske fortsätter för evigt,
  • 5:07 - 5:09
    så den efter-mänskliga evolutionen
  • 5:09 - 5:11
    här på jorden och långt bortom den,
  • 5:11 - 5:14
    kan bli lika utdragen
    som den darwinistiska process
  • 5:14 - 5:17
    som ledde fram till oss,
    och ännu mer underbar.
  • 5:17 - 5:20
    Och framtidens evolution
    kommer att ske mycket snabbare,
  • 5:20 - 5:22
    efter en teknologisk tidsskala
  • 5:22 - 5:23
    istället för
  • 5:23 - 5:25
    det naturliga urvalets tidsskala.
  • 5:25 - 5:28
    Så vi borde verkligen inte, om vi tar med
    dessa enorma insatser i beräkningen,
  • 5:28 - 5:32
    acceptera ens en risk
    på en på miljarden
  • 5:32 - 5:34
    att mänskligheten skulle utrotas
  • 5:34 - 5:36
    och dess enorma potential tillintetgöras.
  • 5:36 - 5:38
    Några av scenarierna som lagts fram
  • 5:38 - 5:40
    kan mycket väl handla om science fiction,
  • 5:40 - 5:43
    men andra kan visa sig vara
    oroväckande sanna.
  • 5:43 - 5:46
    Det är ett viktigt motto att det okända
  • 5:46 - 5:49
    inte är samma sak som det osannolika,
  • 5:49 - 5:51
    och det är därför
    vi på Cambridge University
  • 5:51 - 5:55
    bygger upp ett center för att studera
    hur vi ska kunna dämpa
  • 5:55 - 5:57
    de här existentiella riskerna.
  • 5:57 - 6:00
    Det verkar vara värt det
    att en liten grupp människor
  • 6:00 - 6:02
    funderar över de här
    potentiella katastroferna.
  • 6:02 - 6:05
    Och vi behöver all hjälp
    vi kan få från andra,
  • 6:05 - 6:09
    för vi är förvaltare
    av en värdefull ljusblå prick
  • 6:09 - 6:12
    i ett gigantiskt kosmos,
    en planet som har
  • 6:12 - 6:14
    50 miljoner århundraden framför sig.
  • 6:14 - 6:17
    Så låt oss inte riskera den framtiden.
  • 6:17 - 6:19
    Jag skulle vilja avsluta med ett citat
  • 6:19 - 6:22
    från en stor vetenskapsman
    som heter Peter Medawar.
  • 6:22 - 6:26
    Jag citerar, "Klockorna som ringer
    för mänskligheten
  • 6:26 - 6:28
    är som de klockor
    som kor i Alperna har.
  • 6:28 - 6:30
    De hänger runt våra egna halsar,
  • 6:30 - 6:33
    och det måste vara vårt eget fel
    om de inte ger ifrån sig
  • 6:33 - 6:35
    ett välklingande och melodiskt ljud."
  • 6:35 - 6:37
    Tack så mycket.
  • 6:37 - 6:40
    (Applåder)
Title:
Kan vi förhindra jordens undergång?
Speaker:
Sir Martin Rees
Description:

En post-apokalyptisk jord, utan människor, verkar hämtad från science fiction på TV eller film. Men i den här korta, överraskande presentationen ber Lord Martin Rees oss att tänka på våra verkliga existentiella risker - naturliga och manuellt framställda hot som skulle kunna slå ut mänskligheten. Som oroad medlem av mänskligheten ställer han frågan: "Vad är egentligen det värsta som kan hända?"

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Swedish subtitles

Revisions Compare revisions