Return to Video

Peut-on éviter l'apocalypse ?

  • 0:00 - 0:03
    Il y a 10 ans, j'ai écrit
    un livre intitulé
  • 0:03 - 0:06
    « Notre dernier siècle ? ».
    Point d'interrogation.
  • 0:06 - 0:09
    Mes éditeurs ont retiré
    le point d'interrogation. (Rires)
  • 0:09 - 0:11
    Les éditeurs américains
    l'ont renommé
  • 0:11 - 0:15
    « Notre Dernière Heure ».
  • 0:15 - 0:19
    Les Américains aiment la satisfaction
    immédiate et l'autre extrême.
  • 0:19 - 0:20
    (Rires)
  • 0:20 - 0:22
    Le sujet du livre, c'est que
  • 0:22 - 0:26
    notre Terre existe depuis
    45 millions de siècles,
  • 0:26 - 0:28
    mais ce siècle est spécial.
  • 0:28 - 0:31
    C'est le tout premier où
  • 0:31 - 0:34
    le futur de la planète
    dépend de nous
  • 0:34 - 0:36
    Dans l'histoire de la Terre, en général
  • 0:36 - 0:38
    les menaces sont venues de la nature -
  • 0:38 - 0:42
    les maladies, les tremblements de terre,
    les asteroïdes etc.
  • 0:42 - 0:47
    mais à partir de maintenant,
    les pires dangers viennent de nous-mêmes.
  • 0:47 - 0:50
    Et à présent, il ne s'agit plus
    seulement de la menace nucléaire;
  • 0:50 - 0:52
    Dans notre monde interconnecté,
  • 0:52 - 0:55
    les pannes de réseau peuvent
    se répandre partout ;
  • 0:55 - 0:59
    les voyages en avion peuvent répandre
    des pandémies en quelques jours ;
  • 0:59 - 1:03
    et les media sociaux peuvent
    propager panique et rumeurs
  • 1:03 - 1:06
    à la vitesse de la lumière,
    littéralement.
  • 1:06 - 1:09
    On s'inquiète trop des risques mineurs :
  • 1:09 - 1:13
    accidents d'avion improbables,
    alimentation cancérigène,
  • 1:13 - 1:15
    exposition à de faibles
    doses de radiations, etc.
  • 1:15 - 1:18
    Mais nous et nos politiciens
  • 1:18 - 1:22
    nions les possibilités
    de scénarios catastrophiques.
  • 1:22 - 1:25
    Heureusement le pire
    n'est pas encore arrivé.
  • 1:25 - 1:28
    Probablement, il n'arrivera jamais.
  • 1:28 - 1:31
    Mais s'il existe un évènement
    potentiellement dévastateur,
  • 1:31 - 1:34
    ça vaut la peine de
    payer une prime élevée
  • 1:34 - 1:38
    pour nous en protéger,
    même s'il est peu probable,
  • 1:38 - 1:42
    comme on assure sa maison
    contre l'incendie.
  • 1:42 - 1:47
    Et bien que la science offre des pouvoirs
    et des promesses de plus en plus grands
  • 1:47 - 1:51
    ses inconvénients deviennent aussi
    de plus en plus effrayants.
  • 1:51 - 1:53
    Nous devenons plus vulnérables
    que jamais.
  • 1:53 - 1:55
    D'ici quelques décennies
  • 1:55 - 1:57
    des millions de personnes
    seront capables
  • 1:57 - 2:00
    d'abuser d'une biotechnologie très avancée
  • 2:00 - 2:04
    comme ils abusent aujourd'hui
    de la cyber technologie.
  • 2:04 - 2:07
    Freeman Dyson, dans une conférence de TED
  • 2:07 - 2:11
    a prévu que des enfants concevraient
    et créeraient de nouveaux organismes
  • 2:11 - 2:15
    aussi habituellement que sa génération
    jouait avec une boîte de chimie.
  • 2:15 - 2:18
    Cela peut sembler être
    de la science fiction,
  • 2:18 - 2:21
    mais même si seulement une partie
    de son scenario se produit,
  • 2:21 - 2:24
    cela suggère que notre écologie
    et même notre espèce
  • 2:24 - 2:28
    ne s'en sortirait
    certainement pas indemne.
  • 2:28 - 2:31
    Par exemple, il y a
    des extrémistes écologistes
  • 2:31 - 2:34
    qui pensent qu'il serait mieux
    pour la planète,
  • 2:34 - 2:37
    pour Gaïa,
    s'il y avait beaucoup moins d'humains.
  • 2:37 - 2:40
    Qu'arrivera-t-il quand
    ces personnes maîtriseront
  • 2:40 - 2:42
    les techniques de la biologie synthétique
  • 2:42 - 2:45
    qui seront répandues en 2050 ?
  • 2:45 - 2:48
    De là, d'autres cauchemars
    de la science-fiction
  • 2:48 - 2:50
    pourraient devenir réalité :
  • 2:50 - 2:52
    des robots dévoyés,
  • 2:52 - 2:54
    ou un réseau qui
    développe son propre esprit.
  • 2:54 - 2:57
    et menace tout le monde.
  • 2:57 - 2:59
    Peut-on se prémunir contre
    ces risques
  • 2:59 - 3:01
    par la régulation ?
  • 3:01 - 3:03
    Il faut essayer,
    mais ces entreprises
  • 3:03 - 3:06
    sont si compétitives,
    si mondialisées,
  • 3:06 - 3:08
    et tellement motivées
    par la pression commerciale,
  • 3:08 - 3:11
    que tout ce qui est possible
    sera tenté,
  • 3:11 - 3:13
    quoiqu'en disent
    les régulations.
  • 3:13 - 3:17
    Comme les lois sur la drogue
    sont autant d'échecs.
  • 3:17 - 3:20
    Et le Village Mondial
    aura aussi ses idiots,
  • 3:20 - 3:23
    qui auront une portée mondiale.
  • 3:23 - 3:26
    Alors comme je dis dans mon livre,
  • 3:26 - 3:29
    on va traverser une mauvaise passe
    au cours de ce siècle.
  • 3:29 - 3:32
    Notre société
    connaîtra peut-être des revers.
  • 3:32 - 3:36
    Il y a en effet 50% de chance
    d'un revers grave.
  • 3:36 - 3:39
    Mais y a-t-il des évènements imaginables
  • 3:39 - 3:41
    que seraient encore pires ?
  • 3:41 - 3:45
    Des évènements qui pourraient
    éliminer toute vie ?
  • 3:45 - 3:48
    Quand un nouvel accélérateur
    de particules a été mis en marche,
  • 3:48 - 3:49
    des gens anxieux ont demandé :
  • 3:49 - 3:52
    pourrait-il détruire la Terre ?
    Ou pire,
  • 3:52 - 3:54
    déchirer la structure de l'espace ?
  • 3:54 - 3:58
    Heureusement, on a pu les rassurer.
  • 3:58 - 4:00
    D'autres et moi-même
    avons indiqué que la nature
  • 4:00 - 4:02
    a déjà mené les mêmes expériences
  • 4:02 - 4:04
    des millions de fois,
  • 4:04 - 4:06
    via des collisions
    de rayons cosmiques.
  • 4:06 - 4:09
    Mais certainement les scientifiques
    devraient être prudents
  • 4:09 - 4:11
    à propos des expériences
    qui génèrent des conditions
  • 4:11 - 4:14
    sans précédent dans la nature.
  • 4:14 - 4:17
    Les biologistes devraient éviter
    la dissémination dans l'environnement
  • 4:17 - 4:20
    de pathogènes génétiquement modifiés
    potentiellement nuisibles.
  • 4:20 - 4:24
    Et au fait, notre aversion
    particulière pour la possibilité
  • 4:24 - 4:27
    d'un désastre existentiel
  • 4:27 - 4:30
    dépend d'une question
    philosophique et éthique.
  • 4:30 - 4:32
    La voici :
  • 4:32 - 4:34
    considérez deux scénarios.
  • 4:34 - 4:40
    Dans le scénario A,
    90% de l'humanité est anéantie.
  • 4:40 - 4:43
    Dans le scénario B,
    100% de l'humanité est anéantie.
  • 4:43 - 4:46
    À quel point B est-il pire que A ?
  • 4:46 - 4:49
    Certains diraient 10% pire.
  • 4:49 - 4:53
    Le nombre de morts est de 10% plus élevé.
  • 4:53 - 4:55
    Moi, j'affirme que B
    est incomparablement pire.
  • 4:55 - 4:58
    Comme astronome,
    je ne peux pas croire
  • 4:58 - 5:01
    que les humains soient
    la fin de l'histoire.
  • 5:01 - 5:04
    Il reste 5 milliards d'années
    avant que le soleil ne s'embrase,
  • 5:04 - 5:07
    et l'univers pourrait durer éternellement.
  • 5:07 - 5:09
    Alors l'évolution post-humaine,
  • 5:09 - 5:11
    ici sur Terre et bien loin ailleurs,
  • 5:11 - 5:14
    pourrait se prolonger autant
    que le processus darwinien,
  • 5:14 - 5:17
    qui a abouti à nous,
    et à des choses encore plus merveilleuses.
  • 5:17 - 5:20
    Et en effet, l'évolution future
    arrivera plus rapidement,
  • 5:20 - 5:22
    à une échelle de temps
    technologique
  • 5:22 - 5:24
    et non à l'échelle
    de la sélection naturelle.
  • 5:24 - 5:28
    Par conséquent, compte tenu
    des enjeux immenses,
  • 5:28 - 5:32
    nous ne devrions même pas accepter
    un risque de un sur un milliard
  • 5:32 - 5:36
    que l'extinction de l'humanité
    tue cet énorme potentiel.
  • 5:36 - 5:40
    En fait, certains scénarios
    pourraient relever de la science fiction,
  • 5:40 - 5:43
    mais d'autres malheureusement
    pourraient s'avérer bien réels.
  • 5:43 - 5:46
    Une importante maxime dit que
  • 5:46 - 5:49
    inconnu ne signifie pas improbable.
  • 5:49 - 5:51
    Et c'est pourquoi à
    l'Université de Cambridge
  • 5:51 - 5:55
    nous installons un centre
    de recherche pour examiner comment
  • 5:55 - 5:57
    atténuer ces risques existentiels.
  • 5:57 - 6:00
    Il semble qu'il vaille la peine
    pour quelques chercheurs
  • 6:00 - 6:02
    de réfléchir aux catastrophes possibles.
  • 6:02 - 6:05
    Et nous avons besoin
    de toute l'aide possible.
  • 6:05 - 6:08
    Car nous sommes protecteurs
  • 6:08 - 6:11
    d'un petit point bleu pâle
    si précieux dans ce vaste cosmos.
  • 6:11 - 6:14
    Une planète qui a encore
    50 millions de siècles à venir.
  • 6:14 - 6:17
    Alors ne compromettons pas son avenir.
  • 6:17 - 6:19
    Je terminerai par une citation
  • 6:19 - 6:22
    du grand scientifique
    Peter Medawar.
  • 6:22 - 6:26
    Je cite : « Les cloches qui sonnent
    pour l'humanité
  • 6:26 - 6:28
    sont comme les cloches
    des vaches des Alpes.
  • 6:28 - 6:30
    Elles sont attachées à nos propres cous
  • 6:30 - 6:33
    et ce doit être notre faute si ces cloches
  • 6:33 - 6:35
    ne font pas un son musical et mélodieux. »
  • 6:35 - 6:38
    Merci beaucoup.
  • 6:38 - 6:40
    (Applaudissements)
Title:
Peut-on éviter l'apocalypse ?
Speaker:
Sir Martin Rees
Description:

Un monde post-apocalyptique, sans les humains ressemble à une histoire de science fiction. Mais dans cette conférence TED, Sir Martin Rees réfléchit aux risques existentiels - naturels ou menace créée par l'homme - qui pourraient anéantir l'humanité. En tant que membre du genre humain, il pose la question : que peut-il arriver de pire ?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

French subtitles

Revisions