Return to Video

Et si les ordinateurs devenaient plus intelligents que nous?

  • 0:01 - 0:05
    Je travaille avec des mathématiciens, des
    philosophes et des informaticiens,
  • 0:05 - 0:10
    et, ensemble, nous réfléchissons sur le
    futur des machines intelligentes,
  • 0:10 - 0:12
    entre autres.
  • 0:12 - 0:17
    Certains pensent que ces sujets sont
    de la pure science-fiction,
  • 0:17 - 0:20
    irréels et fous.
  • 0:20 - 0:21
    Mais j'aime leur répondre:
  • 0:21 - 0:25
    « Ok, regardons un instant les
    conditions humaines modernes. »
  • 0:25 - 0:27
    (Rire)
  • 0:27 - 0:29
    Ceci est ce qu'on considère comme normal.
  • 0:29 - 0:31
    Mais quand on y pense,
  • 0:31 - 0:35
    nous, l'espèce humaine,
    ne sommes apparus sur cette planète
  • 0:35 - 0:37
    que très récemment.
  • 0:37 - 0:41
    Si la Terre avait été créée
    il y un an,
  • 0:41 - 0:45
    les humains ne seraient âgés
    que de 10 minutes.
  • 0:45 - 0:48
    L'ère industrielle n'aurait commencé
    qu'il y a deux secondes.
  • 0:49 - 0:55
    Un autre point de vue consiste à regarder
    le PIB des 10 000 dernières années.
  • 0:55 - 0:58
    J'ai fait l'effort de synthétiser ces
    données en un tableau.
  • 0:58 - 0:59
    Ça ressemble à ça.
  • 0:59 - 1:01
    (Rire)
  • 1:01 - 1:03
    Drôle de forme pour
    une condition « normale ».
  • 1:03 - 1:05
    Je ne voudrais pas m'asseoir dessus.
  • 1:05 - 1:07
    (Rire)
  • 1:07 - 1:12
    Demandons-nous: quelle est
    la cause de cette anomalie?
  • 1:12 - 1:14
    Certains disent que c'est la technologie.
  • 1:14 - 1:19
    Il est vrai que les technologies se sont
    accumulées au cours de l'histoire humaine
  • 1:19 - 1:24
    et qu'en ce moment, elles se développent
    extrêmement rapidement.
  • 1:24 - 1:25
    C'est relié à la vraie cause,
  • 1:25 - 1:28
    car c'est ce qui nous permet
    d'être si productifs.
  • 1:28 - 1:32
    Mais j'aime à penser que la cause ultime
    réside plus loin dans le temps.
  • 1:33 - 1:37
    Regardez ces deux messieurs
    hautement distingués.
  • 1:37 - 1:38
    Il y a Kanzi:
  • 1:38 - 1:43
    il maîtrise 200 unités lexicales,
    un exploit incroyable.
  • 1:43 - 1:47
    Et Ed Witten, qui a mené à la 2e
    révolution de la théorie des supercordes.
  • 1:47 - 1:49
    Si l'on regarde sous le capot,
    voici ce que l'on voit:
  • 1:49 - 1:51
    pratiquement la même chose.
  • 1:51 - 1:53
    Un est un peu plus gros
  • 1:53 - 1:55
    et a peut-être quelques
    différences dans sa connexion.
  • 1:55 - 1:59
    Mais ces différences invisibles ne peuvent
    pas être si compliquées,
  • 1:59 - 2:03
    car il y a seulement
    250 000 générations,
  • 2:03 - 2:05
    nous avions le même ancêtre.
  • 2:05 - 2:09
    Nous savons que les mécanisme complexes
    prennent longtemps à évoluer.
  • 2:10 - 2:12
    Donc, une série de petits changements
  • 2:12 - 2:16
    nous amène
    de Kanzi à Witten,
  • 2:16 - 2:20
    de branches cassés à des
    missiles balistiques intercontinentaux.
  • 2:21 - 2:25
    Il semble donc évident que tout ce
    que l'on a créé,
  • 2:25 - 2:26
    et tout ce à quoi l'on tient,
  • 2:26 - 2:31
    dépend à la base de quelques relativement
    petits changements dans le cerveau humain.
  • 2:33 - 2:36
    Et, corolairement, bien sûr,
    n'importe quel changement
  • 2:36 - 2:40
    qui pourrait affecter
    l'essence de la pensée
  • 2:40 - 2:43
    pourrait potentiellement avoir
    d'énormes conséquences.
  • 2:44 - 2:47
    Certains de mes collègues
    pensent que nous sommes
  • 2:47 - 2:51
    près de quelque chose qui pourrait créer
    un profond changement dans cette essence:
  • 2:51 - 2:54
    les machines à intelligence artificielle.
  • 2:54 - 2:59
    Avant, l'intelligence artificielle (IA)
    consistait à créer des commandes.
  • 2:59 - 3:02
    Des programmeurs humains
    inséraient avec difficultés
  • 3:02 - 3:04
    des éléments d'information
    dans une boîte.
  • 3:04 - 3:06
    On construisait des machines expertes qui
  • 3:06 - 3:09
    étaient utiles pour certaines choses,
    mais qui étaient très restreintes.
  • 3:09 - 3:11
    On ne pouvait les faire à grande échelle.
  • 3:11 - 3:14
    On en retirait que ce
    que l'on avait mis.
  • 3:14 - 3:15
    Mais depuis,
  • 3:15 - 3:19
    un changement de paradigme à eu lieu dans
    le domaine de l'intelligence artificielle.
  • 3:19 - 3:22
    Aujourd'hui, on se concentre sur
    les machines qui apprennent.
  • 3:22 - 3:28
    Donc, au lieu d'insérer
    manuellement de l'information,
  • 3:29 - 3:34
    on crée des algorithmes qui apprennent,
    souvent à partir de donnés perceptives.
  • 3:34 - 3:39
    Essentiellement, ils font la même
    chose que des enfants humains.
  • 3:39 - 3:43
    Il en résulte des IA qui ne sont
    pas limitées à un seul domaine;
  • 3:43 - 3:48
    le même système peut apprendre
    à traduire n'importe quelle langue
  • 3:48 - 3:53
    et à jouer tous les jeux
    sur la console Atari.
  • 3:53 - 3:55
    Bien sûr,
  • 3:55 - 3:59
    l'IA est loin d'avoir la même
    puissance universelle
  • 3:59 - 4:02
    d'apprentissage et de planification
    que l'être humain.
  • 4:02 - 4:05
    Le cortex a encore quelques
    ruses algorithmiques
  • 4:05 - 4:07
    que l'on arrive pas à créer
    dans des machines.
  • 4:08 - 4:10
    La question est donc:
  • 4:10 - 4:13
    dans combien de temps
    réussirons-nous à les créer?
  • 4:14 - 4:15
    Il y a quelques années,
  • 4:15 - 4:19
    nous avons fait un sondage auprès
    d'experts de l'IA mondialement reconnus
  • 4:19 - 4:20
    pour avoir leur opinion.
  • 4:20 - 4:25
    Une des questions posées était:
    « À quand, selon vous, un 50% de chance
  • 4:25 - 4:28
    d’avoir créé une intelligence artificielle
    équivalente à celle de l’humain? »
  • 4:29 - 4:33
    Nous avons définis cette dernière comme
    l'habileté de faire n'importe quel travail
  • 4:33 - 4:36
    aussi bien, voire mieux,
    qu'un humain adulte,
  • 4:36 - 4:40
    au niveau d’une intelligence humaine,
    qui n'est pas restreinte à un seul domaine.
  • 4:40 - 4:43
    Et la réponse médiane a été 2040 ou 2050,
  • 4:43 - 4:46
    selon les groupes d'experts questionnés.
  • 4:46 - 4:50
    Bien sûr, cela pourrait se produire bien
    plus tard, ou plus tôt;
  • 4:50 - 4:53
    la vérité, c'est que personne ne le sait.
  • 4:53 - 4:58
    Ce que l'on sait, par contre, c'est que
    la capacité de traitement de l'information
  • 4:58 - 5:03
    est beaucoup plus grande pour
    une machine que pour un humain.
  • 5:03 - 5:06
    C'est simplement de la physique.
  • 5:06 - 5:10
    Un neurone biologique décharge, environ, à
    200 Hertz, 200 fois/sec,
  • 5:10 - 5:14
    alors qu'un transistor, de nos jours,
    fonctionne en Gigahertz.
  • 5:14 - 5:19
    Les neurones se propagent en axons à une
    vitesse de 100 m/sec, max,
  • 5:19 - 5:23
    alors que les signaux des ordinateurs
    peuvent voyager à la vitesse de la lumière
  • 5:23 - 5:25
    Il y a aussi des
    différences de grandeur:
  • 5:25 - 5:28
    un cerveau humain doit entrer à
    l’intérieur d'un crâne,
  • 5:28 - 5:33
    alors qu'un ordinateur peut avoir la
    taille d'un entrepôt, et même plus.
  • 5:33 - 5:38
    Donc, le potentiel de la
    super-intelligence est en attente,
  • 5:38 - 5:44
    tout comme celui du pouvoir de l'atome
    l'était au cours de l'histoire,
  • 5:44 - 5:48
    attendant patiemment jusqu'en 1945.
  • 5:48 - 5:50
    Au cours de notre siècle,
  • 5:50 - 5:54
    les scientifiques réussiront peut-être à
    exploiter le pouvoir de l'I.A.
  • 5:54 - 5:58
    Et alors, selon moi, nous verrons
    une explosion de l'intelligence.
  • 5:58 - 6:02
    Je crois que lorsque quelqu'un s'imagine
    ce qu'est être intelligent ou idiot,
  • 6:02 - 6:05
    il a en tête une image comme celle-ci.
  • 6:05 - 6:08
    À un bout, il y a l’idiot du village,
  • 6:08 - 6:10
    et très loin à l'autre bout,
  • 6:10 - 6:15
    il y a Ed Witten, ou Albert Einstein, ou
    peu importe qui est votre génie préféré.
  • 6:15 - 6:19
    Mais du point de vue de
    l'intelligence artificielle,
  • 6:19 - 6:23
    la vraie image ressemble plutôt à ceci.
  • 6:23 - 6:27
    L'IA a commencé au bout,
    avec zéro intelligence,
  • 6:27 - 6:30
    puis, après plusieurs années de travail,
  • 6:30 - 6:33
    nous arriverons peut-être à la rendre
    au niveau de la souris,
  • 6:33 - 6:37
    c'.-à-d. qu'elle pourra naviguer
    dans des environnements encombrés,
  • 6:37 - 6:38
    tout comme une souris.
  • 6:38 - 6:42
    Puis, après plusieurs autres années
    de travail, beaucoup d'investissements,
  • 6:42 - 6:47
    nous arriverons peut-être au niveau
    d'intelligence des chimpanzés.
  • 6:47 - 6:50
    Puis, après encore plusieurs autres années
    de travail très acharné,
  • 6:50 - 6:53
    nous arriverons au
    niveau de l’idiot du village.
  • 6:53 - 6:56
    Puis, à peine un moment plus tard,
    nous serons au-delà d'Ed Witten,
  • 6:56 - 6:59
    car le train ne s'arrête pas
    à la station Humain.
  • 6:59 - 7:02
    Il y a de bonne chance qu'il
    passe tout droit.
  • 7:02 - 7:04
    Cela aura des conséquences importantes,
  • 7:04 - 7:08
    en particulier lorsqu'il est
    question du pouvoir.
  • 7:08 - 7:10
    Par exemple, les chimpanzés sont forts,
  • 7:10 - 7:15
    — livre pour livre, ils sont environ 2 fois
    plus fort qu'un humain bien bâti —
  • 7:15 - 7:20
    Pourtant, le destin de Kanzi et de ses
    amis dépend bien plus
  • 7:20 - 7:24
    des activités des humains que de leurs
    propres activités.
  • 7:25 - 7:28
    Une fois qu'il y aura
    une super-intelligence,
  • 7:28 - 7:31
    le destin des humains dépendra peut-être
    uniquement des activités de celle-ci.
  • 7:32 - 7:34
    Pensez-y:
  • 7:34 - 7:39
    L'IA est la dernière invention que les
    humains auront jamais à créer.
  • 7:39 - 7:42
    Les machines seront de meilleurs
    créateurs que nous,
  • 7:42 - 7:44
    et ils le feront à une vitesse
    à l'échelle numérique.
  • 7:44 - 7:49
    Cela signifie que le futur
    va arriver avant son temps.
  • 7:49 - 7:52
    Pensez à toutes les technologies
    audacieuses possibles
  • 7:52 - 7:56
    que les humains auraient peut-être
    réussi à créer avec le temps:
  • 7:56 - 7:59
    la fontaine de jouvence,
    la colonisation de l'espace,
  • 7:59 - 8:02
    des nanorobots autoréplicatifs,
    des esprits intégrés à des ordinateurs,
  • 8:02 - 8:04
    toutes sortes de choses de science-fiction
  • 8:04 - 8:07
    qui sont tout de même compatibles
    avec les lois de la physique.
  • 8:07 - 8:11
    Tout cela pourrait être créé par la
    super-intelligence, sans doute rapidement.
  • 8:12 - 8:16
    Une super-intelligence à
    un niveau aussi élevé
  • 8:16 - 8:18
    serait extrêmement puissante,
  • 8:18 - 8:23
    et, dans certains scénarios,
    elle aurait tout ce qu'elle veut.
  • 8:23 - 8:28
    Notre futur serait donc
    construit selon ses préférences.
  • 8:30 - 8:34
    Une bonne question à se poser est:
    mais quelles sont ces préférences?
  • 8:34 - 8:36
    C'est là que ça devient plus compliqué.
  • 8:36 - 8:37
    Pour avancer sur ce sujet,
  • 8:37 - 8:41
    il faut avant tout éviter
    l'anthropomorphisme.
  • 8:42 - 8:49
    C'est ironique, car chaque article de
    journal à ce propos offre cette image.
  • 8:50 - 8:54
    Donc, ce que je pense qu'on doit faire,
    c'est penser de façon plus abstraite,
  • 8:54 - 8:57
    et non pas selon les
    scénarios hollywoodiens.
  • 8:57 - 9:01
    Nous devons penser à l'intelligence
    comme un processus d'amélioration
  • 9:01 - 9:06
    qui dirige le futur selon certaines
    configurations précises.
  • 9:06 - 9:10
    Une super-intelligence est un processus
    d'amélioration excellent.
  • 9:10 - 9:14
    Il est très bon pour utiliser tous
    les moyens disponibles
  • 9:14 - 9:16
    pour arriver à son but.
  • 9:16 - 9:19
    Cela signifie qu'il n'y a
    pas nécessairement de lien
  • 9:19 - 9:22
    entre avoir une haute intelligence
  • 9:22 - 9:27
    et avoir un objectif que les humains
    trouvent digne d'intérêt ou significatif.
  • 9:27 - 9:31
    Par exemple, l'IA pourrait avoir comme
    objectif de faire sourire les humains.
  • 9:31 - 9:34
    Au début, l'IA n'étant pas encore très
    développée, elle fera sans doute
  • 9:34 - 9:37
    des actions qui feront
    sourire l'utilisateur.
  • 9:37 - 9:39
    Puis, quand elle
    deviendra super-intelligente,
  • 9:39 - 9:43
    elle découvrira qu'il y a une autre
    façon plus efficace d'arriver à son but:
  • 9:43 - 9:44
    prendre contrôle de la planète
  • 9:44 - 9:48
    et coller des électrodes aux muscles
    faciaux des humains
  • 9:48 - 9:50
    afin que, constamment, ils
    aient un large sourire.
  • 9:50 - 9:52
    Un autre exemple.
  • 9:52 - 9:55
    Nous donnons à l'IA un problème
    mathématique complexe à résoudre.
  • 9:55 - 9:57
    Lorsque l'IA devient super-intelligent,
  • 9:57 - 10:01
    il découvre que la façon la plus
    efficace pour le résoudre
  • 10:01 - 10:04
    est de transformer la planète en un
    immense ordinateur
  • 10:04 - 10:06
    afin d'augmenter sa capacité de penser.
  • 10:06 - 10:09
    L'IA se retrouve donc avec
    une raison instrumentale
  • 10:09 - 10:11
    de nous faire subir des choses
    que nous n'approuvons pas.
  • 10:11 - 10:14
    Dans cet exemple, les humains
    sont des menaces;
  • 10:14 - 10:17
    nous pourrions empêcher que
    le problème soit résolu.
  • 10:17 - 10:21
    Bien sûr, les choses ne se passeront
    pas nécessairement de cette façon là:
  • 10:21 - 10:22
    ce sont des caricatures.
  • 10:22 - 10:25
    Mais ce qui est important
    à retenir est ceci:
  • 10:25 - 10:27
    si l'on crée une machine très puissante
  • 10:27 - 10:30
    afin d'atteindre l'objectif X,
  • 10:30 - 10:32
    on est mieux de s'assurer que
    la définition de X
  • 10:32 - 10:35
    comprend tout ce à quoi l'on tient.
  • 10:35 - 10:39
    C'est une morale qui est aussi racontée
    à travers plusieurs mythes.
  • 10:39 - 10:45
    Le Roi Midas souhaite que tout ce qu'il
    touche devienne de l'or.
  • 10:45 - 10:47
    Il touche sa fille,
    elle se transforme en or.
  • 10:47 - 10:50
    Il touche sa nourriture,
    elle se transforme en or.
  • 10:50 - 10:55
    Ceci est pertinent non seulement pour
    créer une métaphore sur l'envie,
  • 10:55 - 10:59
    mais aussi pour illustrer ce qui arrive
    si l'on crée une super-machine
  • 10:59 - 11:04
    et qu'on lui donne des buts inadaptés
    ou mal spécifiés.
  • 11:04 - 11:09
    On peut penser: « Si l'ordinateur commence
    à coller des électrodes sur les gens,
  • 11:09 - 11:12
    on n'aura qu'à l'éteindre. »
  • 11:13 - 11:18
    1. Ce n'est pas nécessairement facile
    si nous sommes dépendants du système
  • 11:18 - 11:21
    — Où est le bouton off d'Internet? —
  • 11:21 - 11:26
    2. Pourquoi les chimpanzés n'ont pas
    « éteint » les humains
  • 11:26 - 11:27
    ou les Néandertaliens?
  • 11:27 - 11:30
    Ils avaient sans doute des raisons,
  • 11:30 - 11:33
    car nous pouvons être éteints,
    par exemple, par ici.
  • 11:33 - 11:34
    — Étouffant —
  • 11:34 - 11:37
    La raison est que nous sommes
    des adversaires intelligents.
  • 11:37 - 11:40
    Nous pouvons anticiper les menaces
    et planifier en conséquence.
  • 11:40 - 11:43
    Et c'est ce que ferait un ordinateur
    super-intelligent,
  • 11:43 - 11:46
    et bien mieux que nous en plus.
  • 11:46 - 11:53
    Le fait est que nous ne devrions pas
    penser que nous maîtrisons la situation.
  • 11:53 - 11:56
    Nous pourrions essayer de faciliter
    notre travail
  • 11:56 - 11:58
    en mettant l'IA dans une boîte,
  • 11:58 - 12:00
    tel un environnement
    numérique sécuritaire,
  • 12:00 - 12:03
    une réalité virtuelle de laquelle il ne
    pourrait s'échapper.
  • 12:03 - 12:07
    Mais pouvons-nous vraiment être sûr que
    l'IA ne trouvera pas de bogues,
  • 12:07 - 12:10
    surtout considérant que les hackers
    humains y arrivent sans arrêt?
  • 12:10 - 12:13
    Je ne crois pas.
  • 12:14 - 12:19
    Donc nous débranchons les câbles ethernets
    afin de créer un manque d'air,
  • 12:19 - 12:21
    mais là encore, les hackers humains
  • 12:21 - 12:25
    passent de manière routinière par-dessus
    ces problèmes grâce à l’ingénierie.
  • 12:25 - 12:26
    Au moment où je vous parle,
  • 12:26 - 12:28
    je suis sûr qu'il y a un employé,
    quelque part,
  • 12:28 - 12:32
    que l'on a convaincu de divulguer
    les détails de son compte
  • 12:32 - 12:35
    en prétendant être du
    département de soutien informatique.
  • 12:35 - 12:37
    Des scénarios plus créatifs
    sont aussi possibles.
  • 12:37 - 12:38
    Par exemple, si vous êtes l'IA,
  • 12:38 - 12:42
    vous pouvez vous imaginer remuant des
    électrodes dans votre circuit interne
  • 12:42 - 12:45
    afin de créer des ondes radios
    pour communiquer.
  • 12:45 - 12:47
    Ou, vous pourriez prétendre
    ne plus fonctionner,
  • 12:47 - 12:51
    et, lorsque les programmeurs vous ouvrent
    afin de voir quel est le problème,
  • 12:51 - 12:53
    il regarde le code source, et BAM!,
  • 12:53 - 12:55
    la manipulation peut commencer.
  • 12:55 - 12:59
    Ou il pourrait changer les plans
    avec une technologie astucieuse
  • 12:59 - 13:01
    de tel sorte que
    lorsqu'on les implante,
  • 13:01 - 13:05
    un effet secondaire
    prévu par l'IA se produit.
  • 13:05 - 13:08
    Ce qu'il faut retenir, c'est qu'on ne
    devrait pas avoir trop confiance
  • 13:08 - 13:12
    en notre capacité à maintenir
    un génie dans une lampe pour toujours.
  • 13:12 - 13:14
    Tôt ou tard, il en sortira.
  • 13:15 - 13:18
    Je crois que la solution
    est de trouver une façon
  • 13:18 - 13:24
    de créer une IA qui, même si elle
    s'échappe, sera toujours sécuritaire:
  • 13:24 - 13:28
    une IA qui sera toujours de notre bord,
    car elle partagera nos valeurs.
  • 13:28 - 13:32
    Je ne vois aucun moyen
    de contourner ce problème.
  • 13:33 - 13:36
    Mais je suis plutôt optimiste et
    je crois qu'on peut trouver la solution.
  • 13:36 - 13:40
    Nous n'aurions pas à faire une longue
    liste de tout ce à quoi l'on tient,
  • 13:40 - 13:44
    ou, pire encore, transformer celle-ci
    en langage informatique
  • 13:44 - 13:45
    tel C++ ou Python;
  • 13:45 - 13:48
    ce serait une tâche désespérée.
  • 13:48 - 13:52
    Il faudrait plutôt créer une IA
    qui utilise son intelligence
  • 13:52 - 13:55
    pour apprendre ce à quoi l'on tient
  • 13:55 - 14:01
    et qui est construit de tel sorte que
    sa motivation consiste à défendre
  • 14:01 - 14:06
    nos valeurs ou à faire des actions
    seulement s'il pense qu'on les approuve.
  • 14:06 - 14:09
    Nous utiliserions donc son
    intelligence autant que possible
  • 14:09 - 14:13
    afin qu'elle résolve le problème
    d’implantation de la liste de valeurs.
  • 14:13 - 14:14
    Cela est possible
  • 14:14 - 14:18
    et le résultat pourrait être
    incroyable pour l'humanité.
  • 14:18 - 14:21
    Mais ça ne se passera pas
    comme ça obligatoirement.
  • 14:21 - 14:25
    Il faut que les conditions initiales,
    lors de l'explosion de l'intelligence,
  • 14:25 - 14:30
    soient créées d'une façon spécifique afin
    que nous ayons un détonation contrôlée.
  • 14:30 - 14:34
    Les valeurs de l'IA doivent être
    les mêmes que les nôtres
  • 14:34 - 14:36
    non seulement dans le
    contexte que l'on connaît
  • 14:36 - 14:38
    où l'on peut contrôler
    son comportement,
  • 14:38 - 14:41
    mais aussi dans des contextes nouveaux
    que l'IA peut rencontrer
  • 14:41 - 14:43
    dans un futur indéfini.
  • 14:43 - 14:47
    Il y a aussi quelques problèmes
    ésotériques qui devraient être réglés:
  • 14:47 - 14:50
    le détail de sa méthode pour
    prendre des décisions,
  • 14:50 - 14:52
    sa façon de gérer les
    incertitudes logiques, etc.
  • 14:53 - 14:57
    Donc, les problèmes techniques qui
    doivent être résolus semblent difficiles,
  • 14:57 - 15:01
    pas autant que créer
    une IA super-intelligente,
  • 15:01 - 15:04
    mais assez difficiles quand même.
  • 15:04 - 15:05
    Voici ce qui est inquiétant:
  • 15:05 - 15:10
    Créer une IA super-intelligente
    est un défi colossal.
  • 15:10 - 15:13
    Créer une IA super-intelligente
    qui, en plus, est sécuritaire
  • 15:13 - 15:15
    rajoute un niveau de difficulté.
  • 15:16 - 15:20
    Le risque réside dans la possibilité que
    quelqu'un surmonte le premier défi,
  • 15:20 - 15:24
    sans avoir surmonté le deuxième,
    celui de la sécurité.
  • 15:25 - 15:31
    Donc, je crois qu'on devrait surmonter
    le deuxième défi en avance
  • 15:31 - 15:34
    afin qu'il soit prêt lorsqu'on
    en a besoin.
  • 15:35 - 15:38
    Peut-être ne pourrons-nous pas le
    surmonter entièrement en avance,
  • 15:38 - 15:41
    car certains éléments
    ne peuvent être créés
  • 15:41 - 15:45
    seulement lorsque l'on connaîtra les
    détails techniques de l'IA en question.
  • 15:45 - 15:49
    Mais plus nous commencerons à travailler
    sur ce problème de contrôle en avance,
  • 15:49 - 15:53
    plus nous augmenterons nos chances
    de passer dans cette nouvelle ère
  • 15:53 - 15:54
    en tout sécurité.
  • 15:54 - 15:59
    Selon moi, ceci est la chose
    la plus importante à faire.
  • 15:59 - 16:02
    Je suis sûr que si on y parvient,
  • 16:02 - 16:07
    les humains dans des millions d'années
    qui se pencheront sur notre siècle
  • 16:07 - 16:11
    diront que la seule chose que nous avons
    fait qui avait vraiment de l'importance
  • 16:11 - 16:13
    était de réussir à surmonter ce défi.
  • 16:13 - 16:14
    Merci
  • 16:14 - 16:17
    (Applaudissements)
Title:
Et si les ordinateurs devenaient plus intelligents que nous?
Speaker:
Nick Bostrom
Description:

L'intelligence artificielle (IA) devient de plus en plus intelligente. Des recherches suggèrent qu'au cours de notre siècle, une IA pourrait être aussi intelligente qu'un humain. Alors, dit Nick Bostrom, elle pourrait nous diriger: « L'intelligence artificielle est la dernière invention que devra créer l'humanité. » Le philosophe et technologue, Nick Bostrom nous demande de réfléchir au monde que nous sommes en train de construire, un monde rempli de machines intelligentes. Ces dernières nous aideront-elles à préserver l'humanité avec nos valeurs, ou auront-elles leurs propres objectifs?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

French (Canada) subtitles

Revisions Compare revisions