Return to Video

Pouvons-nous concevoir une IA sans en perdre le contrôle ?

  • 0:01 - 0:03
    Je vais vous parler
    d'une erreur de jugement
  • 0:03 - 0:05
    que beaucoup d'entre nous font.
  • 0:05 - 0:09
    Il s'agit de l'incapacité à détecter
    un certain type de danger.
  • 0:09 - 0:11
    Je vais décrire un scénario
  • 0:11 - 0:14
    que je pense à la fois terrifiant
  • 0:14 - 0:16
    et pourtant susceptible d'arriver,
  • 0:17 - 0:18
    et ce genre de combinaison
  • 0:19 - 0:20
    n'est pas une bonne chose.
  • 0:20 - 0:23
    Pourtant, au lieu d'avoir peur,
    la plupart d'entre vous penseront
  • 0:23 - 0:25
    que c'est plutôt cool.
  • 0:25 - 0:28
    Je vais décrire comment
    les avancées que nous faisons
  • 0:28 - 0:30
    dans l'intelligence artificielle
  • 0:30 - 0:32
    pourraient finir par nous détruire.
  • 0:32 - 0:35
    Il semble difficile de voir comment
    cela pourrait ne pas nous détruire
  • 0:35 - 0:37
    ou nous aider à nous détruire.
  • 0:37 - 0:39
    Pourtant, si vous me ressemblez un peu,
  • 0:39 - 0:42
    vous allez trouver amusant
    de réfléchir à ces choses-là.
  • 0:42 - 0:45
    Et cette façon de voir les choses
    est une partie du problème.
  • 0:45 - 0:47
    Ce sentiment devrait vous inquiéter.
  • 0:48 - 0:51
    Et si je devais vous convaincre,
    avec cette présentation,
  • 0:51 - 0:54
    que nous allons probablement
    souffrir d'une famine généralisée,
  • 0:54 - 0:57
    soit à cause du climat
    ou de toute autre catastrophe,
  • 0:57 - 1:01
    et que vos petits-enfants,
    ou leurs petits-enfants,
  • 1:01 - 1:02
    ont de grandes chances de vivre ainsi,
  • 1:03 - 1:04
    vous ne penseriez pas :
  • 1:05 - 1:07
    « Intéressant.
  • 1:07 - 1:08
    Cool, ce TED. »
  • 1:09 - 1:11
    La famine, ce n'est pas amusant.
  • 1:12 - 1:15
    La mort en science-fiction,
    en revanche, est un concept amusant
  • 1:15 - 1:19
    et ce qui m'inquiète le plus à propos
    du développement de l'IA en ce moment
  • 1:19 - 1:23
    est le fait que nous semblons
    incapables de nous faire une idée
  • 1:23 - 1:25
    des dangers qui nous attendent.
  • 1:25 - 1:28
    Je n'ai pas de réponse,
    alors que je suis ici, à vous en parler.
  • 1:30 - 1:33
    C'est comme si nous étions
    face à deux portes.
  • 1:33 - 1:34
    Derrière la porte n°1,
  • 1:34 - 1:37
    nous arrêtons nos progrès
    dans le développement de nos machines.
  • 1:37 - 1:41
    Hardware et software stagnent,
    pour une raison ou pour une autre.
  • 1:41 - 1:44
    Essayez d'imaginer
    ce qui pourrait arrêter ce développement.
  • 1:45 - 1:47
    Étant donnée l'importance
    de l'intelligence
  • 1:47 - 1:48
    et de l'automatisation
  • 1:48 - 1:52
    nous allons continuer à améliorer
    notre technologie si nous le pouvons.
  • 1:53 - 1:55
    Qu'est-ce qui nous en empêcherait ?
  • 1:56 - 1:58
    Une guerre nucléaire mondiale ?
  • 1:59 - 2:01
    Une pandémie globale ?
  • 2:02 - 2:04
    Un impact d'astéroïde ?
  • 2:06 - 2:08
    Justin Bieber président des États-Unis ?
  • 2:08 - 2:11
    (Rires)
  • 2:13 - 2:16
    Il faudrait que la civilisation
    telle que nous la connaissons
  • 2:16 - 2:17
    soit détruite.
  • 2:17 - 2:22
    Il faudrait vraiment imaginer
    quelque chose de terrible
  • 2:22 - 2:25
    pour que nous arrêtions
    de développer notre technologie
  • 2:25 - 2:26
    totalement,
  • 2:26 - 2:28
    génération après génération.
  • 2:28 - 2:30
    Par définition,
    ce serait la pire chose
  • 2:30 - 2:32
    qui serait jamais arrivée à l'humanité.
  • 2:33 - 2:34
    Donc la seule alternative,
  • 2:34 - 2:36
    et c'est ce qui se trouve
    derrière la porte n°2,
  • 2:36 - 2:39
    est que nous continuions
    d'améliorer l'intelligence de nos machines
  • 2:39 - 2:41
    année après année.
  • 2:42 - 2:45
    À un moment, nous allons construire
    des machines plus intelligentes que nous,
  • 2:46 - 2:49
    et ces machines
    plus intelligentes que nous
  • 2:49 - 2:51
    vont commencer
    à s'améliorer elles-mêmes.
  • 2:51 - 2:53
    Il y a le risque, théorisé
    par le mathématicien I.J. Good,
  • 2:53 - 2:55
    d'une « explosion d'intelligence »,
  • 2:55 - 2:57
    un processus qui pourrait nous échapper.
  • 2:58 - 3:01
    Ce phénomène
    est souvent caricaturé, comme ici,
  • 3:01 - 3:04
    avec des armées de robots malveillants
  • 3:04 - 3:05
    qui nous attaqueraient.
  • 3:05 - 3:08
    Mais ce n'est pas
    le scénario le plus probable.
  • 3:08 - 3:13
    Nos machines ne vont probablement pas
    devenir spontanément malveillantes.
  • 3:13 - 3:16
    Le risque est
    que nous construisions des machines
  • 3:16 - 3:18
    tellement plus compétentes que nous
  • 3:18 - 3:22
    que la moindre divergence
    d'intérêt entre elles et nous
  • 3:22 - 3:23
    pourrait nous détruire.
  • 3:24 - 3:26
    Pensez aux fourmis.
  • 3:27 - 3:28
    Nous ne les haïssons pas.
  • 3:28 - 3:30
    Nous ne cherchons pas à les écraser.
  • 3:30 - 3:33
    Nous faisons même parfois
    l'effort de les éviter.
  • 3:33 - 3:35
    Nous les enjambons.
  • 3:35 - 3:37
    Mais dès que leur présence
  • 3:37 - 3:39
    nous gêne vraiment,
  • 3:39 - 3:42
    par exemple si nous voulons
    construire un bâtiment,
  • 3:42 - 3:44
    nous les exterminons sans scrupule.
  • 3:44 - 3:47
    Le risque est que nous construisions
    un jour des machines
  • 3:47 - 3:50
    qui, conscientes ou non,
  • 3:50 - 3:52
    nous traiteraient
    avec la même indifférence.
  • 3:54 - 3:57
    Cela peut vous sembler capillotracté.
  • 3:57 - 4:04
    Je parie que certains d'entre vous
    doutent qu'une super IA soit possible,
  • 4:04 - 4:05
    et encore moins inévitable.
  • 4:05 - 4:09
    Mais dans ce cas vous devez réfuter
    une des hypothèses suivantes.
  • 4:09 - 4:11
    Et il n'y en a que trois.
  • 4:12 - 4:17
    L'intelligence est le traitement
    de l'information dans un système physique.
  • 4:17 - 4:20
    En fait, c'est un peu plus
    qu'une simple hypothèse.
  • 4:20 - 4:23
    Nous avons déjà construit
    des machines vaguement intelligentes,
  • 4:23 - 4:25
    et nombre d'entre elles font déjà preuve
  • 4:25 - 4:28
    d'une intelligence surhumaine.
  • 4:29 - 4:31
    Et nous savons que la matière
  • 4:31 - 4:34
    peut produire « l'intelligence générale »,
  • 4:34 - 4:38
    la capacité de réfléchir
    de manière croisée,
  • 4:38 - 4:41
    parce que nos cerveaux
    y sont parvenus, n'est-ce pas ?
  • 4:41 - 4:45
    Après tout, il n'y a que
    des atomes là-dedans,
  • 4:45 - 4:49
    et tant que nous continuerons
    à construire des systèmes d'atomes
  • 4:49 - 4:52
    qui feront montre de plus
    en plus d'intelligence,
  • 4:52 - 4:55
    nous parviendrons,
    à moins d'être interrompus,
  • 4:55 - 4:58
    nous parviendrons à implanter
    une « intelligence générale »
  • 4:58 - 4:59
    au cœur de nos machines.
  • 4:59 - 5:03
    Il est crucial de comprendre
    que la vitesse n'est pas le problème,
  • 5:03 - 5:06
    car n'importe quelle vitesse
    est suffisante pour aller au bout.
  • 5:06 - 5:08
    Nous n'avons pas besoin
    de la loi de Moore
  • 5:08 - 5:10
    ni d'un progrès exponentiel.
  • 5:10 - 5:12
    Il suffit de continuer à avancer.
  • 5:13 - 5:16
    La deuxième hypothèse
    est que nous allons continuer.
  • 5:17 - 5:20
    Nous continuerons d'améliorer
    nos machines intelligentes.
  • 5:21 - 5:25
    Et, vue la valeur de l'intelligence --
  • 5:25 - 5:29
    l'intelligence est la source
    de tout ce qui compte
  • 5:29 - 5:32
    ou alors elle doit protéger
    tout ce qui compte.
  • 5:32 - 5:34
    C'est notre plus importante ressource.
  • 5:34 - 5:36
    Donc nous allons continuer.
  • 5:36 - 5:39
    Nous avons des problèmes
    que nous devons absolument résoudre.
  • 5:39 - 5:42
    Nous voulons vaincre les maladies
    comme Alzheimer ou le cancer.
  • 5:43 - 5:45
    Nous voulons comprendre l'économie.
  • 5:45 - 5:47
    Nous voulons améliorer le climat.
  • 5:47 - 5:49
    Donc nous allons continuer,
    si nous le pouvons.
  • 5:49 - 5:52
    Le train a déjà quitté la gare
    et il n'y a pas de frein.
  • 5:54 - 5:59
    Et enfin, l'humain ne se trouve pas
    au sommet de l'intelligence,
  • 5:59 - 6:01
    nous en sommes même très loin.
  • 6:02 - 6:04
    Et c'est vraiment le point crucial.
  • 6:04 - 6:06
    C'est ce qui rend
    notre situation si précaire
  • 6:06 - 6:10
    et ce qui fait que notre compréhension
    des risques n'est pas fiable.
  • 6:11 - 6:14
    Prenons l'humain le plus intelligent
    qui ait jamais vécu.
  • 6:15 - 6:18
    Beaucoup de gens penseraient
    à John von Neumann.
  • 6:18 - 6:21
    L'impression que von Neumann
    laissait aux gens,
  • 6:21 - 6:25
    y compris les plus brillants
    mathématiciens et physiciens de son temps,
  • 6:26 - 6:27
    est plutôt bien documentée.
  • 6:27 - 6:30
    Si ne serait-ce que la moitié
    de ce que l'on dit sur lui
  • 6:30 - 6:31
    est à moitié vraie,
  • 6:31 - 6:33
    il n'y a aucun doute qu'il soit
  • 6:33 - 6:35
    l'un des plus brillants esprits
    qui aient existé.
  • 6:35 - 6:38
    Considérons le spectre de l'intelligence.
  • 6:38 - 6:40
    Voici John von Neumann.
  • 6:42 - 6:43
    Et nous, nous sommes ici.
  • 6:44 - 6:45
    Et là nous avons un poulet.
  • 6:45 - 6:47
    (Rires)
  • 6:47 - 6:49
    Pardon, un poulet.
  • 6:49 - 6:50
    (Rires)
  • 6:50 - 6:54
    Pas besoin de rendre cette présentation
    plus déprimante qu'elle ne l'est déjà.
  • 6:54 - 6:55
    (Rires)
  • 6:56 - 7:00
    Il semble néanmoins plus que probable
    que le spectre de l'intelligence
  • 7:00 - 7:03
    s'étende beaucoup plus loin
    que nous ne pouvons le concevoir,
  • 7:04 - 7:07
    Si nous construisons
    des machines plus intelligentes que nous,
  • 7:07 - 7:09
    elles vont très probablement
    explorer ce spectre,
  • 7:09 - 7:11
    plus que nous ne pouvons l'imaginer,
  • 7:11 - 7:14
    et elles nous surpasseront,
    plus que nous ne pouvons l'imaginer.
  • 7:15 - 7:19
    Il est important de noter que c'est vrai
    par la seule vertu de la vitesse.
  • 7:19 - 7:24
    Imaginez que nous construisions
    une IA super intelligente
  • 7:24 - 7:28
    qui ne soit pas plus intelligente
    qu'une équipe moyenne de chercheurs
  • 7:28 - 7:30
    de Stanford ou du MIT.
  • 7:30 - 7:33
    L'électronique va environ
    un million de fois plus vite
  • 7:33 - 7:34
    que la biochimie,
  • 7:35 - 7:38
    de sorte que cette machine
    penserait un million de fois plus vite
  • 7:38 - 7:39
    que les humains qui l'auraient créée.
  • 7:40 - 7:41
    En une semaine,
  • 7:41 - 7:46
    cette machine réaliserait le même travail
    qu'une équipe d'humains en 20 000 ans,
  • 7:46 - 7:48
    semaine après semaine.
  • 7:50 - 7:53
    Comment pourrions-nous comprendre,
    et encore moins limiter,
  • 7:53 - 7:55
    un esprit qui irait à une telle vitesse ?
  • 7:57 - 7:59
    L'autre chose inquiétante, franchement,
  • 7:59 - 8:04
    est la suivante :
    imaginez le meilleur des cas.
  • 8:04 - 8:08
    Imaginez que nous concevions
    une IA super intelligente
  • 8:08 - 8:10
    qui ne soit pas dangereuse.
  • 8:10 - 8:13
    Nous trouvons la parfaite solution
    du premier coup.
  • 8:13 - 8:15
    Comme si nous avions
    un oracle à disposition
  • 8:15 - 8:17
    se comportant
    exactement comme prévu.
  • 8:17 - 8:21
    Cette machine nous éviterait
    toute forme de travail.
  • 8:22 - 8:24
    Elle concevrait la machine
    qui ferait la machine
  • 8:24 - 8:26
    qui pourrait faire n'importe quoi,
  • 8:26 - 8:27
    alimentée par le soleil,
  • 8:27 - 8:30
    plus ou moins pour le seul coût
    des matières premières.
  • 8:30 - 8:33
    On parle là de la fin
    de la pénibilité humaine.
  • 8:33 - 8:36
    Nous parlons aussi
    de la fin du travail intellectuel.
  • 8:37 - 8:40
    Que feraient des singes comme nous
    dans une pareille situation ?
  • 8:40 - 8:44
    Nous serions libres de jouer au frisbee
    et de nous faire des massages.
  • 8:46 - 8:49
    Avec un peu de LSD
    et quelques fringues douteuses,
  • 8:49 - 8:51
    le monde entier serait
    comme le Burning Man.
  • 8:51 - 8:53
    (Rires)
  • 8:54 - 8:56
    Bon, tout ça peut sembler plutôt sympa,
  • 8:57 - 9:00
    mais demandez-vous ce qui arriverait
  • 9:00 - 9:02
    avec notre système politique
    et économique actuel ?
  • 9:02 - 9:05
    Nous serions les témoins
  • 9:05 - 9:09
    d'une inégalité des richesses
    et d'un taux de chômage
  • 9:09 - 9:11
    encore jamais vus.
  • 9:11 - 9:13
    Sans la volonté de mettre
    ces nouvelles richesses
  • 9:13 - 9:15
    au service de toute l'humanité,
  • 9:16 - 9:19
    quelques milliardaires feraient
    les couvertures des revues commerciales
  • 9:19 - 9:22
    alors que le reste du monde
    mourrait de faim.
  • 9:22 - 9:25
    Et que feraient les Russes ou les Chinois
  • 9:25 - 9:27
    s'ils apprenaient
    qu'une société de la Silicon Valley
  • 9:27 - 9:30
    était sur le point de créer
    une IA super intelligente ?
  • 9:30 - 9:33
    Cette machine serait capable
    de faire la guerre,
  • 9:33 - 9:35
    qu'elle soit physique ou numérique,
  • 9:35 - 9:37
    avec une puissance jamais vue.
  • 9:38 - 9:40
    Le vainqueur emporterait toute la mise.
  • 9:40 - 9:43
    Avoir six mois d'avance
    dans une telle compétition
  • 9:43 - 9:46
    revient à avoir 500 000 ans d'avance,
  • 9:46 - 9:47
    au minimum.
  • 9:47 - 9:52
    Il est donc possible
    que la moindre rumeur de ce type de percée
  • 9:52 - 9:55
    pourrait tous nous rendre
    totalement dingues.
  • 9:55 - 9:58
    L'une des choses les plus effrayantes,
  • 9:58 - 10:00
    de mon point de vue,
  • 10:00 - 10:05
    sont les choses
    que les chercheurs en IA disent
  • 10:05 - 10:06
    quand ils veulent nous rassurer.
  • 10:07 - 10:10
    On nous dit généralement
    que nous avons encore le temps.
  • 10:10 - 10:13
    C'est pour plus tard,
    vous pensez bien.
  • 10:13 - 10:15
    C'est probablement
    pour dans 50 ou 100 ans.
  • 10:16 - 10:17
    Un chercheur a dit :
  • 10:17 - 10:19
    « S'inquiéter de l'IA,
    c'est comme s'inquiéter
  • 10:19 - 10:21
    de la surpopulation sur Mars. »
  • 10:22 - 10:24
    La Silicon Valley sait parfois
  • 10:24 - 10:26
    se montrer condescendante.
  • 10:26 - 10:27
    (Rires)
  • 10:28 - 10:29
    Personne ne semble se rendre compte
  • 10:29 - 10:32
    que dire qu'on a le temps
  • 10:32 - 10:35
    est totalement fallacieux
    dans ce contexte.
  • 10:35 - 10:38
    Si l'intelligence n'est
    que le traitement de l'information
  • 10:38 - 10:41
    et si l'on continue
    d'améliorer nos machines,
  • 10:41 - 10:44
    alors nous produirons
    une forme de super intelligence.
  • 10:44 - 10:48
    Et nous n'avons pas la moindre idée
    du temps qu'il nous faudra
  • 10:48 - 10:50
    pour trouver comment
    le faire sans risques.
  • 10:52 - 10:53
    Je vais me répéter.
  • 10:54 - 10:57
    Nous n'avons pas la moindre idée
    du temps qu'il nous faudra
  • 10:57 - 11:00
    pour trouver comment
    le faire sans risques.
  • 11:01 - 11:04
    Au cas où vous n'auriez pas remarqué,
    50 ans, ce n'est pas grand chose.
  • 11:04 - 11:07
    Voici 50 ans, en mois.
  • 11:07 - 11:09
    Voici l'existence de l'iPhone.
  • 11:09 - 11:12
    Voici la durée couverte
    par « Les Simpsons ».
  • 11:13 - 11:15
    Cinquante ans,
    cela ne laisse guère de temps
  • 11:15 - 11:18
    pour se préparer à l'un
    des plus grands défis de tous les temps.
  • 11:20 - 11:24
    Une fois encore, nous semblons
    incapables de nous préparer
  • 11:24 - 11:26
    à ce qui, selon toute probabilité,
    va arriver.
  • 11:26 - 11:30
    L'informaticien Stuart Russel
    propose une belle analogie à ce sujet.
  • 11:30 - 11:35
    Il dit : « Imaginez que nous recevions
    un message des aliens
  • 11:35 - 11:37
    qui dirait :
  • 11:37 - 11:39
    ' Habitants de la Terre,
  • 11:39 - 11:41
    nous arriverons chez vous dans 50 ans.
  • 11:42 - 11:43
    Soyez prêts. '
  • 11:43 - 11:48
    Et on ne ferait que regarder
    le compte à rebours ?
  • 11:48 - 11:51
    Non, nous nous sentirions
    un peu plus concernés que ça. »
  • 11:53 - 11:55
    Une autre raison de ne pas s'inquiéter
  • 11:55 - 11:58
    serait que ces machines
    partageraient notre sens des valeurs
  • 11:58 - 12:00
    parce qu'elles seraient
    des extensions de nous-mêmes.
  • 12:00 - 12:02
    Elles seraient greffées sur nos cerveaux,
  • 12:02 - 12:04
    nous serions leur système limbique.
  • 12:05 - 12:07
    Réfléchissez un peu
  • 12:07 - 12:10
    que le moyen le plus sûr,
  • 12:10 - 12:11
    recommandé,
  • 12:11 - 12:14
    serait de brancher cette technologie
    directement sur nos cerveaux.
  • 12:15 - 12:18
    Cela peut sembler
    être la meilleure option,
  • 12:18 - 12:21
    mais généralement, on essaie
    d'être sûr de son coup
  • 12:21 - 12:25
    avant de s'enfoncer
    quelque chose dans le cerveau.
  • 12:25 - 12:27
    (Rires)
  • 12:27 - 12:31
    Le vrai problème est
    que simplement concevoir
  • 12:31 - 12:32
    une IA super intelligente
  • 12:32 - 12:34
    semble plus facile
  • 12:34 - 12:36
    que de concevoir
    une IA super intelligente
  • 12:36 - 12:38
    tout en maîtrisant les neurosciences
  • 12:38 - 12:40
    pour connecter cette IA à nos cerveaux.
  • 12:41 - 12:44
    Si l'on tient compte du fait
    que les entreprises et gouvernements
  • 12:44 - 12:48
    se sentent probablement en concurrence,
  • 12:48 - 12:51
    et, puisque remporter cette course
    revient à conquérir le monde,
  • 12:51 - 12:53
    pourvu que vous
    ne le détruisiez pas juste après,
  • 12:53 - 12:56
    il semble probable que l'on commence
  • 12:56 - 12:57
    par le plus facile.
  • 12:59 - 13:01
    Malheureusement,
    je n'ai pas la solution de ce problème,
  • 13:01 - 13:04
    à part recommander que
    nous soyons plus nombreux à y réfléchir.
  • 13:04 - 13:06
    Il nous faudrait une sorte
    de Projet Manhattan
  • 13:06 - 13:08
    à propos de l'intelligence artificielle.
  • 13:09 - 13:11
    Pas pour la concevoir,
    car nous y parviendrons,
  • 13:11 - 13:15
    mais pour réfléchir à comment
    éviter une course aux armements
  • 13:15 - 13:18
    et pour la concevoir d'une façon
    en accord avec nos intérêts.
  • 13:18 - 13:20
    Quand vous parlez
    d'une IA super intelligente
  • 13:20 - 13:23
    qui pourrait se modifier elle-même,
  • 13:23 - 13:27
    il semblerait que nous n'ayons qu'une
    seule chance de faire les choses bien
  • 13:27 - 13:29
    et encore, il nous faudra gérer
  • 13:29 - 13:32
    les conséquences
    politiques et économiques.
  • 13:34 - 13:36
    Mais à partir du moment où nous admettons
  • 13:36 - 13:40
    que le traitement de l'information
    est la source de l'intelligence,
  • 13:41 - 13:46
    qu'un système de calcul
    est la base de l'intelligence,
  • 13:46 - 13:50
    et que nous admettons que nous allons
    continuer d'améliorer ce type de système
  • 13:51 - 13:53
    et que nous admettons que l'horizon
  • 13:53 - 13:55
    de l'intelligence dépasse totalement
  • 13:55 - 13:57
    ce que nous savons aujourd'hui,
  • 13:58 - 13:59
    nous devons admettre
  • 14:00 - 14:03
    que nous sommes engagés
    dans la conception d'un pseudo-dieu.
  • 14:03 - 14:05
    Il nous faut donc vérifier
  • 14:05 - 14:07
    que c'est un dieu compatible
    avec notre survie.
  • 14:08 - 14:10
    Merci beaucoup.
  • 14:10 - 14:15
    (Applaudissements)
Title:
Pouvons-nous concevoir une IA sans en perdre le contrôle ?
Speaker:
Sam Harris
Description:

L'intelligence artificielle vous fait peur ? Vous avez raison, dit le neuroscientifique et philosophe Sam Harris -- et pas juste de manière théorique. Nous allons construire des machines surhumaines, explique-t-il, mais nous ne nous sommes pas encore attelés aux problèmes liés au fait de créer quelque chose qui pourrait nous traiter de la même façon que nous traitons les fourmis.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

French subtitles

Revisions Compare revisions