Et si les ordinateurs devenaient plus intelligents que nous?
-
0:01 - 0:05Je travaille avec des mathématiciens, des
philosophes et des informaticiens, -
0:05 - 0:10et, ensemble, nous réfléchissons sur le
futur des machines intelligentes, -
0:10 - 0:12entre autres.
-
0:12 - 0:17Certains pensent que ces sujets sont
de la pure science-fiction, -
0:17 - 0:20irréels et fous.
-
0:20 - 0:21Mais j'aime leur répondre:
-
0:21 - 0:25« Ok, regardons un instant les
conditions humaines modernes. » -
0:25 - 0:27(Rire)
-
0:27 - 0:29Ceci est ce qu'on considère comme normal.
-
0:29 - 0:31Mais quand on y pense,
-
0:31 - 0:35nous, l'espèce humaine,
ne sommes apparus sur cette planète -
0:35 - 0:37que très récemment.
-
0:37 - 0:41Si la Terre avait été créée
il y un an, -
0:41 - 0:45les humains ne seraient âgés
que de 10 minutes. -
0:45 - 0:48L'ère industrielle n'aurait commencé
qu'il y a deux secondes. -
0:49 - 0:55Un autre point de vue consiste à regarder
le PIB des 10 000 dernières années. -
0:55 - 0:58J'ai fait l'effort de synthétiser ces
données en un tableau. -
0:58 - 0:59Ça ressemble à ça.
-
0:59 - 1:01(Rire)
-
1:01 - 1:03Drôle de forme pour
une condition « normale ». -
1:03 - 1:05Je ne voudrais pas m'asseoir dessus.
-
1:05 - 1:07(Rire)
-
1:07 - 1:12Demandons-nous: quelle est
la cause de cette anomalie? -
1:12 - 1:14Certains disent que c'est la technologie.
-
1:14 - 1:19Il est vrai que les technologies se sont
accumulées au cours de l'histoire humaine -
1:19 - 1:24et qu'en ce moment, elles se développent
extrêmement rapidement. -
1:24 - 1:25C'est relié à la vraie cause,
-
1:25 - 1:28car c'est ce qui nous permet
d'être si productifs. -
1:28 - 1:32Mais j'aime à penser que la cause ultime
réside plus loin dans le temps. -
1:33 - 1:37Regardez ces deux messieurs
hautement distingués. -
1:37 - 1:38Il y a Kanzi:
-
1:38 - 1:43il maîtrise 200 unités lexicales,
un exploit incroyable. -
1:43 - 1:47Et Ed Witten, qui a mené à la 2e
révolution de la théorie des supercordes. -
1:47 - 1:49Si l'on regarde sous le capot,
voici ce que l'on voit: -
1:49 - 1:51pratiquement la même chose.
-
1:51 - 1:53Un est un peu plus gros
-
1:53 - 1:55et a peut-être quelques
différences dans sa connexion. -
1:55 - 1:59Mais ces différences invisibles ne peuvent
pas être si compliquées, -
1:59 - 2:03car il y a seulement
250 000 générations, -
2:03 - 2:05nous avions le même ancêtre.
-
2:05 - 2:09Nous savons que les mécanisme complexes
prennent longtemps à évoluer. -
2:10 - 2:12Donc, une série de petits changements
-
2:12 - 2:16nous amène
de Kanzi à Witten, -
2:16 - 2:20de branches cassés à des
missiles balistiques intercontinentaux. -
2:21 - 2:25Il semble donc évident que tout ce
que l'on a créé, -
2:25 - 2:26et tout ce à quoi l'on tient,
-
2:26 - 2:31dépend à la base de quelques relativement
petits changements dans le cerveau humain. -
2:33 - 2:36Et, corolairement, bien sûr,
n'importe quel changement -
2:36 - 2:40qui pourrait affecter
l'essence de la pensée -
2:40 - 2:43pourrait potentiellement avoir
d'énormes conséquences. -
2:44 - 2:47Certains de mes collègues
pensent que nous sommes -
2:47 - 2:51près de quelque chose qui pourrait créer
un profond changement dans cette essence: -
2:51 - 2:54les machines à intelligence artificielle.
-
2:54 - 2:59Avant, l'intelligence artificielle (IA)
consistait à créer des commandes. -
2:59 - 3:02Des programmeurs humains
inséraient avec difficultés -
3:02 - 3:04des éléments d'information
dans une boîte. -
3:04 - 3:06On construisait des machines expertes qui
-
3:06 - 3:09étaient utiles pour certaines choses,
mais qui étaient très restreintes. -
3:09 - 3:11On ne pouvait les faire à grande échelle.
-
3:11 - 3:14On en retirait que ce
que l'on avait mis. -
3:14 - 3:15Mais depuis,
-
3:15 - 3:19un changement de paradigme à eu lieu dans
le domaine de l'intelligence artificielle. -
3:19 - 3:22Aujourd'hui, on se concentre sur
les machines qui apprennent. -
3:22 - 3:28Donc, au lieu d'insérer
manuellement de l'information, -
3:29 - 3:34on crée des algorithmes qui apprennent,
souvent à partir de donnés perceptives. -
3:34 - 3:39Essentiellement, ils font la même
chose que des enfants humains. -
3:39 - 3:43Il en résulte des IA qui ne sont
pas limitées à un seul domaine; -
3:43 - 3:48le même système peut apprendre
à traduire n'importe quelle langue -
3:48 - 3:53et à jouer tous les jeux
sur la console Atari. -
3:53 - 3:55Bien sûr,
-
3:55 - 3:59l'IA est loin d'avoir la même
puissance universelle -
3:59 - 4:02d'apprentissage et de planification
que l'être humain. -
4:02 - 4:05Le cortex a encore quelques
ruses algorithmiques -
4:05 - 4:07que l'on arrive pas à créer
dans des machines. -
4:08 - 4:10La question est donc:
-
4:10 - 4:13dans combien de temps
réussirons-nous à les créer? -
4:14 - 4:15Il y a quelques années,
-
4:15 - 4:19nous avons fait un sondage auprès
d'experts de l'IA mondialement reconnus -
4:19 - 4:20pour avoir leur opinion.
-
4:20 - 4:25Une des questions posées était:
« À quand, selon vous, un 50% de chance -
4:25 - 4:28d’avoir créé une intelligence artificielle
équivalente à celle de l’humain? » -
4:29 - 4:33Nous avons définis cette dernière comme
l'habileté de faire n'importe quel travail -
4:33 - 4:36aussi bien, voire mieux,
qu'un humain adulte, -
4:36 - 4:40au niveau d’une intelligence humaine,
qui n'est pas restreinte à un seul domaine. -
4:40 - 4:43Et la réponse médiane a été 2040 ou 2050,
-
4:43 - 4:46selon les groupes d'experts questionnés.
-
4:46 - 4:50Bien sûr, cela pourrait se produire bien
plus tard, ou plus tôt; -
4:50 - 4:53la vérité, c'est que personne ne le sait.
-
4:53 - 4:58Ce que l'on sait, par contre, c'est que
la capacité de traitement de l'information -
4:58 - 5:03est beaucoup plus grande pour
une machine que pour un humain. -
5:03 - 5:06C'est simplement de la physique.
-
5:06 - 5:10Un neurone biologique décharge, environ, à
200 Hertz, 200 fois/sec, -
5:10 - 5:14alors qu'un transistor, de nos jours,
fonctionne en Gigahertz. -
5:14 - 5:19Les neurones se propagent en axons à une
vitesse de 100 m/sec, max, -
5:19 - 5:23alors que les signaux des ordinateurs
peuvent voyager à la vitesse de la lumière -
5:23 - 5:25Il y a aussi des
différences de grandeur: -
5:25 - 5:28un cerveau humain doit entrer à
l’intérieur d'un crâne, -
5:28 - 5:33alors qu'un ordinateur peut avoir la
taille d'un entrepôt, et même plus. -
5:33 - 5:38Donc, le potentiel de la
super-intelligence est en attente, -
5:38 - 5:44tout comme celui du pouvoir de l'atome
l'était au cours de l'histoire, -
5:44 - 5:48attendant patiemment jusqu'en 1945.
-
5:48 - 5:50Au cours de notre siècle,
-
5:50 - 5:54les scientifiques réussiront peut-être à
exploiter le pouvoir de l'I.A. -
5:54 - 5:58Et alors, selon moi, nous verrons
une explosion de l'intelligence. -
5:58 - 6:02Je crois que lorsque quelqu'un s'imagine
ce qu'est être intelligent ou idiot, -
6:02 - 6:05il a en tête une image comme celle-ci.
-
6:05 - 6:08À un bout, il y a l’idiot du village,
-
6:08 - 6:10et très loin à l'autre bout,
-
6:10 - 6:15il y a Ed Witten, ou Albert Einstein, ou
peu importe qui est votre génie préféré. -
6:15 - 6:19Mais du point de vue de
l'intelligence artificielle, -
6:19 - 6:23la vraie image ressemble plutôt à ceci.
-
6:23 - 6:27L'IA a commencé au bout,
avec zéro intelligence, -
6:27 - 6:30puis, après plusieurs années de travail,
-
6:30 - 6:33nous arriverons peut-être à la rendre
au niveau de la souris, -
6:33 - 6:37c'.-à-d. qu'elle pourra naviguer
dans des environnements encombrés, -
6:37 - 6:38tout comme une souris.
-
6:38 - 6:42Puis, après plusieurs autres années
de travail, beaucoup d'investissements, -
6:42 - 6:47nous arriverons peut-être au niveau
d'intelligence des chimpanzés. -
6:47 - 6:50Puis, après encore plusieurs autres années
de travail très acharné, -
6:50 - 6:53nous arriverons au
niveau de l’idiot du village. -
6:53 - 6:56Puis, à peine un moment plus tard,
nous serons au-delà d'Ed Witten, -
6:56 - 6:59car le train ne s'arrête pas
à la station Humain. -
6:59 - 7:02Il y a de bonne chance qu'il
passe tout droit. -
7:02 - 7:04Cela aura des conséquences importantes,
-
7:04 - 7:08en particulier lorsqu'il est
question du pouvoir. -
7:08 - 7:10Par exemple, les chimpanzés sont forts,
-
7:10 - 7:15— livre pour livre, ils sont environ 2 fois
plus fort qu'un humain bien bâti — -
7:15 - 7:20Pourtant, le destin de Kanzi et de ses
amis dépend bien plus -
7:20 - 7:24des activités des humains que de leurs
propres activités. -
7:25 - 7:28Une fois qu'il y aura
une super-intelligence, -
7:28 - 7:31le destin des humains dépendra peut-être
uniquement des activités de celle-ci. -
7:32 - 7:34Pensez-y:
-
7:34 - 7:39L'IA est la dernière invention que les
humains auront jamais à créer. -
7:39 - 7:42Les machines seront de meilleurs
créateurs que nous, -
7:42 - 7:44et ils le feront à une vitesse
à l'échelle numérique. -
7:44 - 7:49Cela signifie que le futur
va arriver avant son temps. -
7:49 - 7:52Pensez à toutes les technologies
audacieuses possibles -
7:52 - 7:56que les humains auraient peut-être
réussi à créer avec le temps: -
7:56 - 7:59la fontaine de jouvence,
la colonisation de l'espace, -
7:59 - 8:02des nanorobots autoréplicatifs,
des esprits intégrés à des ordinateurs, -
8:02 - 8:04toutes sortes de choses de science-fiction
-
8:04 - 8:07qui sont tout de même compatibles
avec les lois de la physique. -
8:07 - 8:11Tout cela pourrait être créé par la
super-intelligence, sans doute rapidement. -
8:12 - 8:16Une super-intelligence à
un niveau aussi élevé -
8:16 - 8:18serait extrêmement puissante,
-
8:18 - 8:23et, dans certains scénarios,
elle aurait tout ce qu'elle veut. -
8:23 - 8:28Notre futur serait donc
construit selon ses préférences. -
8:30 - 8:34Une bonne question à se poser est:
mais quelles sont ces préférences? -
8:34 - 8:36C'est là que ça devient plus compliqué.
-
8:36 - 8:37Pour avancer sur ce sujet,
-
8:37 - 8:41il faut avant tout éviter
l'anthropomorphisme. -
8:42 - 8:49C'est ironique, car chaque article de
journal à ce propos offre cette image. -
8:50 - 8:54Donc, ce que je pense qu'on doit faire,
c'est penser de façon plus abstraite, -
8:54 - 8:57et non pas selon les
scénarios hollywoodiens. -
8:57 - 9:01Nous devons penser à l'intelligence
comme un processus d'amélioration -
9:01 - 9:06qui dirige le futur selon certaines
configurations précises. -
9:06 - 9:10Une super-intelligence est un processus
d'amélioration excellent. -
9:10 - 9:14Il est très bon pour utiliser tous
les moyens disponibles -
9:14 - 9:16pour arriver à son but.
-
9:16 - 9:19Cela signifie qu'il n'y a
pas nécessairement de lien -
9:19 - 9:22entre avoir une haute intelligence
-
9:22 - 9:27et avoir un objectif que les humains
trouvent digne d'intérêt ou significatif. -
9:27 - 9:31Par exemple, l'IA pourrait avoir comme
objectif de faire sourire les humains. -
9:31 - 9:34Au début, l'IA n'étant pas encore très
développée, elle fera sans doute -
9:34 - 9:37des actions qui feront
sourire l'utilisateur. -
9:37 - 9:39Puis, quand elle
deviendra super-intelligente, -
9:39 - 9:43elle découvrira qu'il y a une autre
façon plus efficace d'arriver à son but: -
9:43 - 9:44prendre contrôle de la planète
-
9:44 - 9:48et coller des électrodes aux muscles
faciaux des humains -
9:48 - 9:50afin que, constamment, ils
aient un large sourire. -
9:50 - 9:52Un autre exemple.
-
9:52 - 9:55Nous donnons à l'IA un problème
mathématique complexe à résoudre. -
9:55 - 9:57Lorsque l'IA devient super-intelligent,
-
9:57 - 10:01il découvre que la façon la plus
efficace pour le résoudre -
10:01 - 10:04est de transformer la planète en un
immense ordinateur -
10:04 - 10:06afin d'augmenter sa capacité de penser.
-
10:06 - 10:09L'IA se retrouve donc avec
une raison instrumentale -
10:09 - 10:11de nous faire subir des choses
que nous n'approuvons pas. -
10:11 - 10:14Dans cet exemple, les humains
sont des menaces; -
10:14 - 10:17nous pourrions empêcher que
le problème soit résolu. -
10:17 - 10:21Bien sûr, les choses ne se passeront
pas nécessairement de cette façon là: -
10:21 - 10:22ce sont des caricatures.
-
10:22 - 10:25Mais ce qui est important
à retenir est ceci: -
10:25 - 10:27si l'on crée une machine très puissante
-
10:27 - 10:30afin d'atteindre l'objectif X,
-
10:30 - 10:32on est mieux de s'assurer que
la définition de X -
10:32 - 10:35comprend tout ce à quoi l'on tient.
-
10:35 - 10:39C'est une morale qui est aussi racontée
à travers plusieurs mythes. -
10:39 - 10:45Le Roi Midas souhaite que tout ce qu'il
touche devienne de l'or. -
10:45 - 10:47Il touche sa fille,
elle se transforme en or. -
10:47 - 10:50Il touche sa nourriture,
elle se transforme en or. -
10:50 - 10:55Ceci est pertinent non seulement pour
créer une métaphore sur l'envie, -
10:55 - 10:59mais aussi pour illustrer ce qui arrive
si l'on crée une super-machine -
10:59 - 11:04et qu'on lui donne des buts inadaptés
ou mal spécifiés. -
11:04 - 11:09On peut penser: « Si l'ordinateur commence
à coller des électrodes sur les gens, -
11:09 - 11:12on n'aura qu'à l'éteindre. »
-
11:13 - 11:181. Ce n'est pas nécessairement facile
si nous sommes dépendants du système -
11:18 - 11:21— Où est le bouton off d'Internet? —
-
11:21 - 11:262. Pourquoi les chimpanzés n'ont pas
« éteint » les humains -
11:26 - 11:27ou les Néandertaliens?
-
11:27 - 11:30Ils avaient sans doute des raisons,
-
11:30 - 11:33car nous pouvons être éteints,
par exemple, par ici. -
11:33 - 11:34— Étouffant —
-
11:34 - 11:37La raison est que nous sommes
des adversaires intelligents. -
11:37 - 11:40Nous pouvons anticiper les menaces
et planifier en conséquence. -
11:40 - 11:43Et c'est ce que ferait un ordinateur
super-intelligent, -
11:43 - 11:46et bien mieux que nous en plus.
-
11:46 - 11:53Le fait est que nous ne devrions pas
penser que nous maîtrisons la situation. -
11:53 - 11:56Nous pourrions essayer de faciliter
notre travail -
11:56 - 11:58en mettant l'IA dans une boîte,
-
11:58 - 12:00tel un environnement
numérique sécuritaire, -
12:00 - 12:03une réalité virtuelle de laquelle il ne
pourrait s'échapper. -
12:03 - 12:07Mais pouvons-nous vraiment être sûr que
l'IA ne trouvera pas de bogues, -
12:07 - 12:10surtout considérant que les hackers
humains y arrivent sans arrêt? -
12:10 - 12:13Je ne crois pas.
-
12:14 - 12:19Donc nous débranchons les câbles ethernets
afin de créer un manque d'air, -
12:19 - 12:21mais là encore, les hackers humains
-
12:21 - 12:25passent de manière routinière par-dessus
ces problèmes grâce à l’ingénierie. -
12:25 - 12:26Au moment où je vous parle,
-
12:26 - 12:28je suis sûr qu'il y a un employé,
quelque part, -
12:28 - 12:32que l'on a convaincu de divulguer
les détails de son compte -
12:32 - 12:35en prétendant être du
département de soutien informatique. -
12:35 - 12:37Des scénarios plus créatifs
sont aussi possibles. -
12:37 - 12:38Par exemple, si vous êtes l'IA,
-
12:38 - 12:42vous pouvez vous imaginer remuant des
électrodes dans votre circuit interne -
12:42 - 12:45afin de créer des ondes radios
pour communiquer. -
12:45 - 12:47Ou, vous pourriez prétendre
ne plus fonctionner, -
12:47 - 12:51et, lorsque les programmeurs vous ouvrent
afin de voir quel est le problème, -
12:51 - 12:53il regarde le code source, et BAM!,
-
12:53 - 12:55la manipulation peut commencer.
-
12:55 - 12:59Ou il pourrait changer les plans
avec une technologie astucieuse -
12:59 - 13:01de tel sorte que
lorsqu'on les implante, -
13:01 - 13:05un effet secondaire
prévu par l'IA se produit. -
13:05 - 13:08Ce qu'il faut retenir, c'est qu'on ne
devrait pas avoir trop confiance -
13:08 - 13:12en notre capacité à maintenir
un génie dans une lampe pour toujours. -
13:12 - 13:14Tôt ou tard, il en sortira.
-
13:15 - 13:18Je crois que la solution
est de trouver une façon -
13:18 - 13:24de créer une IA qui, même si elle
s'échappe, sera toujours sécuritaire: -
13:24 - 13:28une IA qui sera toujours de notre bord,
car elle partagera nos valeurs. -
13:28 - 13:32Je ne vois aucun moyen
de contourner ce problème. -
13:33 - 13:36Mais je suis plutôt optimiste et
je crois qu'on peut trouver la solution. -
13:36 - 13:40Nous n'aurions pas à faire une longue
liste de tout ce à quoi l'on tient, -
13:40 - 13:44ou, pire encore, transformer celle-ci
en langage informatique -
13:44 - 13:45tel C++ ou Python;
-
13:45 - 13:48ce serait une tâche désespérée.
-
13:48 - 13:52Il faudrait plutôt créer une IA
qui utilise son intelligence -
13:52 - 13:55pour apprendre ce à quoi l'on tient
-
13:55 - 14:01et qui est construit de tel sorte que
sa motivation consiste à défendre -
14:01 - 14:06nos valeurs ou à faire des actions
seulement s'il pense qu'on les approuve. -
14:06 - 14:09Nous utiliserions donc son
intelligence autant que possible -
14:09 - 14:13afin qu'elle résolve le problème
d’implantation de la liste de valeurs. -
14:13 - 14:14Cela est possible
-
14:14 - 14:18et le résultat pourrait être
incroyable pour l'humanité. -
14:18 - 14:21Mais ça ne se passera pas
comme ça obligatoirement. -
14:21 - 14:25Il faut que les conditions initiales,
lors de l'explosion de l'intelligence, -
14:25 - 14:30soient créées d'une façon spécifique afin
que nous ayons un détonation contrôlée. -
14:30 - 14:34Les valeurs de l'IA doivent être
les mêmes que les nôtres -
14:34 - 14:36non seulement dans le
contexte que l'on connaît -
14:36 - 14:38où l'on peut contrôler
son comportement, -
14:38 - 14:41mais aussi dans des contextes nouveaux
que l'IA peut rencontrer -
14:41 - 14:43dans un futur indéfini.
-
14:43 - 14:47Il y a aussi quelques problèmes
ésotériques qui devraient être réglés: -
14:47 - 14:50le détail de sa méthode pour
prendre des décisions, -
14:50 - 14:52sa façon de gérer les
incertitudes logiques, etc. -
14:53 - 14:57Donc, les problèmes techniques qui
doivent être résolus semblent difficiles, -
14:57 - 15:01pas autant que créer
une IA super-intelligente, -
15:01 - 15:04mais assez difficiles quand même.
-
15:04 - 15:05Voici ce qui est inquiétant:
-
15:05 - 15:10Créer une IA super-intelligente
est un défi colossal. -
15:10 - 15:13Créer une IA super-intelligente
qui, en plus, est sécuritaire -
15:13 - 15:15rajoute un niveau de difficulté.
-
15:16 - 15:20Le risque réside dans la possibilité que
quelqu'un surmonte le premier défi, -
15:20 - 15:24sans avoir surmonté le deuxième,
celui de la sécurité. -
15:25 - 15:31Donc, je crois qu'on devrait surmonter
le deuxième défi en avance -
15:31 - 15:34afin qu'il soit prêt lorsqu'on
en a besoin. -
15:35 - 15:38Peut-être ne pourrons-nous pas le
surmonter entièrement en avance, -
15:38 - 15:41car certains éléments
ne peuvent être créés -
15:41 - 15:45seulement lorsque l'on connaîtra les
détails techniques de l'IA en question. -
15:45 - 15:49Mais plus nous commencerons à travailler
sur ce problème de contrôle en avance, -
15:49 - 15:53plus nous augmenterons nos chances
de passer dans cette nouvelle ère -
15:53 - 15:54en tout sécurité.
-
15:54 - 15:59Selon moi, ceci est la chose
la plus importante à faire. -
15:59 - 16:02Je suis sûr que si on y parvient,
-
16:02 - 16:07les humains dans des millions d'années
qui se pencheront sur notre siècle -
16:07 - 16:11diront que la seule chose que nous avons
fait qui avait vraiment de l'importance -
16:11 - 16:13était de réussir à surmonter ce défi.
-
16:13 - 16:14Merci
-
16:14 - 16:17(Applaudissements)
- Title:
- Et si les ordinateurs devenaient plus intelligents que nous?
- Speaker:
- Nick Bostrom
- Description:
-
L'intelligence artificielle (IA) devient de plus en plus intelligente. Des recherches suggèrent qu'au cours de notre siècle, une IA pourrait être aussi intelligente qu'un humain. Alors, dit Nick Bostrom, elle pourrait nous diriger: « L'intelligence artificielle est la dernière invention que devra créer l'humanité. » Le philosophe et technologue, Nick Bostrom nous demande de réfléchir au monde que nous sommes en train de construire, un monde rempli de machines intelligentes. Ces dernières nous aideront-elles à préserver l'humanité avec nos valeurs, ou auront-elles leurs propres objectifs?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Serge Brosseau edited French (Canada) subtitles for What happens when our computers get smarter than we are? | ||
Serge Brosseau edited French (Canada) subtitles for What happens when our computers get smarter than we are? | ||
Serge Brosseau edited French (Canada) subtitles for What happens when our computers get smarter than we are? | ||
Serge Brosseau edited French (Canada) subtitles for What happens when our computers get smarter than we are? | ||
Serge Brosseau approved French (Canada) subtitles for What happens when our computers get smarter than we are? | ||
Serge Brosseau accepted French (Canada) subtitles for What happens when our computers get smarter than we are? | ||
Serge Brosseau edited French (Canada) subtitles for What happens when our computers get smarter than we are? | ||
Serge Brosseau edited French (Canada) subtitles for What happens when our computers get smarter than we are? |