Pouvons-nous concevoir une IA sans en perdre le contrôle ?
-
0:01 - 0:03Je vais vous parler
d'une erreur de jugement -
0:03 - 0:05que beaucoup d'entre nous font.
-
0:05 - 0:09Il s'agit de l'incapacité à détecter
un certain type de danger. -
0:09 - 0:11Je vais décrire un scénario
-
0:11 - 0:14que je pense à la fois terrifiant
-
0:14 - 0:16et pourtant susceptible d'arriver,
-
0:17 - 0:18et ce genre de combinaison
-
0:19 - 0:20n'est pas une bonne chose.
-
0:20 - 0:23Pourtant, au lieu d'avoir peur,
la plupart d'entre vous penseront -
0:23 - 0:25que c'est plutôt cool.
-
0:25 - 0:28Je vais décrire comment
les avancées que nous faisons -
0:28 - 0:30dans l'intelligence artificielle
-
0:30 - 0:32pourraient finir par nous détruire.
-
0:32 - 0:35Il semble difficile de voir comment
cela pourrait ne pas nous détruire -
0:35 - 0:37ou nous aider à nous détruire.
-
0:37 - 0:39Pourtant, si vous me ressemblez un peu,
-
0:39 - 0:42vous allez trouver amusant
de réfléchir à ces choses-là. -
0:42 - 0:45Et cette façon de voir les choses
est une partie du problème. -
0:45 - 0:47Ce sentiment devrait vous inquiéter.
-
0:48 - 0:51Et si je devais vous convaincre,
avec cette présentation, -
0:51 - 0:54que nous allons probablement
souffrir d'une famine généralisée, -
0:54 - 0:57soit à cause du climat
ou de toute autre catastrophe, -
0:57 - 1:01et que vos petits-enfants,
ou leurs petits-enfants, -
1:01 - 1:02ont de grandes chances de vivre ainsi,
-
1:03 - 1:04vous ne penseriez pas :
-
1:05 - 1:07« Intéressant.
-
1:07 - 1:08Cool, ce TED. »
-
1:09 - 1:11La famine, ce n'est pas amusant.
-
1:12 - 1:15La mort en science-fiction,
en revanche, est un concept amusant -
1:15 - 1:19et ce qui m'inquiète le plus à propos
du développement de l'IA en ce moment -
1:19 - 1:23est le fait que nous semblons
incapables de nous faire une idée -
1:23 - 1:25des dangers qui nous attendent.
-
1:25 - 1:28Je n'ai pas de réponse,
alors que je suis ici, à vous en parler. -
1:30 - 1:33C'est comme si nous étions
face à deux portes. -
1:33 - 1:34Derrière la porte n°1,
-
1:34 - 1:37nous arrêtons nos progrès
dans le développement de nos machines. -
1:37 - 1:41Hardware et software stagnent,
pour une raison ou pour une autre. -
1:41 - 1:44Essayez d'imaginer
ce qui pourrait arrêter ce développement. -
1:45 - 1:47Étant donnée l'importance
de l'intelligence -
1:47 - 1:48et de l'automatisation
-
1:48 - 1:52nous allons continuer à améliorer
notre technologie si nous le pouvons. -
1:53 - 1:55Qu'est-ce qui nous en empêcherait ?
-
1:56 - 1:58Une guerre nucléaire mondiale ?
-
1:59 - 2:01Une pandémie globale ?
-
2:02 - 2:04Un impact d'astéroïde ?
-
2:06 - 2:08Justin Bieber président des États-Unis ?
-
2:08 - 2:11(Rires)
-
2:13 - 2:16Il faudrait que la civilisation
telle que nous la connaissons -
2:16 - 2:17soit détruite.
-
2:17 - 2:22Il faudrait vraiment imaginer
quelque chose de terrible -
2:22 - 2:25pour que nous arrêtions
de développer notre technologie -
2:25 - 2:26totalement,
-
2:26 - 2:28génération après génération.
-
2:28 - 2:30Par définition,
ce serait la pire chose -
2:30 - 2:32qui serait jamais arrivée à l'humanité.
-
2:33 - 2:34Donc la seule alternative,
-
2:34 - 2:36et c'est ce qui se trouve
derrière la porte n°2, -
2:36 - 2:39est que nous continuions
d'améliorer l'intelligence de nos machines -
2:39 - 2:41année après année.
-
2:42 - 2:45À un moment, nous allons construire
des machines plus intelligentes que nous, -
2:46 - 2:49et ces machines
plus intelligentes que nous -
2:49 - 2:51vont commencer
à s'améliorer elles-mêmes. -
2:51 - 2:53Il y a le risque, théorisé
par le mathématicien I.J. Good, -
2:53 - 2:55d'une « explosion d'intelligence »,
-
2:55 - 2:57un processus qui pourrait nous échapper.
-
2:58 - 3:01Ce phénomène
est souvent caricaturé, comme ici, -
3:01 - 3:04avec des armées de robots malveillants
-
3:04 - 3:05qui nous attaqueraient.
-
3:05 - 3:08Mais ce n'est pas
le scénario le plus probable. -
3:08 - 3:13Nos machines ne vont probablement pas
devenir spontanément malveillantes. -
3:13 - 3:16Le risque est
que nous construisions des machines -
3:16 - 3:18tellement plus compétentes que nous
-
3:18 - 3:22que la moindre divergence
d'intérêt entre elles et nous -
3:22 - 3:23pourrait nous détruire.
-
3:24 - 3:26Pensez aux fourmis.
-
3:27 - 3:28Nous ne les haïssons pas.
-
3:28 - 3:30Nous ne cherchons pas à les écraser.
-
3:30 - 3:33Nous faisons même parfois
l'effort de les éviter. -
3:33 - 3:35Nous les enjambons.
-
3:35 - 3:37Mais dès que leur présence
-
3:37 - 3:39nous gêne vraiment,
-
3:39 - 3:42par exemple si nous voulons
construire un bâtiment, -
3:42 - 3:44nous les exterminons sans scrupule.
-
3:44 - 3:47Le risque est que nous construisions
un jour des machines -
3:47 - 3:50qui, conscientes ou non,
-
3:50 - 3:52nous traiteraient
avec la même indifférence. -
3:54 - 3:57Cela peut vous sembler capillotracté.
-
3:57 - 4:04Je parie que certains d'entre vous
doutent qu'une super IA soit possible, -
4:04 - 4:05et encore moins inévitable.
-
4:05 - 4:09Mais dans ce cas vous devez réfuter
une des hypothèses suivantes. -
4:09 - 4:11Et il n'y en a que trois.
-
4:12 - 4:17L'intelligence est le traitement
de l'information dans un système physique. -
4:17 - 4:20En fait, c'est un peu plus
qu'une simple hypothèse. -
4:20 - 4:23Nous avons déjà construit
des machines vaguement intelligentes, -
4:23 - 4:25et nombre d'entre elles font déjà preuve
-
4:25 - 4:28d'une intelligence surhumaine.
-
4:29 - 4:31Et nous savons que la matière
-
4:31 - 4:34peut produire « l'intelligence générale »,
-
4:34 - 4:38la capacité de réfléchir
de manière croisée, -
4:38 - 4:41parce que nos cerveaux
y sont parvenus, n'est-ce pas ? -
4:41 - 4:45Après tout, il n'y a que
des atomes là-dedans, -
4:45 - 4:49et tant que nous continuerons
à construire des systèmes d'atomes -
4:49 - 4:52qui feront montre de plus
en plus d'intelligence, -
4:52 - 4:55nous parviendrons,
à moins d'être interrompus, -
4:55 - 4:58nous parviendrons à implanter
une « intelligence générale » -
4:58 - 4:59au cœur de nos machines.
-
4:59 - 5:03Il est crucial de comprendre
que la vitesse n'est pas le problème, -
5:03 - 5:06car n'importe quelle vitesse
est suffisante pour aller au bout. -
5:06 - 5:08Nous n'avons pas besoin
de la loi de Moore -
5:08 - 5:10ni d'un progrès exponentiel.
-
5:10 - 5:12Il suffit de continuer à avancer.
-
5:13 - 5:16La deuxième hypothèse
est que nous allons continuer. -
5:17 - 5:20Nous continuerons d'améliorer
nos machines intelligentes. -
5:21 - 5:25Et, vue la valeur de l'intelligence --
-
5:25 - 5:29l'intelligence est la source
de tout ce qui compte -
5:29 - 5:32ou alors elle doit protéger
tout ce qui compte. -
5:32 - 5:34C'est notre plus importante ressource.
-
5:34 - 5:36Donc nous allons continuer.
-
5:36 - 5:39Nous avons des problèmes
que nous devons absolument résoudre. -
5:39 - 5:42Nous voulons vaincre les maladies
comme Alzheimer ou le cancer. -
5:43 - 5:45Nous voulons comprendre l'économie.
-
5:45 - 5:47Nous voulons améliorer le climat.
-
5:47 - 5:49Donc nous allons continuer,
si nous le pouvons. -
5:49 - 5:52Le train a déjà quitté la gare
et il n'y a pas de frein. -
5:54 - 5:59Et enfin, l'humain ne se trouve pas
au sommet de l'intelligence, -
5:59 - 6:01nous en sommes même très loin.
-
6:02 - 6:04Et c'est vraiment le point crucial.
-
6:04 - 6:06C'est ce qui rend
notre situation si précaire -
6:06 - 6:10et ce qui fait que notre compréhension
des risques n'est pas fiable. -
6:11 - 6:14Prenons l'humain le plus intelligent
qui ait jamais vécu. -
6:15 - 6:18Beaucoup de gens penseraient
à John von Neumann. -
6:18 - 6:21L'impression que von Neumann
laissait aux gens, -
6:21 - 6:25y compris les plus brillants
mathématiciens et physiciens de son temps, -
6:26 - 6:27est plutôt bien documentée.
-
6:27 - 6:30Si ne serait-ce que la moitié
de ce que l'on dit sur lui -
6:30 - 6:31est à moitié vraie,
-
6:31 - 6:33il n'y a aucun doute qu'il soit
-
6:33 - 6:35l'un des plus brillants esprits
qui aient existé. -
6:35 - 6:38Considérons le spectre de l'intelligence.
-
6:38 - 6:40Voici John von Neumann.
-
6:42 - 6:43Et nous, nous sommes ici.
-
6:44 - 6:45Et là nous avons un poulet.
-
6:45 - 6:47(Rires)
-
6:47 - 6:49Pardon, un poulet.
-
6:49 - 6:50(Rires)
-
6:50 - 6:54Pas besoin de rendre cette présentation
plus déprimante qu'elle ne l'est déjà. -
6:54 - 6:55(Rires)
-
6:56 - 7:00Il semble néanmoins plus que probable
que le spectre de l'intelligence -
7:00 - 7:03s'étende beaucoup plus loin
que nous ne pouvons le concevoir, -
7:04 - 7:07Si nous construisons
des machines plus intelligentes que nous, -
7:07 - 7:09elles vont très probablement
explorer ce spectre, -
7:09 - 7:11plus que nous ne pouvons l'imaginer,
-
7:11 - 7:14et elles nous surpasseront,
plus que nous ne pouvons l'imaginer. -
7:15 - 7:19Il est important de noter que c'est vrai
par la seule vertu de la vitesse. -
7:19 - 7:24Imaginez que nous construisions
une IA super intelligente -
7:24 - 7:28qui ne soit pas plus intelligente
qu'une équipe moyenne de chercheurs -
7:28 - 7:30de Stanford ou du MIT.
-
7:30 - 7:33L'électronique va environ
un million de fois plus vite -
7:33 - 7:34que la biochimie,
-
7:35 - 7:38de sorte que cette machine
penserait un million de fois plus vite -
7:38 - 7:39que les humains qui l'auraient créée.
-
7:40 - 7:41En une semaine,
-
7:41 - 7:46cette machine réaliserait le même travail
qu'une équipe d'humains en 20 000 ans, -
7:46 - 7:48semaine après semaine.
-
7:50 - 7:53Comment pourrions-nous comprendre,
et encore moins limiter, -
7:53 - 7:55un esprit qui irait à une telle vitesse ?
-
7:57 - 7:59L'autre chose inquiétante, franchement,
-
7:59 - 8:04est la suivante :
imaginez le meilleur des cas. -
8:04 - 8:08Imaginez que nous concevions
une IA super intelligente -
8:08 - 8:10qui ne soit pas dangereuse.
-
8:10 - 8:13Nous trouvons la parfaite solution
du premier coup. -
8:13 - 8:15Comme si nous avions
un oracle à disposition -
8:15 - 8:17se comportant
exactement comme prévu. -
8:17 - 8:21Cette machine nous éviterait
toute forme de travail. -
8:22 - 8:24Elle concevrait la machine
qui ferait la machine -
8:24 - 8:26qui pourrait faire n'importe quoi,
-
8:26 - 8:27alimentée par le soleil,
-
8:27 - 8:30plus ou moins pour le seul coût
des matières premières. -
8:30 - 8:33On parle là de la fin
de la pénibilité humaine. -
8:33 - 8:36Nous parlons aussi
de la fin du travail intellectuel. -
8:37 - 8:40Que feraient des singes comme nous
dans une pareille situation ? -
8:40 - 8:44Nous serions libres de jouer au frisbee
et de nous faire des massages. -
8:46 - 8:49Avec un peu de LSD
et quelques fringues douteuses, -
8:49 - 8:51le monde entier serait
comme le Burning Man. -
8:51 - 8:53(Rires)
-
8:54 - 8:56Bon, tout ça peut sembler plutôt sympa,
-
8:57 - 9:00mais demandez-vous ce qui arriverait
-
9:00 - 9:02avec notre système politique
et économique actuel ? -
9:02 - 9:05Nous serions les témoins
-
9:05 - 9:09d'une inégalité des richesses
et d'un taux de chômage -
9:09 - 9:11encore jamais vus.
-
9:11 - 9:13Sans la volonté de mettre
ces nouvelles richesses -
9:13 - 9:15au service de toute l'humanité,
-
9:16 - 9:19quelques milliardaires feraient
les couvertures des revues commerciales -
9:19 - 9:22alors que le reste du monde
mourrait de faim. -
9:22 - 9:25Et que feraient les Russes ou les Chinois
-
9:25 - 9:27s'ils apprenaient
qu'une société de la Silicon Valley -
9:27 - 9:30était sur le point de créer
une IA super intelligente ? -
9:30 - 9:33Cette machine serait capable
de faire la guerre, -
9:33 - 9:35qu'elle soit physique ou numérique,
-
9:35 - 9:37avec une puissance jamais vue.
-
9:38 - 9:40Le vainqueur emporterait toute la mise.
-
9:40 - 9:43Avoir six mois d'avance
dans une telle compétition -
9:43 - 9:46revient à avoir 500 000 ans d'avance,
-
9:46 - 9:47au minimum.
-
9:47 - 9:52Il est donc possible
que la moindre rumeur de ce type de percée -
9:52 - 9:55pourrait tous nous rendre
totalement dingues. -
9:55 - 9:58L'une des choses les plus effrayantes,
-
9:58 - 10:00de mon point de vue,
-
10:00 - 10:05sont les choses
que les chercheurs en IA disent -
10:05 - 10:06quand ils veulent nous rassurer.
-
10:07 - 10:10On nous dit généralement
que nous avons encore le temps. -
10:10 - 10:13C'est pour plus tard,
vous pensez bien. -
10:13 - 10:15C'est probablement
pour dans 50 ou 100 ans. -
10:16 - 10:17Un chercheur a dit :
-
10:17 - 10:19« S'inquiéter de l'IA,
c'est comme s'inquiéter -
10:19 - 10:21de la surpopulation sur Mars. »
-
10:22 - 10:24La Silicon Valley sait parfois
-
10:24 - 10:26se montrer condescendante.
-
10:26 - 10:27(Rires)
-
10:28 - 10:29Personne ne semble se rendre compte
-
10:29 - 10:32que dire qu'on a le temps
-
10:32 - 10:35est totalement fallacieux
dans ce contexte. -
10:35 - 10:38Si l'intelligence n'est
que le traitement de l'information -
10:38 - 10:41et si l'on continue
d'améliorer nos machines, -
10:41 - 10:44alors nous produirons
une forme de super intelligence. -
10:44 - 10:48Et nous n'avons pas la moindre idée
du temps qu'il nous faudra -
10:48 - 10:50pour trouver comment
le faire sans risques. -
10:52 - 10:53Je vais me répéter.
-
10:54 - 10:57Nous n'avons pas la moindre idée
du temps qu'il nous faudra -
10:57 - 11:00pour trouver comment
le faire sans risques. -
11:01 - 11:04Au cas où vous n'auriez pas remarqué,
50 ans, ce n'est pas grand chose. -
11:04 - 11:07Voici 50 ans, en mois.
-
11:07 - 11:09Voici l'existence de l'iPhone.
-
11:09 - 11:12Voici la durée couverte
par « Les Simpsons ». -
11:13 - 11:15Cinquante ans,
cela ne laisse guère de temps -
11:15 - 11:18pour se préparer à l'un
des plus grands défis de tous les temps. -
11:20 - 11:24Une fois encore, nous semblons
incapables de nous préparer -
11:24 - 11:26à ce qui, selon toute probabilité,
va arriver. -
11:26 - 11:30L'informaticien Stuart Russel
propose une belle analogie à ce sujet. -
11:30 - 11:35Il dit : « Imaginez que nous recevions
un message des aliens -
11:35 - 11:37qui dirait :
-
11:37 - 11:39' Habitants de la Terre,
-
11:39 - 11:41nous arriverons chez vous dans 50 ans.
-
11:42 - 11:43Soyez prêts. '
-
11:43 - 11:48Et on ne ferait que regarder
le compte à rebours ? -
11:48 - 11:51Non, nous nous sentirions
un peu plus concernés que ça. » -
11:53 - 11:55Une autre raison de ne pas s'inquiéter
-
11:55 - 11:58serait que ces machines
partageraient notre sens des valeurs -
11:58 - 12:00parce qu'elles seraient
des extensions de nous-mêmes. -
12:00 - 12:02Elles seraient greffées sur nos cerveaux,
-
12:02 - 12:04nous serions leur système limbique.
-
12:05 - 12:07Réfléchissez un peu
-
12:07 - 12:10que le moyen le plus sûr,
-
12:10 - 12:11recommandé,
-
12:11 - 12:14serait de brancher cette technologie
directement sur nos cerveaux. -
12:15 - 12:18Cela peut sembler
être la meilleure option, -
12:18 - 12:21mais généralement, on essaie
d'être sûr de son coup -
12:21 - 12:25avant de s'enfoncer
quelque chose dans le cerveau. -
12:25 - 12:27(Rires)
-
12:27 - 12:31Le vrai problème est
que simplement concevoir -
12:31 - 12:32une IA super intelligente
-
12:32 - 12:34semble plus facile
-
12:34 - 12:36que de concevoir
une IA super intelligente -
12:36 - 12:38tout en maîtrisant les neurosciences
-
12:38 - 12:40pour connecter cette IA à nos cerveaux.
-
12:41 - 12:44Si l'on tient compte du fait
que les entreprises et gouvernements -
12:44 - 12:48se sentent probablement en concurrence,
-
12:48 - 12:51et, puisque remporter cette course
revient à conquérir le monde, -
12:51 - 12:53pourvu que vous
ne le détruisiez pas juste après, -
12:53 - 12:56il semble probable que l'on commence
-
12:56 - 12:57par le plus facile.
-
12:59 - 13:01Malheureusement,
je n'ai pas la solution de ce problème, -
13:01 - 13:04à part recommander que
nous soyons plus nombreux à y réfléchir. -
13:04 - 13:06Il nous faudrait une sorte
de Projet Manhattan -
13:06 - 13:08à propos de l'intelligence artificielle.
-
13:09 - 13:11Pas pour la concevoir,
car nous y parviendrons, -
13:11 - 13:15mais pour réfléchir à comment
éviter une course aux armements -
13:15 - 13:18et pour la concevoir d'une façon
en accord avec nos intérêts. -
13:18 - 13:20Quand vous parlez
d'une IA super intelligente -
13:20 - 13:23qui pourrait se modifier elle-même,
-
13:23 - 13:27il semblerait que nous n'ayons qu'une
seule chance de faire les choses bien -
13:27 - 13:29et encore, il nous faudra gérer
-
13:29 - 13:32les conséquences
politiques et économiques. -
13:34 - 13:36Mais à partir du moment où nous admettons
-
13:36 - 13:40que le traitement de l'information
est la source de l'intelligence, -
13:41 - 13:46qu'un système de calcul
est la base de l'intelligence, -
13:46 - 13:50et que nous admettons que nous allons
continuer d'améliorer ce type de système -
13:51 - 13:53et que nous admettons que l'horizon
-
13:53 - 13:55de l'intelligence dépasse totalement
-
13:55 - 13:57ce que nous savons aujourd'hui,
-
13:58 - 13:59nous devons admettre
-
14:00 - 14:03que nous sommes engagés
dans la conception d'un pseudo-dieu. -
14:03 - 14:05Il nous faut donc vérifier
-
14:05 - 14:07que c'est un dieu compatible
avec notre survie. -
14:08 - 14:10Merci beaucoup.
-
14:10 - 14:15(Applaudissements)
- Title:
- Pouvons-nous concevoir une IA sans en perdre le contrôle ?
- Speaker:
- Sam Harris
- Description:
-
L'intelligence artificielle vous fait peur ? Vous avez raison, dit le neuroscientifique et philosophe Sam Harris -- et pas juste de manière théorique. Nous allons construire des machines surhumaines, explique-t-il, mais nous ne nous sommes pas encore attelés aux problèmes liés au fait de créer quelque chose qui pourrait nous traiter de la même façon que nous traitons les fourmis.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
eric vautier edited French subtitles for Can we build AI without losing control over it? | ||
eric vautier approved French subtitles for Can we build AI without losing control over it? | ||
eric vautier edited French subtitles for Can we build AI without losing control over it? | ||
Morgane Quilfen accepted French subtitles for Can we build AI without losing control over it? | ||
Morgane Quilfen edited French subtitles for Can we build AI without losing control over it? | ||
MACQUERON CORENTIN edited French subtitles for Can we build AI without losing control over it? | ||
MACQUERON CORENTIN edited French subtitles for Can we build AI without losing control over it? | ||
MACQUERON CORENTIN edited French subtitles for Can we build AI without losing control over it? |