0:00:00.956,0:00:03.172 Je vais vous parler[br]d'une erreur de jugement 0:00:03.240,0:00:04.840 que beaucoup d'entre nous font. 0:00:05.480,0:00:08.520 Il s'agit de l'incapacité à détecter [br]un certain type de danger. 0:00:09.360,0:00:11.096 Je vais décrire un scénario 0:00:11.120,0:00:14.376 que je pense à la fois terrifiant 0:00:14.400,0:00:16.160 et pourtant susceptible d'arriver, 0:00:16.840,0:00:18.496 et ce genre de combinaison 0:00:18.520,0:00:20.056 n'est pas une bonne chose. 0:00:20.080,0:00:23.156 Pourtant, au lieu d'avoir peur,[br]la plupart d'entre vous penseront 0:00:23.156,0:00:24.640 que c'est plutôt cool. 0:00:25.200,0:00:28.176 Je vais décrire comment [br]les avancées que nous faisons 0:00:28.200,0:00:29.976 dans l'intelligence artificielle 0:00:30.000,0:00:31.806 pourraient finir par nous détruire. 0:00:31.806,0:00:35.256 Il semble difficile de voir comment[br]cela pourrait ne pas nous détruire 0:00:35.280,0:00:36.960 ou nous aider à nous détruire. 0:00:37.400,0:00:39.256 Pourtant, si vous me ressemblez un peu, 0:00:39.280,0:00:41.936 vous allez trouver amusant[br]de réfléchir à ces choses-là. 0:00:41.960,0:00:45.336 Et cette façon de voir les choses [br]est une partie du problème. 0:00:45.360,0:00:47.080 Ce sentiment devrait vous inquiéter. 0:00:47.920,0:00:50.626 Et si je devais vous convaincre,[br]avec cette présentation, 0:00:50.626,0:00:54.016 que nous allons probablement [br]souffrir d'une famine généralisée, 0:00:54.040,0:00:57.096 soit à cause du climat[br]ou de toute autre catastrophe, 0:00:57.120,0:01:00.536 et que vos petits-enfants,[br]ou leurs petits-enfants, 0:01:00.560,0:01:02.470 ont de grandes chances de vivre ainsi, 0:01:03.200,0:01:04.400 vous ne penseriez pas : 0:01:05.440,0:01:06.776 « Intéressant. 0:01:06.800,0:01:08.000 Cool, ce TED. » 0:01:09.200,0:01:10.830 La famine, ce n'est pas amusant. 0:01:11.800,0:01:15.176 La mort en science-fiction,[br]en revanche, est un concept amusant 0:01:15.200,0:01:19.176 et ce qui m'inquiète le plus à propos[br]du développement de l'IA en ce moment 0:01:19.200,0:01:23.296 est le fait que nous semblons [br]incapables de nous faire une idée 0:01:23.320,0:01:25.136 des dangers qui nous attendent. 0:01:25.160,0:01:28.360 Je n'ai pas de réponse,[br]alors que je suis ici, à vous en parler. 0:01:30.120,0:01:32.816 C'est comme si nous étions[br]face à deux portes. 0:01:32.840,0:01:34.096 Derrière la porte n°1, 0:01:34.120,0:01:37.416 nous arrêtons nos progrès[br]dans le développement de nos machines. 0:01:37.440,0:01:41.456 Hardware et software stagnent, [br]pour une raison ou pour une autre. 0:01:41.480,0:01:44.480 Essayez d'imaginer [br]ce qui pourrait arrêter ce développement. 0:01:44.567,0:01:46.785 Étant donnée l'importance [br]de l'intelligence 0:01:46.816,0:01:48.228 et de l'automatisation 0:01:48.297,0:01:51.923 nous allons continuer à améliorer [br]notre technologie si nous le pouvons. 0:01:53.200,0:01:54.867 Qu'est-ce qui nous en empêcherait ? 0:01:55.800,0:01:57.600 Une guerre nucléaire mondiale ? 0:01:59.000,0:02:00.560 Une pandémie globale ? 0:02:02.320,0:02:03.640 Un impact d'astéroïde ? 0:02:05.640,0:02:08.216 Justin Bieber président des États-Unis ? 0:02:08.240,0:02:10.520 (Rires) 0:02:12.760,0:02:15.932 Il faudrait que la civilisation [br]telle que nous la connaissons 0:02:15.932,0:02:17.390 soit détruite. 0:02:17.390,0:02:21.656 Il faudrait vraiment imaginer [br]quelque chose de terrible 0:02:21.680,0:02:25.016 pour que nous arrêtions [br]de développer notre technologie 0:02:25.040,0:02:26.256 totalement, 0:02:26.280,0:02:28.296 génération après génération. 0:02:28.320,0:02:30.456 Par définition, [br]ce serait la pire chose 0:02:30.480,0:02:32.496 qui serait jamais arrivée à l'humanité. 0:02:32.520,0:02:33.816 Donc la seule alternative, 0:02:33.840,0:02:36.176 et c'est ce qui se trouve [br]derrière la porte n°2, 0:02:36.200,0:02:39.336 est que nous continuions[br]d'améliorer l'intelligence de nos machines 0:02:39.360,0:02:40.960 année après année. 0:02:41.720,0:02:45.360 À un moment, nous allons construire[br]des machines plus intelligentes que nous, 0:02:46.080,0:02:48.696 et ces machines [br]plus intelligentes que nous 0:02:48.720,0:02:50.696 vont commencer [br]à s'améliorer elles-mêmes. 0:02:50.720,0:02:53.456 Il y a le risque, théorisé[br]par le mathématicien I.J. Good, 0:02:53.480,0:02:55.256 d'une « explosion d'intelligence », 0:02:55.280,0:02:57.280 un processus qui pourrait nous échapper. 0:02:58.120,0:03:00.936 Ce phénomène[br]est souvent caricaturé, comme ici, 0:03:00.960,0:03:04.176 avec des armées de robots malveillants 0:03:04.200,0:03:05.456 qui nous attaqueraient. 0:03:05.480,0:03:08.176 Mais ce n'est pas [br]le scénario le plus probable. 0:03:08.200,0:03:13.056 Nos machines ne vont probablement pas[br]devenir spontanément malveillantes. 0:03:13.080,0:03:15.696 Le risque est [br]que nous construisions des machines 0:03:15.720,0:03:17.776 tellement plus compétentes que nous 0:03:17.800,0:03:21.576 que la moindre divergence [br]d'intérêt entre elles et nous 0:03:21.600,0:03:22.800 pourrait nous détruire. 0:03:23.960,0:03:26.040 Pensez aux fourmis. 0:03:26.600,0:03:28.256 Nous ne les haïssons pas. 0:03:28.280,0:03:30.336 Nous ne cherchons pas à les écraser. 0:03:30.360,0:03:32.736 Nous faisons même parfois [br]l'effort de les éviter. 0:03:32.760,0:03:34.776 Nous les enjambons. 0:03:34.800,0:03:36.936 Mais dès que leur présence 0:03:36.960,0:03:39.456 nous gêne vraiment, 0:03:39.480,0:03:41.957 par exemple si nous voulons [br]construire un bâtiment, 0:03:41.981,0:03:43.941 nous les exterminons sans scrupule. 0:03:44.480,0:03:47.416 Le risque est que nous construisions [br]un jour des machines 0:03:47.440,0:03:50.176 qui, conscientes ou non, 0:03:50.200,0:03:52.320 nous traiteraient[br]avec la même indifférence. 0:03:53.760,0:03:56.520 Cela peut vous sembler capillotracté. 0:03:57.360,0:04:03.696 Je parie que certains d'entre vous [br]doutent qu'une super IA soit possible, 0:04:03.720,0:04:05.376 et encore moins inévitable. 0:04:05.400,0:04:09.020 Mais dans ce cas vous devez réfuter [br]une des hypothèses suivantes. 0:04:09.044,0:04:10.616 Et il n'y en a que trois. 0:04:11.800,0:04:16.519 L'intelligence est le traitement [br]de l'information dans un système physique. 0:04:17.320,0:04:19.935 En fait, c'est un peu plus [br]qu'une simple hypothèse. 0:04:19.959,0:04:23.416 Nous avons déjà construit [br]des machines vaguement intelligentes, 0:04:23.440,0:04:25.456 et nombre d'entre elles font déjà preuve 0:04:25.480,0:04:28.120 d'une intelligence surhumaine. 0:04:28.840,0:04:31.416 Et nous savons que la matière 0:04:31.440,0:04:34.056 peut produire « l'intelligence générale », 0:04:34.080,0:04:37.736 la capacité de réfléchir [br]de manière croisée, 0:04:37.760,0:04:40.896 parce que nos cerveaux[br]y sont parvenus, n'est-ce pas ? 0:04:40.920,0:04:44.856 Après tout, il n'y a que[br]des atomes là-dedans, 0:04:44.880,0:04:49.376 et tant que nous continuerons [br]à construire des systèmes d'atomes 0:04:49.400,0:04:52.096 qui feront montre de plus [br]en plus d'intelligence, 0:04:52.120,0:04:54.656 nous parviendrons,[br]à moins d'être interrompus, 0:04:54.680,0:04:58.056 nous parviendrons à implanter[br]une « intelligence générale » 0:04:58.080,0:04:59.376 au cœur de nos machines. 0:04:59.400,0:05:03.056 Il est crucial de comprendre [br]que la vitesse n'est pas le problème, 0:05:03.080,0:05:06.256 car n'importe quelle vitesse [br]est suffisante pour aller au bout. 0:05:06.280,0:05:08.405 Nous n'avons pas besoin [br]de la loi de Moore 0:05:08.448,0:05:10.080 ni d'un progrès exponentiel. 0:05:10.080,0:05:11.680 Il suffit de continuer à avancer. 0:05:13.480,0:05:16.400 La deuxième hypothèse [br]est que nous allons continuer. 0:05:17.000,0:05:19.760 Nous continuerons d'améliorer[br]nos machines intelligentes. 0:05:21.000,0:05:25.376 Et, vue la valeur de l'intelligence -- 0:05:25.400,0:05:28.936 l'intelligence est la source [br]de tout ce qui compte 0:05:28.960,0:05:31.736 ou alors elle doit protéger [br]tout ce qui compte. 0:05:31.760,0:05:34.016 C'est notre plus importante ressource. 0:05:34.040,0:05:35.576 Donc nous allons continuer. 0:05:35.600,0:05:38.936 Nous avons des problèmes [br]que nous devons absolument résoudre. 0:05:38.960,0:05:42.160 Nous voulons vaincre les maladies [br]comme Alzheimer ou le cancer. 0:05:42.960,0:05:44.840 Nous voulons comprendre l'économie. 0:05:44.840,0:05:46.920 Nous voulons améliorer le climat. 0:05:46.920,0:05:49.176 Donc nous allons continuer, [br]si nous le pouvons. 0:05:49.200,0:05:52.486 Le train a déjà quitté la gare[br]et il n'y a pas de frein. 0:05:53.880,0:05:59.336 Et enfin, l'humain ne se trouve pas[br]au sommet de l'intelligence, 0:05:59.360,0:06:01.160 nous en sommes même très loin. 0:06:01.640,0:06:03.536 Et c'est vraiment le point crucial. 0:06:03.560,0:06:05.976 C'est ce qui rend[br]notre situation si précaire 0:06:06.000,0:06:10.040 et ce qui fait que notre compréhension [br]des risques n'est pas fiable. 0:06:11.120,0:06:13.840 Prenons l'humain le plus intelligent[br]qui ait jamais vécu. 0:06:14.640,0:06:18.056 Beaucoup de gens penseraient [br]à John von Neumann. 0:06:18.080,0:06:21.416 L'impression que von Neumann [br]laissait aux gens, 0:06:21.440,0:06:25.496 y compris les plus brillants [br]mathématiciens et physiciens de son temps, 0:06:25.520,0:06:27.456 est plutôt bien documentée. 0:06:27.480,0:06:30.198 Si ne serait-ce que la moitié [br]de ce que l'on dit sur lui 0:06:30.223,0:06:31.135 est à moitié vraie, 0:06:31.135,0:06:32.669 il n'y a aucun doute qu'il soit 0:06:32.669,0:06:34.976 l'un des plus brillants esprits[br]qui aient existé. 0:06:35.000,0:06:37.520 Considérons le spectre de l'intelligence. 0:06:38.320,0:06:39.749 Voici John von Neumann. 0:06:41.560,0:06:42.894 Et nous, nous sommes ici. 0:06:44.120,0:06:45.416 Et là nous avons un poulet. 0:06:45.440,0:06:47.376 (Rires) 0:06:47.400,0:06:48.616 Pardon, un poulet. 0:06:48.640,0:06:49.896 (Rires) 0:06:49.920,0:06:53.656 Pas besoin de rendre cette présentation [br]plus déprimante qu'elle ne l'est déjà. 0:06:53.680,0:06:55.280 (Rires) 0:06:56.339,0:06:59.816 Il semble néanmoins plus que probable[br]que le spectre de l'intelligence 0:06:59.840,0:07:02.960 s'étende beaucoup plus loin [br]que nous ne pouvons le concevoir, 0:07:03.880,0:07:07.096 Si nous construisons[br]des machines plus intelligentes que nous, 0:07:07.120,0:07:09.466 elles vont très probablement [br]explorer ce spectre, 0:07:09.466,0:07:11.296 plus que nous ne pouvons l'imaginer, 0:07:11.320,0:07:14.420 et elles nous surpasseront,[br]plus que nous ne pouvons l'imaginer. 0:07:15.000,0:07:19.336 Il est important de noter que c'est vrai [br]par la seule vertu de la vitesse. 0:07:19.360,0:07:24.416 Imaginez que nous construisions[br]une IA super intelligente 0:07:24.440,0:07:27.896 qui ne soit pas plus intelligente [br]qu'une équipe moyenne de chercheurs 0:07:27.920,0:07:30.216 de Stanford ou du MIT. 0:07:30.240,0:07:33.216 L'électronique va environ [br]un million de fois plus vite 0:07:33.240,0:07:34.496 que la biochimie, 0:07:34.520,0:07:37.656 de sorte que cette machine [br]penserait un million de fois plus vite 0:07:37.680,0:07:39.496 que les humains qui l'auraient créée. 0:07:39.520,0:07:41.176 En une semaine, 0:07:41.200,0:07:45.760 cette machine réaliserait le même travail [br]qu'une équipe d'humains en 20 000 ans, 0:07:46.400,0:07:48.360 semaine après semaine. 0:07:49.640,0:07:52.736 Comment pourrions-nous comprendre, [br]et encore moins limiter, 0:07:52.760,0:07:55.040 un esprit qui irait à une telle vitesse ? 0:07:56.840,0:07:58.976 L'autre chose inquiétante, franchement, 0:07:59.000,0:08:03.976 est la suivante :[br]imaginez le meilleur des cas. 0:08:04.000,0:08:08.176 Imaginez que nous concevions[br]une IA super intelligente 0:08:08.200,0:08:09.576 qui ne soit pas dangereuse. 0:08:09.600,0:08:12.856 Nous trouvons la parfaite solution [br]du premier coup. 0:08:12.880,0:08:15.096 Comme si nous avions [br]un oracle à disposition 0:08:15.120,0:08:17.136 se comportant[br]exactement comme prévu. 0:08:17.160,0:08:20.880 Cette machine nous éviterait [br]toute forme de travail. 0:08:21.680,0:08:24.109 Elle concevrait la machine[br]qui ferait la machine 0:08:24.133,0:08:25.896 qui pourrait faire n'importe quoi, 0:08:25.920,0:08:27.376 alimentée par le soleil, 0:08:27.400,0:08:30.096 plus ou moins pour le seul coût[br]des matières premières. 0:08:30.120,0:08:33.376 On parle là de la fin[br]de la pénibilité humaine. 0:08:33.400,0:08:36.200 Nous parlons aussi [br]de la fin du travail intellectuel. 0:08:37.200,0:08:40.256 Que feraient des singes comme nous [br]dans une pareille situation ? 0:08:40.280,0:08:44.360 Nous serions libres de jouer au frisbee[br]et de nous faire des massages. 0:08:45.840,0:08:48.696 Avec un peu de LSD [br]et quelques fringues douteuses, 0:08:48.720,0:08:50.896 le monde entier serait [br]comme le Burning Man. 0:08:50.920,0:08:52.560 (Rires) 0:08:54.320,0:08:56.320 Bon, tout ça peut sembler plutôt sympa, 0:08:57.280,0:08:59.656 mais demandez-vous ce qui arriverait 0:08:59.680,0:09:02.416 avec notre système politique [br]et économique actuel ? 0:09:02.440,0:09:04.856 Nous serions les témoins 0:09:04.880,0:09:09.016 d'une inégalité des richesses[br]et d'un taux de chômage 0:09:09.040,0:09:10.536 encore jamais vus. 0:09:10.560,0:09:13.176 Sans la volonté de mettre [br]ces nouvelles richesses 0:09:13.200,0:09:14.680 au service de toute l'humanité, 0:09:15.640,0:09:19.256 quelques milliardaires feraient [br]les couvertures des revues commerciales 0:09:19.280,0:09:21.720 alors que le reste du monde [br]mourrait de faim. 0:09:22.320,0:09:24.616 Et que feraient les Russes ou les Chinois 0:09:24.640,0:09:27.256 s'ils apprenaient [br]qu'une société de la Silicon Valley 0:09:27.280,0:09:30.016 était sur le point de créer[br]une IA super intelligente ? 0:09:30.040,0:09:32.896 Cette machine serait capable [br]de faire la guerre, 0:09:32.920,0:09:35.136 qu'elle soit physique ou numérique, 0:09:35.160,0:09:36.840 avec une puissance jamais vue. 0:09:38.120,0:09:39.976 Le vainqueur emporterait toute la mise. 0:09:40.000,0:09:43.136 Avoir six mois d'avance [br]dans une telle compétition 0:09:43.160,0:09:45.936 revient à avoir 500 000 ans d'avance, 0:09:45.960,0:09:47.456 au minimum. 0:09:47.480,0:09:52.216 Il est donc possible [br]que la moindre rumeur de ce type de percée 0:09:52.240,0:09:54.616 pourrait tous nous rendre[br]totalement dingues. 0:09:54.640,0:09:57.536 L'une des choses les plus effrayantes, 0:09:57.560,0:10:00.336 de mon point de vue, 0:10:00.360,0:10:04.656 sont les choses [br]que les chercheurs en IA disent 0:10:04.680,0:10:06.240 quand ils veulent nous rassurer. 0:10:07.000,0:10:10.456 On nous dit généralement [br]que nous avons encore le temps. 0:10:10.480,0:10:12.536 C'est pour plus tard, [br]vous pensez bien. 0:10:12.560,0:10:15.000 C'est probablement [br]pour dans 50 ou 100 ans. 0:10:15.720,0:10:16.976 Un chercheur a dit : 0:10:17.000,0:10:19.146 « S'inquiéter de l'IA,[br]c'est comme s'inquiéter 0:10:19.146,0:10:20.880 de la surpopulation sur Mars. » 0:10:22.116,0:10:23.736 La Silicon Valley sait parfois 0:10:23.760,0:10:26.136 se montrer condescendante. 0:10:26.160,0:10:27.496 (Rires) 0:10:27.520,0:10:29.416 Personne ne semble se rendre compte 0:10:29.440,0:10:32.056 que dire qu'on a le temps 0:10:32.080,0:10:34.656 est totalement fallacieux [br]dans ce contexte. 0:10:34.680,0:10:37.936 Si l'intelligence n'est [br]que le traitement de l'information 0:10:37.960,0:10:40.616 et si l'on continue [br]d'améliorer nos machines, 0:10:40.640,0:10:43.520 alors nous produirons [br]une forme de super intelligence. 0:10:44.320,0:10:47.976 Et nous n'avons pas la moindre idée[br]du temps qu'il nous faudra 0:10:48.000,0:10:50.400 pour trouver comment[br]le faire sans risques. 0:10:52.200,0:10:53.496 Je vais me répéter. 0:10:53.520,0:10:57.336 Nous n'avons pas la moindre idée [br]du temps qu'il nous faudra 0:10:57.360,0:10:59.600 pour trouver comment[br]le faire sans risques. 0:11:00.920,0:11:04.376 Au cas où vous n'auriez pas remarqué,[br]50 ans, ce n'est pas grand chose. 0:11:04.400,0:11:06.856 Voici 50 ans, en mois. 0:11:06.880,0:11:08.720 Voici l'existence de l'iPhone. 0:11:09.440,0:11:12.040 Voici la durée couverte [br]par « Les Simpsons ». 0:11:12.680,0:11:15.056 Cinquante ans, [br]cela ne laisse guère de temps 0:11:15.080,0:11:18.240 pour se préparer à l'un [br]des plus grands défis de tous les temps. 0:11:19.640,0:11:23.656 Une fois encore, nous semblons [br]incapables de nous préparer 0:11:23.680,0:11:26.376 à ce qui, selon toute probabilité,[br]va arriver. 0:11:26.400,0:11:30.376 L'informaticien Stuart Russel [br]propose une belle analogie à ce sujet. 0:11:30.400,0:11:35.296 Il dit : « Imaginez que nous recevions [br]un message des aliens 0:11:35.320,0:11:37.016 qui dirait : 0:11:37.040,0:11:38.576 ' Habitants de la Terre, 0:11:38.600,0:11:40.960 nous arriverons chez vous dans 50 ans. 0:11:41.800,0:11:43.376 Soyez prêts. ' 0:11:43.400,0:11:47.656 Et on ne ferait que regarder [br]le compte à rebours ? 0:11:47.680,0:11:50.680 Non, nous nous sentirions [br]un peu plus concernés que ça. » 0:11:52.680,0:11:54.536 Une autre raison de ne pas s'inquiéter 0:11:54.560,0:11:57.576 serait que ces machines [br]partageraient notre sens des valeurs 0:11:57.600,0:12:00.216 parce qu'elles seraient [br]des extensions de nous-mêmes. 0:12:00.240,0:12:02.236 Elles seraient greffées sur nos cerveaux, 0:12:02.236,0:12:04.440 nous serions leur système limbique. 0:12:05.120,0:12:06.536 Réfléchissez un peu 0:12:06.560,0:12:09.736 que le moyen le plus sûr, 0:12:09.760,0:12:11.096 recommandé, 0:12:11.120,0:12:14.290 serait de brancher cette technologie[br]directement sur nos cerveaux. 0:12:14.600,0:12:17.976 Cela peut sembler [br]être la meilleure option, 0:12:18.000,0:12:21.056 mais généralement, on essaie[br]d'être sûr de son coup 0:12:21.080,0:12:24.736 avant de s'enfoncer [br]quelque chose dans le cerveau. 0:12:24.760,0:12:26.776 (Rires) 0:12:26.800,0:12:30.770 Le vrai problème est[br]que simplement concevoir 0:12:30.770,0:12:32.160 une IA super intelligente 0:12:32.160,0:12:33.890 semble plus facile 0:12:33.890,0:12:35.856 que de concevoir[br]une IA super intelligente 0:12:35.856,0:12:37.576 tout en maîtrisant les neurosciences 0:12:37.600,0:12:40.280 pour connecter cette IA à nos cerveaux. 0:12:40.800,0:12:43.976 Si l'on tient compte du fait [br]que les entreprises et gouvernements 0:12:44.000,0:12:47.656 se sentent probablement en concurrence, 0:12:47.680,0:12:50.936 et, puisque remporter cette course [br]revient à conquérir le monde, 0:12:50.960,0:12:53.416 pourvu que vous[br]ne le détruisiez pas juste après, 0:12:53.440,0:12:56.056 il semble probable que l'on commence 0:12:56.080,0:12:57.280 par le plus facile. 0:12:58.560,0:13:01.340 Malheureusement,[br]je n'ai pas la solution de ce problème, 0:13:01.340,0:13:04.296 à part recommander que[br]nous soyons plus nombreux à y réfléchir. 0:13:04.296,0:13:06.486 Il nous faudrait une sorte [br]de Projet Manhattan 0:13:06.486,0:13:08.496 à propos de l'intelligence artificielle. 0:13:08.520,0:13:11.256 Pas pour la concevoir, [br]car nous y parviendrons, 0:13:11.280,0:13:14.616 mais pour réfléchir à comment [br]éviter une course aux armements 0:13:14.640,0:13:18.136 et pour la concevoir d'une façon [br]en accord avec nos intérêts. 0:13:18.160,0:13:20.296 Quand vous parlez[br]d'une IA super intelligente 0:13:20.320,0:13:22.576 qui pourrait se modifier elle-même, 0:13:22.600,0:13:27.216 il semblerait que nous n'ayons qu'une[br]seule chance de faire les choses bien 0:13:27.240,0:13:29.296 et encore, il nous faudra gérer 0:13:29.320,0:13:32.360 les conséquences [br]politiques et économiques. 0:13:33.760,0:13:35.816 Mais à partir du moment où nous admettons 0:13:35.840,0:13:39.840 que le traitement de l'information [br]est la source de l'intelligence, 0:13:40.720,0:13:45.520 qu'un système de calcul[br]est la base de l'intelligence, 0:13:46.360,0:13:50.120 et que nous admettons que nous allons [br]continuer d'améliorer ce type de système 0:13:51.280,0:13:53.460 et que nous admettons que l'horizon 0:13:53.460,0:13:55.385 de l'intelligence dépasse totalement 0:13:55.447,0:13:56.960 ce que nous savons aujourd'hui, 0:13:58.120,0:13:59.420 nous devons admettre 0:13:59.530,0:14:02.620 que nous sommes engagés [br]dans la conception d'un pseudo-dieu. 0:14:03.400,0:14:04.969 Il nous faut donc vérifier 0:14:05.000,0:14:07.278 que c'est un dieu compatible [br]avec notre survie. 0:14:08.120,0:14:09.656 Merci beaucoup. 0:14:09.680,0:14:14.773 (Applaudissements)