1 00:00:06,949 --> 00:00:11,521 Imaginez que vous regardiez un tramway fou filant à toute allure sur les rails 2 00:00:11,521 --> 00:00:15,961 tout droit vers 5 travailleurs qui ne peuvent pas s'échapper. 3 00:00:15,961 --> 00:00:18,179 Vous êtes juste à côté d'un aiguillage 4 00:00:18,179 --> 00:00:21,680 qui détournerait le tramway vers une deuxième voie. 5 00:00:21,680 --> 00:00:22,980 Voici le problème. 6 00:00:22,980 --> 00:00:28,069 Il y a aussi un travailleur sur la voie, seulement un. 7 00:00:28,069 --> 00:00:29,390 Que faire ? 8 00:00:29,390 --> 00:00:32,685 Sacrifiez-vous une personne pour en sauver cinq ? 9 00:00:32,685 --> 00:00:35,414 C'est le problème du tramway, 10 00:00:35,414 --> 00:00:42,103 une version d'un dilemme éthique élaboré par le philosophe Philippa Foot en 1967. 11 00:00:42,103 --> 00:00:45,371 Il est populaire car il nous force à réfléchir à comment choisir 12 00:00:45,371 --> 00:00:48,060 quand il n'y a pas de bons choix. 13 00:00:48,060 --> 00:00:50,540 Choisissons-nous l'action menant au meilleur résultat 14 00:00:50,540 --> 00:00:55,400 ou nous en tenons-nous au code moral interdisant de causer la mort ? 15 00:00:55,400 --> 00:00:57,837 Dans une étude, environ 90% des participants 16 00:00:57,837 --> 00:01:00,837 ont dit que l'on pouvait actionner l'aiguillage 17 00:01:00,837 --> 00:01:04,250 et de laisser un travailleur mourir pour en sauver cinq. 18 00:01:04,250 --> 00:01:08,600 D'autres études, dont une simulation en réalité virtuelle du dilemme, 19 00:01:08,600 --> 00:01:11,040 ont trouvé des résultats similaires. 20 00:01:11,040 --> 00:01:16,061 Ces jugements sont cohérents avec le principe philosophique d'utilitarisme 21 00:01:16,061 --> 00:01:18,521 selon lequel la décision moralement correcte 22 00:01:18,521 --> 00:01:23,351 est celle qui maximise le bien-être pour le plus grand nombre de personnes. 23 00:01:23,351 --> 00:01:25,481 Cinq vies prennent le pas sur une, 24 00:01:25,481 --> 00:01:30,562 même si atteindre ce résultat nécessite de condamner quelqu'un à mort. 25 00:01:30,562 --> 00:01:33,471 Mais les gens n'ont pas toujours le point de vue utilitariste, 26 00:01:33,471 --> 00:01:37,062 ce que l'on voit en changeant un peu le problème du tramway. 27 00:01:37,062 --> 00:01:40,303 Cette fois-ci, vous êtes sur un pont au-dessus de la voie 28 00:01:40,303 --> 00:01:43,192 lorsque le tram approche. 29 00:01:43,192 --> 00:01:44,873 Il n'y a pas de seconde voie 30 00:01:44,873 --> 00:01:48,794 mais il y a un homme très gros sur le pont à côté de vous. 31 00:01:48,794 --> 00:01:52,492 Si vous le poussez, son corps arrêtera le tramway, 32 00:01:52,492 --> 00:01:54,243 sauvant les cinq travailleurs, 33 00:01:54,243 --> 00:01:56,033 mais il mourra. 34 00:01:56,033 --> 00:01:59,432 Pour les utilitaristes, la décision sera la même : 35 00:01:59,432 --> 00:02:01,982 perdre une vie pour en sauver cinq. 36 00:02:01,982 --> 00:02:04,584 Mais dans ce cas, seuls 10% des gens 37 00:02:04,584 --> 00:02:08,453 disent que l'on peut jeter l'homme sur les rails. 38 00:02:08,453 --> 00:02:11,914 Nos instincts nous disent que causer la mort de quelqu'un délibérément 39 00:02:11,914 --> 00:02:16,303 est différent que de les laisser mourir en tant que dommages collatéraux. 40 00:02:16,303 --> 00:02:20,953 Cela ne nous semble pas correct pour des raisons difficiles à expliquer. 41 00:02:20,953 --> 00:02:23,473 Cette intersection entre l'éthique et la psychologie 42 00:02:23,473 --> 00:02:26,604 est ce qui est si intéressant dans le problème du tramway. 43 00:02:26,604 --> 00:02:30,984 Les variations du problème révèlent que ce que nous croyons juste ou non 44 00:02:30,984 --> 00:02:36,345 dépend de facteurs autres que de considérer les pour et contre logiques. 45 00:02:36,345 --> 00:02:38,835 Par exemple, les hommes plus que les femmes 46 00:02:38,835 --> 00:02:42,504 diront que l'on peut pousser l'homme du pont. 47 00:02:42,504 --> 00:02:46,994 Ainsi que les gens regardant une comédie avant de faire l'expérience. 48 00:02:46,994 --> 00:02:49,165 Dans une étude en réalité virtuelle, 49 00:02:49,165 --> 00:02:52,944 les gens acceptaient plus de sacrifier des hommes que des femmes. 50 00:02:52,944 --> 00:02:55,214 Les chercheurs ont étudié l'activité cérébrale 51 00:02:55,214 --> 00:02:59,535 des gens confrontés aux deux versions. 52 00:02:59,535 --> 00:03:01,824 Les deux scénarios activent des zones du cerveau 53 00:03:01,824 --> 00:03:04,054 impliquées dans la prise de décision consciente 54 00:03:04,054 --> 00:03:06,514 et les réponses émotionnelles. 55 00:03:06,514 --> 00:03:10,975 Mais pour la version du pont, la réponse émotionnelle est plus forte 56 00:03:10,975 --> 00:03:13,194 et l'activité dans la zone du cerveau 57 00:03:13,194 --> 00:03:16,884 associée au traitement des conflits internes était plus forte. 58 00:03:16,884 --> 00:03:18,175 Pourquoi cette différence ? 59 00:03:18,175 --> 00:03:21,002 Une explication serait que pousser quelqu'un vers sa mort 60 00:03:21,002 --> 00:03:22,912 semble plus personnel, 61 00:03:22,912 --> 00:03:26,925 cela active une aversion émotionnelle au fait de tuer quelqu'un 62 00:03:26,925 --> 00:03:31,424 mais nous sommes confus car nous savons que c'est le choix logique. 63 00:03:31,424 --> 00:03:36,405 Cette étude a été critiquée par certains philosophes et psychologues. 64 00:03:36,405 --> 00:03:41,266 Ils soutiennent que cela ne révèle rien car le postulat est si irréaliste 65 00:03:41,266 --> 00:03:45,425 que les participants ne le prennent pas au sérieux. 66 00:03:45,425 --> 00:03:48,556 Mais de nouvelles technologies rendent ce genre d'analyse éthique 67 00:03:48,556 --> 00:03:50,698 plus importante que jamais. 68 00:03:50,698 --> 00:03:54,036 Par exemple, les voitures sans conducteur devront gérer des choix 69 00:03:54,036 --> 00:03:58,007 comme causer un petit accident pour en éviter un plus important. 70 00:03:58,007 --> 00:04:01,626 Les gouvernements font de la recherche sur des drones militaires autonomes 71 00:04:01,626 --> 00:04:05,976 qui pourraient prendre la décision de risquer des pertes civiles 72 00:04:05,976 --> 00:04:09,276 pour attaquer des cibles importantes. 73 00:04:09,276 --> 00:04:11,197 Pour que ces actions soient éthiques, 74 00:04:11,197 --> 00:04:15,397 nous devons décider d'avance comment estimer la vie humaine 75 00:04:15,397 --> 00:04:17,667 et juger le bien commun. 76 00:04:17,667 --> 00:04:20,107 Les chercheurs étudiant les systèmes autonomes 77 00:04:20,107 --> 00:04:22,207 collaborent avec des philosophes 78 00:04:22,207 --> 00:04:24,628 pour gérer le problème complexe 79 00:04:24,628 --> 00:04:27,628 de la programmation de l'éthique au sein des machines, 80 00:04:27,628 --> 00:04:30,957 ce qui montre que même les dilemmes hypothétiques 81 00:04:30,957 --> 00:04:35,058 peuvent entrer en collision avec le monde réel.