0:00:06.949,0:00:11.521 Wyobraź sobie kolejkę pędzącą po torach 0:00:11.521,0:00:15.961 wprost na pięciu robotników,[br]którzy nie mają jak uciec. 0:00:15.961,0:00:18.179 Stoisz obok dźwigni, 0:00:18.179,0:00:21.680 która przekieruje kolejkę na drugi tor. 0:00:21.680,0:00:22.980 Ale jest problem. 0:00:22.980,0:00:28.069 Na drugim torze też stoi robotnik.[br] 0:00:28.069,0:00:29.390 Co zrobisz? 0:00:29.390,0:00:32.685 Czy uratujesz pięć osób kosztem jednej? 0:00:32.685,0:00:35.414 To dylemat wagonika, 0:00:35.414,0:00:42.103 eksperyment etyczny stworzony[br]przez filozof Philippę Foot w 1967 roku. 0:00:42.103,0:00:44.531 Zyskał popularność,[br]bo zmusza do refleksji nad tym, 0:00:44.531,0:00:48.060 co wybrać, kiedy nie ma dobrego wyjścia. 0:00:48.060,0:00:50.200 Czy postąpimy zgodnie[br]z najlepszym rezultatem, 0:00:50.200,0:00:55.400 czy kodeksem moralnym,[br]który zabrania zabijania? 0:00:55.400,0:01:00.837 W badaniu około 90% respondentów[br]odpowiedziało, że pociągnęłoby za dźwignię 0:01:00.837,0:01:04.250 i poświęciło życie jednego robotnika,[br]aby uratować pięciu. 0:01:04.250,0:01:11.040 Podobne wyniki dały badania[br]z wirtualną symulacją dylematu. 0:01:11.040,0:01:16.061 Opinie te są zgodne[br]z filozoficzną zasadą utylitaryzmu, 0:01:16.061,0:01:18.521 która mówi, że najwłaściwsza moralnie 0:01:18.521,0:01:23.131 jest decyzja maksymalizująca dobro[br]jak największej liczby osób. 0:01:23.131,0:01:25.481 Pięć istnień znaczy więcej niż jedno, 0:01:25.481,0:01:30.562 nawet jeśli będzie to oznaczało[br]skazanie kogoś na śmierć. 0:01:30.562,0:01:33.471 Ale ludzie nie zawsze dokonują [br]utylitarystycznych wyborów, 0:01:33.471,0:01:37.062 co można łatwo zauważyć,[br]jeśli zmienimy zasady dylematu. 0:01:37.062,0:01:40.303 Tym razem stoisz na moście nad torami 0:01:40.303,0:01:43.192 tuż przed przyjazdem kolejki. 0:01:43.192,0:01:44.873 Nie ma drugiego toru, 0:01:44.873,0:01:48.794 ale obok ciebie na moście[br]stoi otyły człowiek. 0:01:48.794,0:01:52.492 Jeśli go popchniesz,[br]swoim ciałem zatrzyma kolejkę 0:01:52.492,0:01:54.243 i uratuje pięciu robotników, 0:01:54.243,0:01:56.033 ale sam zginie. 0:01:56.033,0:01:59.432 Utylitaryści nie zmieniają decyzji. 0:01:59.432,0:02:01.982 Poświęcą jedną osobę, żeby uratować pięć. 0:02:01.982,0:02:05.044 Ale w tym wypadku[br]tylko 10% badanych uważa, 0:02:05.044,0:02:08.453 że można zepchnąć człowieka z mostu. 0:02:08.453,0:02:11.914 Instynkt mówi nam,[br]że celowe spowodowanie śmierci 0:02:11.914,0:02:16.303 to co innego, niż przyzwolenie[br]na śmierć jako skutek uboczny. 0:02:16.303,0:02:20.953 Choć trudno to wyjaśnić,[br]wydaje nam się to złe. 0:02:20.953,0:02:23.473 To dzięki skrzyżowaniu etyki z psychologią 0:02:23.473,0:02:26.604 dylemat wagonika jest tak ciekawy. 0:02:26.604,0:02:30.984 Różne wersje dylematu pokazują,[br]że postrzeganie dobra i zła 0:02:30.984,0:02:36.345 zależy nie tylko od logicznego[br]bilansu zysków i strat. 0:02:36.345,0:02:38.835 Mężczyźni częściej[br]niż kobiety odpowiadali, 0:02:38.835,0:02:42.504 że zepchnęliby człowieka z mostu. 0:02:42.504,0:02:46.994 Podobnie jak uczestnicy,[br]którym przed badaniem pokazano komedię. 0:02:46.994,0:02:49.165 W badaniu z wirtualną rzeczywistością 0:02:49.165,0:02:52.944 uczestnicy woleli poświęcić[br]mężczyznę niż kobietę. 0:02:52.944,0:02:55.214 Naukowcy badali aktywność mózgu 0:02:55.214,0:02:59.535 uczestników wersji klasycznej [br]i wersji z mostem. 0:02:59.535,0:03:04.054 Obie wersje aktywują obszary mózgu[br]odpowiadające za świadome decyzje 0:03:04.054,0:03:06.514 i reakcje emocjonalne. 0:03:06.514,0:03:10.975 Ale w wersji z mostem[br]reakcja emocjonalna była silniejsza. 0:03:10.975,0:03:13.194 Większa była też aktywność obszaru mózgu 0:03:13.194,0:03:16.884 odpowiadająca za rozważanie[br]wewnętrznych konfliktów. 0:03:16.884,0:03:18.145 Skąd ta różnica? 0:03:18.145,0:03:22.912 Może zrzucanie kogoś z mostu[br]wydaje się bardziej osobiste, 0:03:22.912,0:03:26.925 aktywując emocjonalną niechęć[br]do zabicia drugiej osoby. 0:03:26.925,0:03:31.424 Jednocześnie czujemy się rozdarci,[br]bo wiemy, że to wybór logiczny. 0:03:31.424,0:03:36.405 Część filozofów i psychologów[br]krytykuje dylemat wagonika. 0:03:36.405,0:03:41.266 Ich zdaniem nie dowodzi on niczego,[br]bo jego założenia są tak nierealne, 0:03:41.266,0:03:45.425 że uczestnicy nie traktują ich poważnie. 0:03:45.425,0:03:48.556 Rozwój technologii sprawia jednak, [br]że ten rodzaj analizy etycznej 0:03:48.556,0:03:50.698 jest ważniejszy niż kiedykolwiek. 0:03:50.698,0:03:54.036 Na przykład samochody bez kierowcy[br]mogą być zmuszone dokonać wyborów 0:03:54.036,0:03:58.007 takich jak spowodowanie [br]mniejszego wypadku. 0:03:58.007,0:04:01.626 Rządy pracują nad samodzielnymi[br]dronami wojskowymi, 0:04:01.626,0:04:05.976 które być może zdecydują, [br]czy poświęcić życie cywilów, 0:04:05.976,0:04:09.276 żeby zaatakować strategiczny cel. 0:04:09.276,0:04:11.197 Jeśli chcemy, żeby wybierały etycznie, 0:04:11.197,0:04:15.397 musimy zawczasu zdecydować,[br]na ile cenimy ludzkie życie 0:04:15.397,0:04:17.667 i czy wybieramy mniejsze zło. 0:04:17.667,0:04:19.797 Dlatego przy tworzeniu[br]systemów decyzyjnych 0:04:19.797,0:04:22.207 naukowcy współpracują z filozofami, 0:04:22.207,0:04:27.628 aby rozwiązać problem etyki[br]w działaniu maszyn. 0:04:27.628,0:04:30.957 To pokazuje, że nawet[br]z hipotetycznymi dylematami 0:04:30.957,0:04:35.058 możemy kiedyś zetknąć się[br]w rzeczywistości.