1 00:00:06,949 --> 00:00:11,521 Forestil dig at du ser en løbsk vogn, der kommer susende ned ad sporene 2 00:00:11,521 --> 00:00:15,961 imod fem arbejdere, som ikke kan flygte. 3 00:00:15,961 --> 00:00:18,179 Du står tilfældgivis ved siden af en kontakt, 4 00:00:18,179 --> 00:00:21,680 der vil aflede vognen hen på et andet spor. 5 00:00:21,680 --> 00:00:22,980 Her er problemet. 6 00:00:22,980 --> 00:00:28,069 Der står også en arbejder på sporet, men kun én. 7 00:00:28,069 --> 00:00:29,390 Hvad gør du? 8 00:00:29,390 --> 00:00:32,685 Ofrer du den ene person for at redde fem? 9 00:00:32,685 --> 00:00:35,414 Det er trolley-problemet. 10 00:00:35,414 --> 00:00:42,103 en variant af et etisk dilemma, filosoffen Philippa Foot fandt på i 1967. 11 00:00:42,103 --> 00:00:45,371 Det er populært fordi man skal tænke over, hvordan man vælger, 12 00:00:45,371 --> 00:00:48,060 når der ikke er nogle gode valg. 13 00:00:48,060 --> 00:00:50,200 Vælger vi handlingen med det bedste udfald 14 00:00:50,200 --> 00:00:55,400 eller holder vi os til et moralsk kodeks, der forbyder at forårsage en andens død? 15 00:00:55,400 --> 00:01:00,837 I en undersøgelse svarer omkring 90%, at det er okay at trykke på kontakten 16 00:01:00,837 --> 00:01:04,250 og lade én arbejder dø for at redde fem, 17 00:01:04,250 --> 00:01:08,600 og andre studier, inklusiv en virtuel virkelighedssimulation af dilemmaet, 18 00:01:08,600 --> 00:01:11,040 har fundet lignende resultater. 19 00:01:11,040 --> 00:01:16,061 Disse vurderinger stemmer overens med det filosofiske princip, utilitarisme, 20 00:01:16,061 --> 00:01:18,521 som hævder, at den moralsk rigtige beslutning 21 00:01:18,521 --> 00:01:23,351 er den som maksimerer glæden for flest mulige mennesker. 22 00:01:23,351 --> 00:01:25,481 De fem liv opvejer et enkelt, 23 00:01:25,481 --> 00:01:30,562 selvom at udfaldet kræver, at man lader en anden dø. 24 00:01:30,562 --> 00:01:33,471 Men folk er ikke altid enige i det utilitaristiske sysnpunkt, 25 00:01:33,471 --> 00:01:37,062 som vi kan se, hvis vi ændrer problemstilligen en smule. 26 00:01:37,062 --> 00:01:40,303 Denne gang står du på en bro over sporet, 27 00:01:40,303 --> 00:01:43,192 mens vogen nærmer sig. 28 00:01:43,192 --> 00:01:44,873 Nu er der ikke noget andet spor, 29 00:01:44,873 --> 00:01:48,794 men det er en meget stor mand på broen sammen med dig. 30 00:01:48,794 --> 00:01:52,492 Hvis du skubber ham ud over, så vil hans krop stoppe vognen, 31 00:01:52,492 --> 00:01:54,243 og redde de fem arbejders liv, 32 00:01:54,243 --> 00:01:56,033 men han vil dø. 33 00:01:56,033 --> 00:01:59,432 For utilitarister er beslutningen akkurat den samme, 34 00:01:59,432 --> 00:02:01,982 mist et liv for at redde fem. 35 00:02:01,982 --> 00:02:04,584 Men i dette tilfælde, vil kun 10% af folk sige, 36 00:02:04,584 --> 00:02:08,453 at det er okay, at skubbe manden ned på sporene. 37 00:02:08,453 --> 00:02:11,914 Vores instinkt fortæller os, at forårsage nogens død med overlæg, 38 00:02:11,914 --> 00:02:16,303 er forskellig fra at lade nogen dø af en indirekte handling. 39 00:02:16,303 --> 00:02:20,953 Det føles bare forkert af årsager, der er svære at forklare. 40 00:02:20,953 --> 00:02:23,473 Krydset mellem etik og psykologi 41 00:02:23,473 --> 00:02:26,604 er hvad der er så interessant ved trolley-problemet. 42 00:02:26,604 --> 00:02:30,984 Dilemmaet og dets varianter afslører, at hvad vi mener er rigtigt eller forket 43 00:02:30,984 --> 00:02:36,345 afhænger af mere end en logisk fordeling af fordele og ulemper. 44 00:02:36,345 --> 00:02:38,835 For eksempel er mænd mere tilbøjelige end kvinder til 45 00:02:38,835 --> 00:02:42,504 at sige, at det er okay, at skubbe manden over broen. 46 00:02:42,504 --> 00:02:46,994 Der er mennesker også, som ser et sjovt klip inden de laver tankeeksperimentet. 47 00:02:46,994 --> 00:02:49,165 Og i en virtuel virkelighedsundersøgelse 48 00:02:49,165 --> 00:02:52,944 var folk mere villige til, at ofre mænd end kvinder. 49 00:02:52,944 --> 00:02:55,214 Forskere har studeret hjerneaktiviteten 50 00:02:55,214 --> 00:02:59,535 på folk, som tænker over den klassiske og bro-varianten. 51 00:02:59,535 --> 00:03:04,054 Begge tilfæde aktiverer områder i hjernen involveret i bevidst beslutningstagen 52 00:03:04,054 --> 00:03:06,514 og følelsesmæssig respons. 53 00:03:06,514 --> 00:03:10,975 Men i bro-varianten er den følelsesmæssige respons meget stærkere. 54 00:03:10,975 --> 00:03:13,194 Ligeledes er aktivitet i et område af hjernen 55 00:03:13,194 --> 00:03:16,884 forbundet med at håndtere indre konflikter. 56 00:03:16,884 --> 00:03:18,145 Hvorfor er der forskel? 57 00:03:18,145 --> 00:03:22,912 Én forklaring siger, at skubbe nogen til deres død føles mere personligt, 58 00:03:22,912 --> 00:03:26,925 og aktiverer en følelsesmæssig modvilje mod at dræbe et menneske, 59 00:03:26,925 --> 00:03:31,424 men vi føler os i konflikt fordi vi ved, at det stadig er det logiske valg. 60 00:03:31,424 --> 00:03:36,405 Trolleyologi er blevet kritiseret af nogle filosoffer og psykologer. 61 00:03:36,405 --> 00:03:41,266 De mener, at det ikke viser noget fordi dets præmis er så urealistisk 62 00:03:41,266 --> 00:03:45,425 at deltagere ikke tager det seriøst. 63 00:03:45,425 --> 00:03:48,556 Men ny teknologi gør denne form for etisk analyse 64 00:03:48,556 --> 00:03:50,698 vigtigere end nogensinde før. 65 00:03:50,698 --> 00:03:54,036 For eksempel bliver førerløse biler måske nødt til at lave valg, 66 00:03:54,036 --> 00:03:58,007 såsom at forårsage en mindre ulykke for at forhindre en større en. 67 00:03:58,007 --> 00:04:01,626 Imens forsker regeringer i autonome militærdroner, 68 00:04:01,626 --> 00:04:05,976 som kan blive nødt til at beslutte om de vil risikere civile ofre 69 00:04:05,976 --> 00:04:09,276 eller angribe et værdifuldt mål. 70 00:04:09,276 --> 00:04:11,197 Hvis disse handlinger skal være etiske, 71 00:04:11,197 --> 00:04:15,397 så er vi nødt til at beslutte i forvejen, hvor meget et menneskeliv er værd 72 00:04:15,397 --> 00:04:17,667 og bedømme almenvellet. 73 00:04:17,667 --> 00:04:20,107 Så forskere, som har studeret autonome systemer, 74 00:04:20,107 --> 00:04:22,207 samarbejder med filosoffer 75 00:04:22,207 --> 00:04:27,628 om at imødegå det komplekse problem med at programmere etik i maskiner, 76 00:04:27,628 --> 00:04:30,957 hvilket viser, at selv hypotetiske dilemmaer 77 00:04:30,957 --> 00:04:35,058 kan ende med at være på kollisionskurs med den virkelige verden.