1 00:00:06,729 --> 00:00:11,521 Zamislite da posmatrate voz koji nekontrolisano juri niz šine 2 00:00:11,521 --> 00:00:15,681 pravo prema petorici radnika koji ne mogu da pobegnu. 3 00:00:15,681 --> 00:00:17,839 Slučajno se nalazite pored poluge 4 00:00:17,839 --> 00:00:21,220 koja će preusmeriti voz na drugu prugu. 5 00:00:21,220 --> 00:00:22,600 Evo u čemu je problem. 6 00:00:22,600 --> 00:00:27,189 Na toj pruzi je takođe radnik, ali samo jedan. 7 00:00:27,819 --> 00:00:29,020 Šta ćete uraditi? 8 00:00:29,020 --> 00:00:32,685 Da li ćete žrtvovati jednu osobu da biste spasili pet? 9 00:00:32,685 --> 00:00:35,234 To je problem voza, 10 00:00:35,234 --> 00:00:41,853 verzija etičke dileme koju je osmislio filozof Filipa Fut 1967. godine. 11 00:00:41,853 --> 00:00:45,471 Popularan je jer nas primorava da razmišljamo kako odabrati 12 00:00:45,471 --> 00:00:47,890 kada nema dobrih izbora. 13 00:00:47,890 --> 00:00:50,200 Da li da odaberemo akciju da najboljim ishodom 14 00:00:50,200 --> 00:00:55,200 ili da se pridržavamo moralnog kodeksa koji zabranjuje da uzrokujemo nečiju smrt? 15 00:00:55,200 --> 00:01:00,637 U jednoj anketi, oko 90% ispitanika reklo je da je u redu povući polugu, 16 00:01:00,637 --> 00:01:04,060 dopuštajući da jedan radnik umre da bi se spasilo njih pet, 17 00:01:04,060 --> 00:01:08,420 a i druga istraživanja, uključujući simulaciju dileme u virtuelnoj stvarnosti, 18 00:01:08,420 --> 00:01:10,770 došla su do sličnih rezultata. 19 00:01:10,770 --> 00:01:15,751 Ovakva rasuđivanja su u skladu sa filozofskim principom utilitarizma 20 00:01:15,751 --> 00:01:18,521 koji tvrdi da je moralno ispravna odluka 21 00:01:18,521 --> 00:01:23,171 ona koja maksimalno uvećava dobrobit najvećeg broja ljudi. 22 00:01:23,171 --> 00:01:25,481 Pet života nosi prevagu nad jednim, 23 00:01:25,481 --> 00:01:30,362 čak i ako postizanje tog ishoda iziskuje osuditi nekoga na smrt. 24 00:01:30,362 --> 00:01:33,341 Ipak, ljudi ne zauzimaju uvek utilitarističko gledište, 25 00:01:33,341 --> 00:01:36,932 što možemo videti ako malo izmenimo problem voza. 26 00:01:36,932 --> 00:01:40,163 Ovoga puta stojite na mostu iznad šina 27 00:01:40,163 --> 00:01:43,052 dok se pomahnitali voz približava. 28 00:01:43,052 --> 00:01:44,563 Sada nema druge pruge, 29 00:01:44,563 --> 00:01:48,644 ali se na mostu pored vas nalazi veoma krupan čovek. 30 00:01:48,644 --> 00:01:52,242 Ako ga gurnete preko mosta, njegovo telo će zaustaviti voz, 31 00:01:52,242 --> 00:01:54,053 što će spasiti petoricu radnika, 32 00:01:54,053 --> 00:01:55,943 ali će on umreti. 33 00:01:55,943 --> 00:01:59,212 Za utilitariste, odluka je sasvim ista, 34 00:01:59,212 --> 00:02:01,852 lišiti se jednog života da bi se spasilo pet. 35 00:02:01,852 --> 00:02:04,584 Međutim, u ovom slučaju, samo oko 10% ljudi 36 00:02:04,584 --> 00:02:08,313 kaže da je u redu baciti čoveka na prugu. 37 00:02:08,313 --> 00:02:11,914 Naši instinkti nam govore da je namerno izazvati nečiju smrt 38 00:02:11,914 --> 00:02:16,003 drugačije nego dopustiti da umre kao kolateralna šteta. 39 00:02:16,003 --> 00:02:20,553 To jednostavno deluje pogrešno iz razloga koje je teško objasniti. 40 00:02:20,553 --> 00:02:23,473 Ovo ukrštanje etike i psihologije 41 00:02:23,473 --> 00:02:26,364 predstavlja ono što je zanimljivo u vezi sa problemom voza. 42 00:02:26,364 --> 00:02:28,574 Ova dilema u mnogim svojim varijacijama 43 00:02:28,574 --> 00:02:32,505 otkriva da šta smatramo ispravnim ili pogrešnim zavisi od više faktora, 44 00:02:32,505 --> 00:02:36,175 pored logičnog vaganja prednosti i mana. 45 00:02:36,175 --> 00:02:38,905 Na primer, veća je verovatnoća kod muškaraca nego kod žena 46 00:02:38,905 --> 00:02:42,294 da će reći da je u redu gurnuti čoveka preko mosta. 47 00:02:42,294 --> 00:02:46,764 Isto važi za ljude koji pogledaju komični snimak pre misaonog eksperimenta. 48 00:02:46,764 --> 00:02:48,915 U jednoj studiji virtuelne stvarnosti, 49 00:02:48,915 --> 00:02:52,944 ljudi su bili spremniji da žrtvuju muškarce nego žene. 50 00:02:52,944 --> 00:02:55,214 Istraživači su proučavali aktivnost mozga 51 00:02:55,214 --> 00:02:59,315 ljudi koji promišljaju klasičnu verziju i onu sa mostom. 52 00:02:59,315 --> 00:03:03,964 Oba scenarija aktiviraju oblasti mozga uključene u svesno donošenje odluka 53 00:03:03,964 --> 00:03:06,244 i emocionalne odgovore. 54 00:03:06,244 --> 00:03:10,755 Međutim, u verziji sa mostom, emocionalna reakcija je mnogo snažnija. 55 00:03:10,755 --> 00:03:13,194 Isto se dešava sa aktivnošću u oblasti mozga 56 00:03:13,194 --> 00:03:16,524 koja je povezana sa obradom unutrašnjeg konflikta. 57 00:03:16,524 --> 00:03:17,825 Otkud ta razlika? 58 00:03:17,825 --> 00:03:22,492 Jedno objašnjenje je da pogurati nekog u smrt deluje u većoj meri lično, 59 00:03:22,492 --> 00:03:26,505 što aktivira emocionalnu averziju prema ubijanju druge osobe, 60 00:03:26,505 --> 00:03:30,974 ali osećamo konflikt jer znamo da je to ipak logični izbor. 61 00:03:31,424 --> 00:03:36,555 Neki filozofi i psiholozi su kritikovali ideju sa vozom. 62 00:03:36,555 --> 00:03:41,266 Oni tvrde da ne razotkriva ništa jer je pretpostavka toliko nerealna 63 00:03:41,266 --> 00:03:45,135 da je učesnici istraživanja ne uzimaju za ozbiljno. 64 00:03:45,135 --> 00:03:46,556 Ipak, usled nove tehnologije, 65 00:03:46,556 --> 00:03:50,338 vršenje ovakvih etičkih analiza postaje važnije nego ikada. 66 00:03:50,338 --> 00:03:54,036 Na primer, automobili bez vozača će možda morati da se bave odlukama 67 00:03:54,036 --> 00:03:57,587 kao što je uzrokovanje manje nesreće da bi se sprečila veća. 68 00:03:57,587 --> 00:04:01,626 U međuvremenu, vlasti ispituju autonomne vojne bespilotne letilice 69 00:04:01,626 --> 00:04:05,976 koje bi na kraju mogle donositi odluke da li će rizikovati civilne žrtve 70 00:04:05,976 --> 00:04:09,046 da bi napale metu od visokog značaja. 71 00:04:09,046 --> 00:04:11,427 Ako želimo da te akcije budu etički ispravne, 72 00:04:11,427 --> 00:04:15,397 moramo unapred da odlučimo kako vrednovati ljudski život 73 00:04:15,397 --> 00:04:17,347 i rasuđivati o opštem dobru. 74 00:04:17,347 --> 00:04:20,107 Stoga istraživači koji izučavaju autonomne sisteme 75 00:04:20,107 --> 00:04:22,207 sarađuju sa filozofima 76 00:04:22,207 --> 00:04:27,618 da bi se bavili složenim problemom programiranja etike u mašine, 77 00:04:27,618 --> 00:04:31,107 što ukazuje da se čak i hipotetičke dileme 78 00:04:31,107 --> 00:04:35,058 mogu na kraju naći u sukobu sa stvarnim svetom.