1 00:00:06,949 --> 00:00:11,521 Imaginează-ţi că priveşti un tramvai rulând cu viteză pe şine 2 00:00:11,521 --> 00:00:15,961 înspre cinci muncitori care nu au cale de scăpare. 3 00:00:15,961 --> 00:00:18,179 Se întâmplă să stai lângă un macaz 4 00:00:18,179 --> 00:00:21,680 care va devia tramvaiul către o linie secundară. 5 00:00:21,680 --> 00:00:22,980 Aici apare problema. 6 00:00:22,980 --> 00:00:28,069 Şi pe această şină se află un muncitor, dar unul singur. 7 00:00:28,069 --> 00:00:29,390 Ce faci? 8 00:00:29,390 --> 00:00:32,685 Sacrifici o persoană pentru a salva cinci? 9 00:00:32,685 --> 00:00:35,414 Aceasta este dilema tramvaiului, 10 00:00:35,414 --> 00:00:42,103 o versiune a dilemei etice concepută în 1967 de filozoafa Philippa Foot. 11 00:00:42,103 --> 00:00:45,371 Este cunoscută pentru că ne forţează să reflectăm asupra alegerilor 12 00:00:45,371 --> 00:00:48,060 dintre două variante negative. 13 00:00:48,060 --> 00:00:50,200 Alegem acţiunea cu un maximum de beneficiu 14 00:00:50,200 --> 00:00:55,400 sau respectăm legea morală care interzice cauzarea morţii unui individ? 15 00:00:55,400 --> 00:01:00,837 Într-un sondaj, 90% dintre participanţi au fost de acord cu schimbarea macazului, 16 00:01:00,837 --> 00:01:04,250 lăsând să moară un muncitor pentru a salva cinci, 17 00:01:04,250 --> 00:01:08,600 iar alte studii, inclusiv o simulare virtuală a realităţii dilemei, 18 00:01:08,600 --> 00:01:11,040 au dus la aceleaşi rezultate. 19 00:01:11,040 --> 00:01:16,061 Aceste judecăţi corespund principiului filosofic al utilitarianismului 20 00:01:16,061 --> 00:01:18,521 care presupune că o decizie este morală 21 00:01:18,541 --> 00:01:23,131 dacă maximizează beneficiul celui mai mare număr de persoane. 22 00:01:23,131 --> 00:01:25,481 Cinci vieţi cântăresc mai mult decât una singură, 23 00:01:25,481 --> 00:01:30,562 chiar dacă obţinerea acelui rezultat implică moartea altcuiva. 24 00:01:30,562 --> 00:01:33,471 Dar nu toţi oamenii împărtăşesc această viziune utilitaristă, 25 00:01:33,471 --> 00:01:37,062 după cum vom vedea dacă modificăm puţin dilema tramvaiului. 26 00:01:37,062 --> 00:01:40,303 De data aceasta te afli pe un pasaj deasupra căii ferate 27 00:01:40,303 --> 00:01:43,192 în timp ce trenul se apropie. 28 00:01:43,192 --> 00:01:44,873 Nu mai există linia secundară, 29 00:01:44,873 --> 00:01:48,794 ci un bărbat corpolent lângă tine. 30 00:01:48,794 --> 00:01:52,492 Dacă îl faci vânt de pe pasaj, corpul lui ar opri tramvaiul, 31 00:01:52,492 --> 00:01:54,243 salvând cei cinci muncitori, 32 00:01:54,243 --> 00:01:56,033 dar acesta va muri. 33 00:01:56,033 --> 00:01:59,432 Pentru utilitariști, decizia e aceeaşi, 34 00:01:59,432 --> 00:02:01,982 pierderea unei vieţi pentru a salva alte cinci. 35 00:02:01,982 --> 00:02:04,584 Dar în acest caz, doar 10% dintre participanţi 36 00:02:04,584 --> 00:02:08,453 ar împinge acel om pe şine. 37 00:02:08,453 --> 00:02:11,914 Instinctul ne spune că a ucide pe cineva în mod intenţionat 38 00:02:11,914 --> 00:02:16,303 e diferit de a lăsa pe cineva să moară ca victimă colaterală. 39 00:02:16,303 --> 00:02:20,953 Ni se pare pur şi simplu greşit din motive greu de explicat. 40 00:02:20,953 --> 00:02:23,473 Intersectarea dintre etică şi psihologie 41 00:02:23,473 --> 00:02:26,604 reprezintă punctul de interes al dilemei tramvaiului. 42 00:02:26,604 --> 00:02:30,984 Această dilemă, în multiple variante, arată că ceea ce credem că e bine sau rău 43 00:02:30,984 --> 00:02:36,345 depinde de factori diferiţi de logica argumentelor pro şi contra. 44 00:02:36,345 --> 00:02:38,835 De exemplu, bărbaţii acceptă mai uşor decât femeile 45 00:02:38,835 --> 00:02:42,504 să împingă bărbatul de pe pasaj. 46 00:02:42,504 --> 00:02:46,994 La fel şi cei care urmăresc un videoclip amuzant înainte de experiment. 47 00:02:46,994 --> 00:02:49,165 Iar un studiu de realitate virtuală 48 00:02:49,165 --> 00:02:52,944 a arătat că oamenii ar sacrifica mai degrabă bărbaţi decât femei. 49 00:02:52,944 --> 00:02:55,214 Cercetătorii au studiat activitatea cerebrală 50 00:02:55,214 --> 00:02:59,535 a persoanelor implicate în cele două versiuni ale dilemei. 51 00:02:59,535 --> 00:03:04,054 Ambele scenarii activează anumite zone cerebrale implicate în luarea deciziilor 52 00:03:04,054 --> 00:03:06,514 şi răspunsuri emoţionale. 53 00:03:06,514 --> 00:03:10,975 În varianta care implică pasajul, răspunsul emoţional e mai puternic. 54 00:03:10,975 --> 00:03:13,194 La fel se întâmplă şi cu zona cerebrală 55 00:03:13,194 --> 00:03:16,884 asociată cu procesarea conflictului intern. 56 00:03:16,884 --> 00:03:18,145 De ce această diferenţă? 57 00:03:18,145 --> 00:03:22,912 O explicaţie este că a provoca moartea acelei persoane se simte mai personal, 58 00:03:22,912 --> 00:03:26,925 activând o aversiune emoțională față de cauzarea morţii cuiva, 59 00:03:26,925 --> 00:03:31,424 dar ne tulbură deoarece știm că e, totuși, alegerea logică. 60 00:03:31,424 --> 00:03:36,405 „Psihologia tramvaiului" a fost criticată de către filosofi şi psihologi. 61 00:03:36,405 --> 00:03:41,266 Aceştia susţin că nu demonstrează nimic deoarece premizele sunt atât de nerealiste 62 00:03:41,266 --> 00:03:45,425 încât participanţii la studiu nu iau răspunsul în serios. 63 00:03:45,425 --> 00:03:48,556 Dar noua tehnologie face ca acest tip de analiză etică 64 00:03:48,556 --> 00:03:50,698 să devină mai important ca niciodată. 65 00:03:50,698 --> 00:03:54,036 De exemplu, maşinile automate se vor confrunta cu alegeri 66 00:03:54,036 --> 00:03:58,007 precum cauzarea un accident mic pentru a preveni unul mai mare. 67 00:03:58,007 --> 00:04:01,626 Între timp, guvernele fac cercetări asupra dronelelor militare automate 68 00:04:01,626 --> 00:04:05,976 care ar putea decide dacă vor risca viețile civililor 69 00:04:05,976 --> 00:04:09,276 pentru a putea atinge ținte strategice. 70 00:04:09,276 --> 00:04:11,317 Dacă vrem ca aceste acţiuni să fie etice, 71 00:04:11,317 --> 00:04:15,397 trebuie să decidem dinainte cum evaluăm viaţa umană 72 00:04:15,397 --> 00:04:17,667 şi să considerăm beneficiul mai mare. 73 00:04:17,667 --> 00:04:20,107 Deci cercetătorii care studiază sistemele automate 74 00:04:20,107 --> 00:04:22,207 colaborează cu filosofii 75 00:04:22,207 --> 00:04:27,628 pentru abordarea problemei complexe de programare a eticii la maşinării, 76 00:04:27,628 --> 00:04:30,957 arătând că până şi dilemele ipotetice 77 00:04:30,957 --> 00:04:35,058 pot lua un curs conflictual în raport cu realitatea.