1 00:00:06,949 --> 00:00:11,521 Представьте, что вы видите, как тяжёлая неуправляемая вагонетка 2 00:00:11,521 --> 00:00:15,961 несётся прямо на пятерых рабочих, которые не могут от неё увернуться. 3 00:00:15,961 --> 00:00:18,179 Вы можете переключить стрелку 4 00:00:18,179 --> 00:00:21,680 и пустить вагонетку по другому пути. 5 00:00:21,680 --> 00:00:22,980 Но вот ведь незадача: 6 00:00:22,980 --> 00:00:28,069 на втором пути также находится рабочий, но только один. 7 00:00:28,069 --> 00:00:29,390 Как бы вы поступили? 8 00:00:29,390 --> 00:00:32,685 Пожертвовали бы одним человеком, чтобы спасти пятерых? 9 00:00:32,685 --> 00:00:35,414 Это так называемая «Проблема вагонетки» — 10 00:00:35,414 --> 00:00:42,103 одна из мыслительных задач на этику, сформулированная Филиппой Фут в 1967 году 11 00:00:42,103 --> 00:00:45,281 и ставшая популярной, поскольку заставляет задуматься над выбором, 12 00:00:45,281 --> 00:00:48,060 где нет этически правильного ответа. 13 00:00:48,060 --> 00:00:50,390 Поступим ли мы наиболее целесообразно 14 00:00:50,390 --> 00:00:55,400 или будем придерживаться моральных норм, которые запрещают убивать? 15 00:00:55,400 --> 00:01:00,837 Согласно одному исследованию, около 90% респондентов посчитали возможным 16 00:01:00,837 --> 00:01:04,257 переключить стрелку, чтобы погиб один человек, а не пятеро. 17 00:01:04,257 --> 00:01:06,410 Все последующие исследования данной дилеммы, 18 00:01:06,410 --> 00:01:08,600 включая моделирование виртуальной реальности, 19 00:01:08,600 --> 00:01:11,040 пришли к аналогичным выводам. 20 00:01:11,040 --> 00:01:16,061 Данные суждения полностью укладываются в философскую логику утилитаризма, 21 00:01:16,061 --> 00:01:19,121 согласно которому более верным решением с точки зрения морали 22 00:01:19,121 --> 00:01:23,351 признаётся то, что принесёт пользу большему числу людей. 23 00:01:23,351 --> 00:01:25,481 Пять жизней важнее, чем одна, 24 00:01:25,481 --> 00:01:30,562 даже если ради них кто-то неминуемо погибнет. 25 00:01:30,562 --> 00:01:33,471 Однако люди не всегда придерживаются утилитаризма. 26 00:01:33,471 --> 00:01:37,062 В этом можно убедиться, если слегка изменить нашу задачу. 27 00:01:37,062 --> 00:01:40,303 Теперь представьте: вы стои́те на мосту над железнодорожными путями, 28 00:01:40,303 --> 00:01:42,712 по которым несётся отцепившаяся вагонетка. 29 00:01:42,712 --> 00:01:44,873 Её нельзя повернуть на другой путь, 30 00:01:44,873 --> 00:01:48,794 но рядом на мосту стои́т очень толстый человек. 31 00:01:48,794 --> 00:01:52,492 Если столкнуть его с моста, то своим телом он остановит вагонетку, 32 00:01:52,492 --> 00:01:54,243 жизни пятерых рабочих будут спасены, 33 00:01:54,243 --> 00:01:56,033 но он погибнет. 34 00:01:56,033 --> 00:01:59,432 Для утилитаристов ответ прежний: 35 00:01:59,432 --> 00:02:01,982 пожертвовать одной жизнью, но спасти пять. 36 00:02:01,982 --> 00:02:04,584 Однако в данном случае только 10% опрошенных 37 00:02:04,584 --> 00:02:08,453 посчитали приемлемым бросить человека под колёса поезда. 38 00:02:08,453 --> 00:02:11,914 Инстинктивно мы понимаем, что намеренное лишение кого-то жизни 39 00:02:11,914 --> 00:02:16,303 неравнозначно смерти в результате «побочного эффекта». 40 00:02:16,303 --> 00:02:20,803 Этот поступок кажется аморальным, но трудно объяснить, почему. 41 00:02:20,803 --> 00:02:23,743 «Проблема вагонетки» находится на стыке этики и психологии, 42 00:02:23,743 --> 00:02:26,604 и этим она особенно интересна. 43 00:02:26,604 --> 00:02:30,984 Дилемма и её разные версии демонстрируют, что наши представления о добре и зле 44 00:02:30,984 --> 00:02:36,345 зависят от различных факторов, а не логического анализа всех за и против. 45 00:02:36,345 --> 00:02:38,835 Например, мужчины скорее, чем женщины, 46 00:02:38,835 --> 00:02:42,504 согласятся столкнуть толстяка с моста. 47 00:02:42,504 --> 00:02:45,064 Согласятся и те, кто до ответа на вопрос исследования 48 00:02:45,064 --> 00:02:46,994 посмотрел какой-нибудь смешной ролик. 49 00:02:46,994 --> 00:02:49,935 В результате моделирования виртуальной реальности выяснилось, 50 00:02:49,935 --> 00:02:53,434 что испытуемые легче соглашались пожертвовать мужчинами, чем женщинами. 51 00:02:53,434 --> 00:02:56,324 Учёные также проследили за деятельностью мозга испытуемых, 52 00:02:56,324 --> 00:02:59,535 отвечавших на вопросы классической версии и версии с мостом. 53 00:02:59,535 --> 00:03:02,154 В результате обоих сценариев активизируются зоны мозга, 54 00:03:02,154 --> 00:03:04,314 отвечающие за осознанное принятие решений 55 00:03:04,314 --> 00:03:06,514 и эмоциональные реакции. 56 00:03:06,514 --> 00:03:10,975 Но в версии с мостом эмоциональная реакция была намного ярче. 57 00:03:10,975 --> 00:03:13,194 Также активнее вела себя зона мозга, 58 00:03:13,194 --> 00:03:16,884 отвечающая за решение внутренних конфликтов. 59 00:03:16,884 --> 00:03:18,145 Так в чём же разница? 60 00:03:18,145 --> 00:03:20,672 Согласно одному объяснению, толкая кого-то на смерть, 61 00:03:20,672 --> 00:03:22,912 человек более лично воспринимает этот поступок, 62 00:03:22,912 --> 00:03:26,925 активируя эмоциональное отвращение к совершению убийства. 63 00:03:26,925 --> 00:03:31,424 Однако возникает внутренний конфликт, поскольку логика — на стороне убийства. 64 00:03:31,424 --> 00:03:36,405 Философы и психологи не раз критиковали исследования «проблемы вагонетки». 65 00:03:36,405 --> 00:03:38,266 Они утверждают, 66 00:03:38,266 --> 00:03:41,716 что эксперимент ничего не доказывает, поскольку он далёк от реальности 67 00:03:41,716 --> 00:03:45,215 и испытуемые не воспринимают его всерьёз. 68 00:03:45,215 --> 00:03:48,556 Но в результате научного прогресса подобного рода этические дилеммы 69 00:03:48,556 --> 00:03:50,698 становятся всё более насущными. 70 00:03:50,698 --> 00:03:54,036 Например, возможно, скоро выбор будут делать беспилотные автомобили, 71 00:03:54,036 --> 00:03:56,536 запрограммированные на совершение небольшой аварии, 72 00:03:56,556 --> 00:03:58,127 чтобы не попасть в крупное ДТП. 73 00:03:58,127 --> 00:04:01,626 А военные всерьёз подумывают над разработкой автономных боевых дронов, 74 00:04:01,626 --> 00:04:05,976 которым предстоит решать, рисковать ли жизнью гражданского населения 75 00:04:05,976 --> 00:04:09,276 ради поражения важной стратегической цели. 76 00:04:09,276 --> 00:04:12,137 Если мы хотим оправдать их действия с точки зрения этики, 77 00:04:12,137 --> 00:04:15,397 нам придётся решить заранее, как оценивать жизнь человека 78 00:04:15,397 --> 00:04:17,667 и как судить о том, что более ценно. 79 00:04:17,667 --> 00:04:22,177 Поэтому исследователи автономных систем тесно сотрудничают с философами 80 00:04:22,207 --> 00:04:27,608 в решении сложных проблем программирования этики машин. 81 00:04:27,628 --> 00:04:30,957 Это лишний раз доказывает, что даже умозрительные дилеммы 82 00:04:30,957 --> 00:04:35,058 могут входить в коллизии с реальной жизнью.