WEBVTT 00:00:06.949 --> 00:00:11.521 דמיינו שאתם צופים בקרונית שדוהרת ללא שליטה במורד המסילה, 00:00:11.521 --> 00:00:15.961 הישר לעבר חמישה עובדים שלא יכולים לברוח. 00:00:15.961 --> 00:00:18.179 אתם במקרה עומדים ליד מסוט 00:00:18.179 --> 00:00:21.680 שיכול להסיט את הקרונית למסילה שניה. 00:00:21.680 --> 00:00:22.980 הנה הבעיה. 00:00:22.980 --> 00:00:28.069 על המסילה הזו גם כן יש עובד, אבל רק אחד. NOTE Paragraph 00:00:28.069 --> 00:00:29.390 מה אתם עושים? 00:00:29.390 --> 00:00:32.685 האם אתם מקריבים אדם אחד כדי להציל חמישה? NOTE Paragraph 00:00:32.685 --> 00:00:35.414 זוהי בעיית הקרונית, 00:00:35.414 --> 00:00:42.103 גרסה של דילמה אתית שהפילוסופית פיליפה פוט העלתה ב 1967. 00:00:42.103 --> 00:00:45.371 היא פופולרית בגלל שהיא מכריחה אותנו לחשוב איך לבחור 00:00:45.371 --> 00:00:48.060 בהיעדר אופציות טובות. 00:00:48.060 --> 00:00:50.200 האם אנחנו בוחרים בפעולה עם התוצאה הטובה ביותר 00:00:50.200 --> 00:00:55.400 או דובקים בקוד המורלי שאוסר גרימת מוות של אדם? NOTE Paragraph 00:00:55.400 --> 00:01:00.837 בסקר אחד, כ-90% מהמשיבים אמרו שזה בסדר להסיט את המסוט, 00:01:00.837 --> 00:01:04.250 לתת לעובד אחד למות כדי להציל חמישה, 00:01:04.250 --> 00:01:08.600 ומחקרים אחרים, כולל סימולציה של מציאות מדומה של הדילמה, 00:01:08.600 --> 00:01:11.040 הראו תוצאות דומות. NOTE Paragraph 00:01:11.040 --> 00:01:16.061 שיקולי דעת אלו הם עקביים עם העקרון הפילוסופי, תועלתנות. 00:01:16.061 --> 00:01:18.521 שטוען שההחלטה הנכונה מבחינה מורלית 00:01:18.521 --> 00:01:23.351 היא זו שמביאה את הטוב הרב ביותר למספר הגדול ביותר של אנשים. 00:01:23.351 --> 00:01:25.481 חייהם של חמישה שווים יותר מאלו של אדם אחד, 00:01:25.481 --> 00:01:30.562 אפילו אם משיגים זאת ע״י הריגת אדם אחר. NOTE Paragraph 00:01:30.562 --> 00:01:33.471 אבל אנשים לא תמיד לוקחים את נקודת המבט התועלתנית, 00:01:33.471 --> 00:01:37.062 כפי שניתן לראות ע״י שינוי קל של בעיית הקרונית. NOTE Paragraph 00:01:37.062 --> 00:01:40.303 הפעם, אתם עומדים על גשר מעל המסילה 00:01:40.303 --> 00:01:43.192 כשאותה קרונית מתקרבת. 00:01:43.192 --> 00:01:44.873 עכשיו אין מסילה שניה, 00:01:44.873 --> 00:01:48.794 אבל יש איש רחב מימדים על הגשר לידכם. 00:01:48.794 --> 00:01:52.492 אם תדחפו אותו, הגוף שלו יעצור את הקרונית, 00:01:52.492 --> 00:01:54.243 ויציל את חמשת העובדים, 00:01:54.243 --> 00:01:56.033 אבל הוא עצמו ימות. NOTE Paragraph 00:01:56.033 --> 00:01:59.432 עבור התועלתנים, ההחלטה היא זהה, 00:01:59.432 --> 00:02:01.982 הקרבת חיי אדם אחד כדי להציל חמישה. 00:02:01.982 --> 00:02:04.584 אבל במקרה הזה, רק כ-10% מהאנשים 00:02:04.584 --> 00:02:08.453 אומרים שזה בסדר לזרוק את האדם על המסילה. 00:02:08.453 --> 00:02:11.914 האינסטינקטים שלנו אומרים לנו שגרימת מוות בכוונה תחילה 00:02:11.914 --> 00:02:16.303 זה לא אותו דבר כמו לתת למישהו למות כנזק משני. 00:02:16.303 --> 00:02:20.953 זה פשוט מרגיש לא נכון מסיבות שקשה להסביר. NOTE Paragraph 00:02:20.953 --> 00:02:23.473 החיתוך בין אתיקה ופסיכולוגיה 00:02:23.473 --> 00:02:26.604 הוא הדבר הכ״כ מעניין בבעיית הקרונית. 00:02:26.604 --> 00:02:30.984 הדילמה בוריאציות הרבות שלה חושפת שמה שאנחנו חושבים כנכון או לא נכון 00:02:30.984 --> 00:02:36.345 תלוי גם בגורמים שהם מעבר לשיקולים לוגיים של בעד ונגד. NOTE Paragraph 00:02:36.345 --> 00:02:38.835 לדוגמה, גברים נוטים יותר מנשים 00:02:38.835 --> 00:02:42.504 להגיד שזה בסדר לדחוף את האדם מהגשר. 00:02:42.504 --> 00:02:46.994 כך גם אנשים שצופים בקליפ קומי לפני הניסוי המחשבתי. 00:02:46.994 --> 00:02:49.165 ובמחקר מציאות מדומה אחד, 00:02:49.165 --> 00:02:52.944 אנשים היו יותר מוכנים להקריב גברים מלהקריב נשים. NOTE Paragraph 00:02:52.944 --> 00:02:55.214 חוקרים ערכו מחקר על פעילות המוח 00:02:55.214 --> 00:02:59.535 של אנשים ששוקלים את שתי הגרסאות, הגרסה הקלאסית וגרסת הגשר. 00:02:59.535 --> 00:03:04.054 שני המקרים מפעילים אזורים במוח שמעורבים בקבלת החלטות מודעת 00:03:04.054 --> 00:03:06.514 ובתגובות רגשיות. 00:03:06.514 --> 00:03:10.975 אבל במקרה הגשר, התגובה הרגשית חזקה בהרבה. 00:03:10.975 --> 00:03:13.194 כך גם הפעילות באזור במוח 00:03:13.194 --> 00:03:16.884 המעורב עיבוד קונפליקט פנימי. 00:03:16.884 --> 00:03:18.145 למה קיים הבדל? 00:03:18.145 --> 00:03:22.912 הסבר אחד הוא שמעשה דחיפת אדם למותו מרגיש יותר אישי, 00:03:22.912 --> 00:03:26.925 ומפעיל סלידה נפשית מהריגת אדם, 00:03:26.925 --> 00:03:31.424 אבל הסיבה שאנחנו חצויים היא משום שאנחנו יודעים שזו עדיין הבחירה ההגיונית. NOTE Paragraph 00:03:31.424 --> 00:03:36.405 דילמת הקרונית ספגה ביקורת על ידי מספר פילוסופים ופסיכולוגים. 00:03:36.405 --> 00:03:41.266 הם טוענים שהיא אינה חושפת דבר בגלל שהנחת היסוד שלה היא כ״כ לא ריאלית 00:03:41.266 --> 00:03:45.425 שמשתתפים במחקר לא לוקחים אותה ברצינות. NOTE Paragraph 00:03:45.425 --> 00:03:48.556 אבל טכנולוגיה חדשה גורמת לסוג ניתוח אתי שכזה 00:03:48.556 --> 00:03:50.698 להיות חשוב יותר מאי פעם. 00:03:50.698 --> 00:03:54.036 לדוגמה, מכוניות ללא נהג אולי יצרכו לבצע בחירות 00:03:54.036 --> 00:03:58.007 כמו גרימת תאונה קטנה לשם מניעת תאונה גדולה יותר. 00:03:58.007 --> 00:04:01.626 בינתיים, ממשלות עובדות על פיתוח של רחפנים צבאיים אוטונומיים 00:04:01.626 --> 00:04:05.976 העלולים להיות מסוגלים להחליט האם להסתכן בפגיעה באזרחים 00:04:05.976 --> 00:04:09.276 לשם תקיפת מטרה בעלת חשיבות. 00:04:09.276 --> 00:04:11.197 אם אנחנו רוצים שההחלטות האלו יהיו אתיות, 00:04:11.197 --> 00:04:15.397 אנחנו חייבים להחליט מראש איך להעריך חיי אדם 00:04:15.397 --> 00:04:17.667 ואיך לשפוט את טובת הכלל. NOTE Paragraph 00:04:17.667 --> 00:04:20.107 אז חוקרים שעורכים מחקר על מערכות אוטונומיות, 00:04:20.107 --> 00:04:22.207 משתפים פעולה עם פילוסופים 00:04:22.207 --> 00:04:27.628 כדי לדון בבעיה המורכבת של תיכנות אתיקה לתוך מכונות, 00:04:27.628 --> 00:04:30.957 דבר המראה שאפילו דילמות היפוטטיות 00:04:30.957 --> 00:04:35.058 עלולות למצוא את עצמן במסלול התנגשות עם העולם האמיתי.