בינה מלאכותית גורמת למוסר האנושי להיות חשוב יותר
-
0:01 - 0:05התחלתי את עבודתי הראשונה
כמתכנתת מחשבים -
0:05 - 0:07בשנתי הראשונה בקולג' -
-
0:07 - 0:08כשהייתי נערה מתבגרת.
-
0:09 - 0:11זמן קצר לאחר שהתחלתי לעבוד,
-
0:11 - 0:12לכתוב תוכנות בחברה,
-
0:13 - 0:16מנהל שעבד בחברה
נכנס לחדר בו הייתי, -
0:16 - 0:18ולחש אליי,
-
0:18 - 0:21"האם הוא יכול לדעת אם אני משקר?"
-
0:22 - 0:24לא היה אף אחד נוסף בחדר.
-
0:25 - 0:29"מי יכול לדעת אם אתה משקר?
ולמה אנחנו לוחשים?" -
0:30 - 0:33המנהל הצביע על המחשב בחדר.
-
0:33 - 0:36"האם הוא יכול לדעת אם אני משקר?"
-
0:38 - 0:42טוב, המנהל הזה ניהל רומן עם פקידת הקבלה.
-
0:42 - 0:43(צחוק)
-
0:43 - 0:45ואני הייתי עדיין נערה מתבגרת.
-
0:45 - 0:47אז לחשתי-צעקתי אליו בחזרה,
-
0:47 - 0:51"כן, המחשב יכול לדעת אם אתה משקר."
-
0:51 - 0:53(צחוק)
-
0:53 - 0:56טוב, צחקתי, אבל בעצם,
הבדיחה היא על חשבוני. -
0:56 - 0:59בימינו, קיימות מערכות ממוחשבות
-
0:59 - 1:03שיכולות לקלוט מצבים רגשיים ואפילו שקר
-
1:03 - 1:05באמצעות עיבוד פרצופים אנושיים.
-
1:05 - 1:09מפרסמים ואפילו ממשלות מאד מתעניינות בזה.
-
1:10 - 1:12אני נהייתי מתכנתת מחשבים
-
1:12 - 1:15כי הייתי מהילדים האלה
שמשוגעים על מתמטיקה ומדעים. -
1:16 - 1:19אבל איפשהו במהלך הדרך
למדתי על נשק גרעיני, -
1:19 - 1:22והתחלתי להיות מאוד מודאגת
בעניין האתיקה של המדע. -
1:22 - 1:23הייתי מוטרדת.
-
1:23 - 1:26עם זאת, בגלל נסיבות משפחתיות,
-
1:26 - 1:29נאלצתי להתחיל לעבוד
מוקדם ככל האפשר. -
1:29 - 1:33אז חשבתי לעצמי,
אני אבחר בתחום טכני -
1:33 - 1:34בו אמצא עבודה בקלות
-
1:34 - 1:38ולא אצטרך להתעסק
בשאלות אתיות מטרידות. -
1:39 - 1:41אז בחרתי במחשבים.
-
1:41 - 1:42(צחוק)
-
1:42 - 1:45טוב, חה, חה, חה!
כל הצחוק הוא על חשבוני. -
1:45 - 1:48בימינו, מדעני מחשבים בונים פלטפורמות
-
1:48 - 1:52אשר שולטות במה שמיליארד אנשים
יצפו בכל יום. -
1:53 - 1:57הם מפתחים מכוניות
שיכולות להחליט את מי לדרוס. -
1:58 - 2:01הם אפילו בונים מכונות, כלי נשק,
-
2:01 - 2:03שיכולים להרוג בני אדם במלחמה.
-
2:03 - 2:06מדובר באתיקה לאורך כל הדרך.
-
2:07 - 2:09הבינה המלאכותית כבר כאן.
-
2:10 - 2:13אנו משתמשים כעת במחשוב
כדי לקבל כל מיני החלטות. -
2:13 - 2:15אבל גם החלטות מסוגים חדשים.
-
2:15 - 2:20אנחנו שואלים את המחשוב שאלות
שיש להן יותר מתשובה נכונה אחת, -
2:20 - 2:22שהן סוביקטיביות
-
2:22 - 2:24שאלות פתוחות ובעלות מטען ערכי.
-
2:24 - 2:26אנו שואלים שאלות כמו,
-
2:26 - 2:27"את מי צריכה החברה להעסיק?"
-
2:28 - 2:31"איזה עדכון מאיזה חבר
אנחנו צריכים להראות?" -
2:31 - 2:33"מיהו האסיר שסביר יותר שיפשע שוב?"
-
2:34 - 2:37"על איזה אייטם חדשותי או סרט
כדאי להמליץ לאנשים?" -
2:37 - 2:40תראו, כן, אנחנו משתמשים במחשבים
כבר זמן רב, -
2:40 - 2:42אבל זה שונה.
-
2:42 - 2:44זהו טוויסט היסטורי,
-
2:44 - 2:49כיוון שאנחנו לא יכולים להיעזר במחשוב
בשאלות סובייקטיביות כאלו -
2:49 - 2:54כפי שאנו נעזרים במחשוב
להטסת מטוסים, לבניית גשרים, -
2:54 - 2:56להגיע לירח.
-
2:56 - 3:00האם מטוסים בטוחים יותר?
האם הגשר התנדנד ונפל? -
3:00 - 3:04בדברים האלו הסכמנו על
אמות מידה ברורות למדי, -
3:04 - 3:06ויש לנו את חוקי הטבע שמדריכים אותנו.
-
3:07 - 3:10אין לנו עוגנים ואמות מידה כאלו
-
3:10 - 3:14עבור החלטות בעניינים אנושיים מסובכים.
-
3:14 - 3:18כדי לסבך את העניין עוד יותר,
התוכנה שלנו הולכת ונעשית חזקה יותר, -
3:18 - 3:22אבל היא גם נעשית פחות שקופה
ויותר מורכבת. -
3:23 - 3:25לאחרונה, בעשור החולף,
-
3:25 - 3:27אלגוריתמים מורכבים התקדמו מאד.
-
3:27 - 3:29הם יכולים לזהות פרצופים אנושיים.
-
3:30 - 3:32הם יכולים לפענח כתב יד.
-
3:32 - 3:35הם יכולים לזהות הונאת כרטיסי אשראי
-
3:35 - 3:36ולחסום דואר זבל
-
3:36 - 3:38והם יכולים לתרגם משפה לשפה.
-
3:38 - 3:40הם יכולים לזהות גידולים בהדמיה רפואית.
-
3:40 - 3:43הם יכולים לנצח בני אדם
במשחקי שח-מט וגו. -
3:43 - 3:48הרבה מההתקדמות הזו היא הודות לשיטה
שנקראת "לימוד מכונה". -
3:48 - 3:51לימוד מכונה הוא שונה מתכנות מסורתי,
-
3:51 - 3:55בו נותנים למחשב הוראות מפורטות,
מדויקות, מדוקדקות. -
3:55 - 4:00זה יותר כמו שמכניסים למערכת הרבה נתונים,
-
4:00 - 4:01כולל נתונים לא מובנים,
-
4:01 - 4:04כמו אלה שאנו מייצרים בחיינו הדיגיטליים.
-
4:04 - 4:06והמערכת לומדת,
על-ידי ערבול כל הנתונים הללו. -
4:07 - 4:08כמו כן, באופן מכריע,
-
4:08 - 4:13המערכות הללו לא פועלות
על פי ההיגיון של תשובה-אחת. -
4:13 - 4:16הן לא מייצרות תשובה פשוטה;
זה יותר הסתברותי: -
4:16 - 4:19"זו כנראה יותר מתאימה למה שאתה מחפש."
-
4:20 - 4:23היתרון הוא:
השיטה הזו ממש חזקה. -
4:23 - 4:25המנהל של מערכת AI של גוגל קרא לזה,
-
4:25 - 4:27"היעילות חסרת ההיגיון של נתונים."
-
4:28 - 4:29החיסרון הוא,
-
4:30 - 4:33שאנחנו לא באמת מבינים
מה המערכת למדה. -
4:33 - 4:34בעצם, זה הכוח שלה.
-
4:35 - 4:39זה פחות כמו לתת הוראות למחשב;
-
4:39 - 4:43זה יותר כמו לאמן יצור שהוא גור-מכונה
-
4:43 - 4:46שאנחנו לא באמת מבינים ושולטים בו.
-
4:46 - 4:48אז זו הבעיה שלנו.
-
4:48 - 4:53זו בעיה כאשר הבינה המלאכותית הזו טועה.
-
4:53 - 4:56זו גם בעיה כאשר היא אינה טועה,
-
4:56 - 5:00מכיוון שאנו לא יודעים מהו מה
כאשר הבעיה היא סוביקטיבית. -
5:00 - 5:02איננו יודעים מה הדבר הזה חושב.
-
5:03 - 5:07אז, חישבו על אלגוריתם של העסקת עובדים -
-
5:08 - 5:12מערכת שרגילה להעסיק אנשים,
משתמשת במערכות לימוד-מכונה. -
5:13 - 5:17מערכת כזו הייתה מאומנת
על נתוני העסקה קודמים -
5:17 - 5:19וניתנת לה הנחייה למצוא ולהעסיק
-
5:19 - 5:22אנשים בעלי ביצועים טובים
כמו אלה שכבר נמצאים בחברה. -
5:23 - 5:24נשמע טוב.
-
5:24 - 5:26פעם השתתפתי בכנס
-
5:26 - 5:29אשר חיבר יחד
מנהלי משאבי אנוש, -
5:29 - 5:30אנשים ברמה גבוהה,
-
5:30 - 5:32המשתמשים במערכות כאלה להעסקת עובדים.
-
5:32 - 5:34הם מאד התלהבו.
-
5:34 - 5:38הם חשבו שזה יהפוך את תהליך ההעסקה
לאובייקטיבי יותר, פחות מוטה, -
5:38 - 5:41ויעניק לנשים ומיעוטים סיכוי גבוה יותר
-
5:41 - 5:44כנגד מנהלים אנושיים משוחדים.
-
5:44 - 5:46ותראו - העסקה על-ידי בני-אדם היא משוחדת.
-
5:47 - 5:48אני יודעת.
-
5:48 - 5:51באחד ממקומות העבודה המוקדמים שלי כמתכנתת,
-
5:51 - 5:55המנהלת הישירה שלי הייתה באה לפעמים
למקום בו הייתי -
5:55 - 5:59ממש מוקדם בבוקר
או ממש מאוחר אחר הצהריים, -
5:59 - 6:02ואמרה לי, "זיינב,
בואי נלך לאכול ארוחת צהרים!" -
6:03 - 6:05הייתי מבולבלת מהתזמון המוזר.
-
6:05 - 6:07עכשיו 4 אחר הצהריים. ארוחת צהריים?
-
6:07 - 6:10הייתי מרוששת, אז ארוחת חינם. תמיד הלכתי.
-
6:11 - 6:13מאוחר יותר הבנתי מה קרה.
-
6:13 - 6:17מנהליי הישירים לא הודו
בפני הממונים עליהם -
6:17 - 6:20שהמתכנתת שהם העסיקו בתפקיד רציני
היא נערה מתבגרת -
6:20 - 6:24שבאה לעבודה בג'ינס וסניקרס.
-
6:25 - 6:27עשיתי עבודה טובה,
רק לא נראיתי נכון -
6:27 - 6:29והייתי בגיל ובמגדר הלא נכונים.
-
6:29 - 6:32אז העסקת עובדים באופן עיוור למגדר וגזע
-
6:32 - 6:34בהחלט נשמע לי טוב.
-
6:35 - 6:38אבל עם המערכות האלו,
זה יותר מורכב, וזו הסיבה: -
6:39 - 6:45כעת, מערכות ממוחשבות יכולות להסיק
כל מיני דברים עליכם -
6:45 - 6:47מהפירורים הדיגיטליים שלכם,
-
6:47 - 6:49אפילו אם לא גילית את הדברים האלה.
-
6:50 - 6:52הם יכולות להסיק לגבי האוריינטציה
המינית שלכם, -
6:53 - 6:54תכונות האופי שלכם,
-
6:55 - 6:56הנטייה הפוליטית שלכם.
-
6:57 - 7:01יש להן יכולת ניבוי עם רמות דיוק גבוהות.
-
7:01 - 7:04זכרו - אפילו לגבי דברים שלא גיליתם.
-
7:04 - 7:06זוהי הסקה.
-
7:06 - 7:09יש לי חברה שפיתחה
מערכות ממוחשבות שיכולות -
7:09 - 7:13לנבא את הסיכון לדיכאון קליני
או דיכאון אחרי לידה -
7:13 - 7:14מנתונים של מדיה חברתית.
-
7:15 - 7:16התוצאות הן מרשימות.
-
7:16 - 7:20המערכת שלה יכולה לנבא
את הסיכון ללקות בדיכאון -
7:20 - 7:24חודשים לפני הופעת סימפטומים כלשהם -
-
7:24 - 7:25חודשים לפני.
-
7:25 - 7:27אין סימפטומים, יש ניבוי.
-
7:27 - 7:32היא מקווה שישתמשו בזה
להתערבות מוקדמת. נהדר! -
7:33 - 7:35אבל עכשיו שימו את זה בהקשר של העסקה.
-
7:36 - 7:39אז בכנס הזה של מנהלי משאבי אנוש,
-
7:39 - 7:44פניתי אל מנהלת בכירה בחברה גדולה מאד,
-
7:44 - 7:48ואמרתי לה, "תראי,
מה אם, ללא ידיעתך, -
7:48 - 7:55"המערכת שלך מנפה החוצה אנשים
עם סיכון עתידי גבוה ללקות בדיכאון? -
7:56 - 7:59"הם לא מדוכאים כעת,
רק אולי בעתיד, בסיכון גבוה יותר. -
8:00 - 8:03"מה אם היא מנפה החוצה נשים
שסיכוייהן גדולים יותר להרות -
8:03 - 8:06"בשנה או שנתיים הקרובות
אך אינן בהריון כעת? -
8:07 - 8:12"מה אם המערכת מעסיקה אנשים אגרסיביים
מכיוון שזו התרבות בסביבת העבודה שלך?" -
8:13 - 8:16אתם לא יכולים לדעת את זה
על-ידי חלוקה למגדרים. -
8:16 - 8:17אלו יכולים להיות מאוזנים.
-
8:17 - 8:21ומאחר וזאת למידת מכונה,
לא שיטת קידוד מסורתית, -
8:21 - 8:26אין שם משתנה שמוגדר "סיכון מוגבר לדיכאון",
-
8:26 - 8:28"סיכון מוגבר להריון,"
-
8:28 - 8:30"סולם של אגרסיביות".
-
8:30 - 8:34לא רק שאינכם יודעים
לפי מה המערכת שלכם בוחרת, -
8:34 - 8:36אתם אפילו לא יודעים איפה להתחיל לחפש.
-
8:36 - 8:37זוהי קופסה שחורה.
-
8:37 - 8:40יש לה יכולת ניבוי,
אבל אתם לא מבינים אותה. -
8:40 - 8:43"אילו אמצעי ביטחון," שאלתי, "יש לך
-
8:43 - 8:47"להבטיח שהקופסה השחורה שלך
לא עושה משהו מפוקפק?" -
8:49 - 8:53היא הסתכלה עלי כאילו שדרכתי
על 10 זנבות של כלבלבים. -
8:53 - 8:54(צחוק)
-
8:54 - 8:56היא נעצה בי מבט ואמרה,
-
8:57 - 9:01"אני לא רוצה לשמוע מילה נוספת על זה."
-
9:01 - 9:03והיא הסתובבה והלכה משם.
-
9:04 - 9:06שימו לב - היא לא הייתה גסת רוח.
-
9:06 - 9:12זה היה בבירור: מה שאני לא יודעת
הוא לא הבעיה שלי, לכי מכאן, מבט מקפיא. -
9:12 - 9:13(צחוק)
-
9:14 - 9:18תראו, מערכת כזו
יכולה אפילו להיות פחות מוטה -
9:18 - 9:20מאשר מנהלים אנושיים באופנים מסוימים.
-
9:20 - 9:22והיא יכולה להיות הגיונית מבחינה כלכלית.
-
9:23 - 9:24אבל היא גם יכולה להוביל
-
9:24 - 9:29לסגירה מתמשכת וחמקנית של שוק העבודה
-
9:29 - 9:31בפני אנשים עם סיכון גבוה ללקות בדיכאון.
-
9:32 - 9:34האם זו החברה שאנחנו רוצים לבנות,
-
9:34 - 9:37מבלי שנדע אפילו שאנחנו עושים זאת,
-
9:37 - 9:41בגלל שהשארנו את קבלת ההחלטות
בידי מכונות שאנחנו לא מבינים עד הסוף? -
9:41 - 9:43בעיה נוספת היא זו:
-
9:43 - 9:48המערכות האלו לעיתים קרובות מכוונות
לנתונים המיוצרים על ידי הפעולות שלנו, -
9:48 - 9:50חותם אנושי.
-
9:50 - 9:54אם כך, הן יכולות פשוט לשקף
את ההעדפות שלנו. -
9:54 - 9:58והמערכות האלו יכולות להיטפל להעדפות שלנו
-
9:58 - 9:59ולהגביר אותן
-
9:59 - 10:00ולשקף לנו אותן בחזרה,
-
10:00 - 10:02בזמן שאנחנו אומרים לעצמנו,
-
10:02 - 10:05"אנחנו עוסקים במחשוב אובייקטיבי וניטרלי."
-
10:06 - 10:09חוקרים מצאו שבגוגל,
-
10:10 - 10:15לנשים יש סיכוי נמוך יותר מאשר לגברים
לקבל מודעות דרושים לתפקידים עם שכר גבוה. -
10:16 - 10:19וחיפוש של שמות אפריקנים-אמריקנים
-
10:19 - 10:24יעלה בסיכוי גבוה יותר פרסומות
המרמזות על עבר פלילי, -
10:24 - 10:25אפילו כאשר אין כזה.
-
10:27 - 10:30להטיות חבויות כאלה
ואלגוריתמים של קופסא שחורה -
10:30 - 10:34שחוקרים מגלים לפעמים
אבל לפעמים איננו יודעים עליהם, -
10:34 - 10:37יכולות להיות השלכות משנות חיים.
-
10:38 - 10:42בוויסקונסין, נאשם
נשפט לשש שנים בכלא -
10:42 - 10:43על התחמקות מהמשטרה.
-
10:45 - 10:46יכול להיות שאתם לא יודעים זאת,
-
10:46 - 10:50אך השימוש באלגוריתמים הולך וגובר
בהחלטות על ענישה וחנינה. -
10:50 - 10:53הוא רצה לדעת:
איך המספר הזה חושב? -
10:54 - 10:55זו היא קופסה שחורה מסחרית.
-
10:55 - 11:00החברה סירבה לאפשר לאתגר את האלגוריתם
שלה באולם בית המשפט -
11:00 - 11:06אבל פרו-פבליקה, חברת חקירות
ללא מטרות רווח, בדקה את האלגוריתם הזה -
11:06 - 11:08עם כל הנתונים הציבוריים שיכלו למצוא,
-
11:08 - 11:10וגילו שהתוצאות היו מוטות
-
11:10 - 11:14וכוח הניבוי שלו היה מפחיד,
בקושי יותר טוב ממזל, -
11:14 - 11:18והוא הגדיר באופן מוטעה
נאשם שחור כפושע עתידי -
11:18 - 11:22בשיעור כפול מאשר נאשם לבן.
-
11:24 - 11:25אז, בחנו את המקרה הבא:
-
11:26 - 11:30האישה הזו איחרה לאסוף
את אחותה החורגת -
11:30 - 11:32מבית ספר במחוז ברווארד, בפלורידה,
-
11:33 - 11:35והיא רצה ברחוב עם חברתה.
-
11:35 - 11:39הן הבחינו באופני ילדים ובקורקינט
שהיו לא קשורים במרפסת -
11:39 - 11:41ובטיפשות קפצו עליהם.
-
11:41 - 11:44בעוד הן דוהרות,
אישה הגיחה ואמרה, -
11:44 - 11:46" הי, אלו האופניים של הילד שלי!"
-
11:46 - 11:49הן זרקו אותם, הן הלכו משם,
אבל הן נעצרו. -
11:49 - 11:53היא טעתה, היא עשתה שטות,
אבל היא גם הייתה רק בת 18. -
11:53 - 11:55היו לה שתי עברות נעורים קודמות.
-
11:56 - 12:01בינתיים, האיש הזה נעצר על גניבה מחנות
בהום דיפו - -
12:01 - 12:04דברים בשווי של 85 דולר,
פשע חסר חשיבות דומה. -
12:05 - 12:09אבל היו לו שתי הרשעות קודמות
על שוד מזויין. -
12:10 - 12:13אבל האלגוריתם חישב אותה בסיכון גבוה,
ולא אותו. -
12:15 - 12:19שנתיים לאחר מכן, פרו-פבליקה מצאה
שהיא לא פשעה שוב. -
12:19 - 12:21רק היה לה קשה למצוא עבודה
עם העבר שלה. -
12:21 - 12:23הוא, לעומת זאת, כן פשע שוב
-
12:23 - 12:27וכעת הוא מרצה עונש של שמונה שנות מאסר
בגלל פשע מאוחר יותר. -
12:28 - 12:31בברור, עלינו לבקר
את הקופסאות השחורות שלנו -
12:31 - 12:34ולא לאפשר להן סוג כזה של כוח בלתי בדוק.
-
12:34 - 12:37(מחיאות כפיים)
-
12:38 - 12:42ביקורות הן נהדרות וחשובות
אך הן לא פותרות את כל בעיותינו. -
12:42 - 12:45קחו למשל את האלגוריתם החזק
של הפיד החדשותי של פייסבוק - -
12:45 - 12:50אתם יודעים, זה שמדרג כל דבר
ומחליט מה להראות לכם -
12:50 - 12:52מכל החברים והדפים שאחריהם אתם עוקבים.
-
12:53 - 12:55האם צריך להראות לכם
תמונה אחרת של תינוק? -
12:55 - 12:56(צחוק)
-
12:56 - 12:59הערה זועפת מאיזה מכר?
-
12:59 - 13:01פריט חדשותי חשוב אך קשה לצפייה?
-
13:01 - 13:03אין כאן תשובה נכונה.
-
13:03 - 13:05פייסבוק מְיַטֶב לצורך מעורבות באתר:
-
13:06 - 13:07לייקים, שיתופים, תגובות.
-
13:08 - 13:11באוגוסט 2014,
-
13:11 - 13:14פרצה מחאה בפרגוסון, מיזורי
-
13:14 - 13:18לאחר הריגתו של נער אפריקני-אמריקני
על-ידי שוטר לבן, -
13:18 - 13:20בנסיבות חשודות.
-
13:20 - 13:22החדשות בנוגע למחאה הופיעו בגדול
-
13:22 - 13:25בדף הטוויטר שלי שהוא ללא סינון אלגוריתמי,
-
13:25 - 13:27אך לא הופיעו כלל בדף הפייסבוק שלי.
-
13:27 - 13:29האם היו אלה חבריי בפייסבוק?
-
13:29 - 13:31ניטרלתי את האלגוריתם של הפייסבוק,
-
13:31 - 13:34דבר שקשה לעשות כי פייסבוק רוצה שתהיו
-
13:34 - 13:36כל הזמן תחת שליטת האלגוריתם,
-
13:36 - 13:39וראיתי שחבריי דיברו על זה.
-
13:39 - 13:41רק שהאלגוריתם לא הראה לי את זה.
-
13:41 - 13:44בדקתי את זה ומצאתי
שזו הייתה בעיה נרחבת. -
13:44 - 13:48הסיפור מפרגוסון לא היה ידידותי לאלגוריתם.
-
13:48 - 13:49הוא לא "אהוב".
-
13:49 - 13:51מי יסמן לזה "לייק"?
-
13:52 - 13:54אפילו לא קל להגיב עליו.
-
13:54 - 13:55ללא לייקים ותגובות,
-
13:55 - 13:58סביר שהאלגוריתם הראה אותו
אפילו לפחות אנשים, -
13:58 - 14:00אז לא זכינו לראות את זה.
-
14:01 - 14:02במקומו, באותו שבוע,
-
14:02 - 14:04האלגוריתם של פייסבוק הדגיש את זה,
-
14:05 - 14:07זהו אתגר דלי הקרח של ALS.
-
14:07 - 14:11מטרה טובה; שפוך דלי קרח,
תרום כסף, יופי. -
14:11 - 14:12אבל הוא היה ידידותי ביותר לאלגוריתם.
-
14:13 - 14:16המכונה קיבלה את ההחלטה הזו עבורנו.
-
14:16 - 14:19שיחה חשובה מאד אך קשה
-
14:19 - 14:21אולי הייתה מושתקת,
-
14:21 - 14:24אם פייסבוק היה הערוץ היחיד.
-
14:24 - 14:28כעת, לבסוף, המערכות האלה
גם יכולות לטעות -
14:28 - 14:31בצורות שאינן דומות למערכות אנושיות.
-
14:31 - 14:34האם אתם זוכרים את ווטסון,
מערכת הבינה המלאכותית של IBM -
14:34 - 14:37שטאטאה את הרצפה
עם מתחרה אנושי במשחק "סכנה"? -
14:37 - 14:39הוא היה שחקן נהדר.
-
14:39 - 14:42אבל אז, במשימה האחרונה,
ווטסון נשאל את השאלה הבאה: -
14:43 - 14:46"שמו של שדה התעופה הכי גדול שלו
נקרא ע"ש גיבור מלחמת העולם ה-2, -
14:46 - 14:48השני הכי גדול
על שם קרב במלחמת העולם ה-II." -
14:48 - 14:49(מזמזת את הנעימה של השלב הסופי במשחק)
-
14:50 - 14:51שיקגו.
-
14:51 - 14:52שני האנשים ענו נכון.
-
14:53 - 14:57ווטסון, לעומת זאת, ענה "טורונטו" -
-
14:57 - 14:59בקטגוריה של ערים בארצות הברית!
-
15:00 - 15:02המערכת המרשימה גם עשתה טעות
-
15:03 - 15:06שבן אנוש לעולם לא היה עושה,
שתלמיד כיתה ב' לא היה עושה. -
15:07 - 15:10הבינה המלאכותית שלנו יכולה להכשל
-
15:10 - 15:13בדרכים שאינן תואמות
לדפוסי טעויות אנושיות, -
15:13 - 15:16בדרכים שאנו לא מצפים להן
ולא מוכנים להן. -
15:16 - 15:20זה יהיה מחורבן לא לקבל עבודה
שאתה מוכשר אליה, -
15:20 - 15:23אבל זה יעצבן פי שלוש
אם זה יהיה בגלל גלישת מחסנית -
15:23 - 15:25באיזו פונקציה תכנותית.
-
15:25 - 15:27(צחוק)
-
15:27 - 15:29במאי 2010,
-
15:29 - 15:33התרסקות בזק בוול סטריט
שהתגברה עקב תגובה חוזרת ונשנית -
15:33 - 15:36של אלגוריתם ה"מכירה" של וול סטריט
-
15:36 - 15:41מחקה ערך של טריליון דולר
ב- 36 דקות. -
15:42 - 15:44אני אפילו לא רוצה לחשוב
מה המשמעות של "טעות" -
15:44 - 15:48בהקשר של נשק קטלני אוטונומי.
-
15:50 - 15:54אז כן, אנשים מאז ומתמיד עשו הטיות.
-
15:54 - 15:56מקבלי החלטות ושומרי הסף,
-
15:56 - 15:59בבתי משפט, בחדשות, במלחמה...
-
15:59 - 16:02הם עושים טעויות:
אבל זו בדיוק הטענה שלי. -
16:02 - 16:06אנחנו לא יכולים לברוח
מהשאלות הקשות הללו. -
16:07 - 16:10איננו יכולים להעביר
את האחריות שלנו למכונות. -
16:11 - 16:15(מחיאות כפים)
-
16:17 - 16:22הבינה המלאכותית לא נותנת לנו
אישור להשתחרר מהאתיקה. -
16:23 - 16:26מדען הנתונים פרד בנסון
מכנה זאת "שטיפה-מתמטית". -
16:26 - 16:28אנחנו זקוקים לדבר ההפוך.
-
16:28 - 16:33עלינו לפתח אלגוריתם לחשדנות,
בחינה מדוקדקת וחקירה. -
16:33 - 16:37עלינו להבטיח שיש לנו
נטילת אחריות אלגוריתמית, -
16:37 - 16:39ביקורות ושקיפות משמעותית.
-
16:39 - 16:43עלינו לקבל שהכנסת מתמטיקה ומחשוב
-
16:43 - 16:46אל עניינים אנושיים מסובכים, עמוסי ערך
-
16:46 - 16:48לא מביאה אוביקטיביות;
-
16:48 - 16:52אלא, המורכבות של עניינים אנושיים
חודרת אל האלגוריתמים. -
16:52 - 16:56כן, אנו יכולים וצריכים להשתמש במחשוב
-
16:56 - 16:58כדי לעזור לנו לקבל החלטות טובות יותר.
-
16:58 - 17:03אך עלינו לקחת בעלות
על האחריות המוסרית והשיפוטיות שלנו, -
17:03 - 17:06ולהשתמש באלגוריתמים במסגרת הזו,
-
17:06 - 17:11לא כאמצעי להתפטר
או להעביר את האחריות שלנו -
17:11 - 17:13מאחד לשני כמו מאדם לאדם.
-
17:14 - 17:16הבינה המלאכותית כבר כאן.
-
17:16 - 17:20זה אומר שעלינו לשמור יותר מאי פעם
-
17:20 - 17:22על ערכים אנושיים ואתיקה אנושית.
-
17:22 - 17:23תודה רבה.
-
17:23 - 17:28(מחיאות כפיים)
- Title:
- בינה מלאכותית גורמת למוסר האנושי להיות חשוב יותר
- Speaker:
- זיינאפ טוּפֶקְסי
- Description:
-
הבינה המלאכותית כבר כאן, ואנו כבר משתמשים בה לצורך קבלת החלטות סובייקטיביות. אך הדרך המורכבת בה היא גדלה ומתפתחת מקשה עלינו להבין אותה ואפילו יותר לשלוט בה. בשיחה המתריעה הזו, הטכנו-סוציולוגית זיינאפ טופקסי מסבירה כיצד מכונות הבינה המלאכותית יכולות לטעות בדרכים שאינן תואמות את דפוסי הטעות האנושית - ובצורות שאיננו מצפים להן או מוכנים אליהן. "איננו יכולים להעביר את האחריות שלנו אל המכונות," היא אומרת. "עלינו לשמור יותר מאי פעם על ערכים אנושיים ואתיקה אנושית."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Ido Dekkers approved Hebrew subtitles for Machine intelligence makes human morals more important | ||
Ido Dekkers accepted Hebrew subtitles for Machine intelligence makes human morals more important | ||
Ido Dekkers edited Hebrew subtitles for Machine intelligence makes human morals more important | ||
Gili Baltsan edited Hebrew subtitles for Machine intelligence makes human morals more important | ||
Gili Baltsan edited Hebrew subtitles for Machine intelligence makes human morals more important | ||
Gili Baltsan edited Hebrew subtitles for Machine intelligence makes human morals more important | ||
Gili Baltsan edited Hebrew subtitles for Machine intelligence makes human morals more important |