1 00:00:00,000 --> 00:00:02,571 האלגוריתמים נמצאים בכל מקום. 2 00:00:04,111 --> 00:00:07,236 הם ממיינים אנשים ומפרידים בין מנצחים למפסידים. 3 00:00:08,019 --> 00:00:10,187 המנצחים זוכים במשרה הנחשקת 4 00:00:10,187 --> 00:00:11,954 או בהצעה לכרטיס אשראי טוב. 5 00:00:11,954 --> 00:00:14,725 המפסידים לא זוכים אפילו בראיון 6 00:00:15,590 --> 00:00:17,367 או משלמים יותר על הביטוח. 7 00:00:18,197 --> 00:00:21,746 נוסחאות סודיות שאיננו מבינים מדרגות אותנו, 8 00:00:22,675 --> 00:00:25,892 ובדרך כלל אין אפשרות לערער על החלטותיהן. 9 00:00:27,240 --> 00:00:28,536 מתבקשת השאלה: 10 00:00:28,560 --> 00:00:31,473 מה אם האלגוריתמים טועים? 11 00:00:32,830 --> 00:00:34,584 כדי לבנות אלגוריתם נחוצים שני דברים: 12 00:00:34,584 --> 00:00:36,585 נתונים: מה קרה בעבר, 13 00:00:36,849 --> 00:00:38,454 והגדרה של הצלחה, 14 00:00:38,454 --> 00:00:40,661 מה שאתם רוצים או מקווים לו. 15 00:00:41,123 --> 00:00:46,320 האלגוריתם לומד ע"י... 16 00:00:46,320 --> 00:00:49,739 האלגוריתם מזהה מה מתקשר להצלחה. 17 00:00:49,739 --> 00:00:52,202 אילו מצבים מובילים להצלחה? 18 00:00:52,881 --> 00:00:54,517 בעצם, כולנו משתמשים באלגוריתמים, 19 00:00:54,517 --> 00:00:57,139 אבל לא מנסחים אותם בצורת קוד כתוב. 20 00:00:57,139 --> 00:00:58,181 אתן לכם דוגמה. 21 00:00:58,181 --> 00:01:01,517 אני משתמשת בכל יום באלגוריתם כדי להכין למשפחתי ארוחה. 22 00:01:02,121 --> 00:01:03,597 הנתונים בהם אני משתמשת 23 00:01:04,394 --> 00:01:05,907 הם המוצרים במטבח שלי, 24 00:01:05,907 --> 00:01:07,528 הזמן שעומד לרשותי, 25 00:01:07,528 --> 00:01:08,765 השאיפות שלי, 26 00:01:08,765 --> 00:01:10,478 ואני מארגנת את הנתונים. 27 00:01:10,478 --> 00:01:14,869 אני לא מחשיבה "מנה חמה" כמזון. 28 00:01:14,893 --> 00:01:16,762 (צחוק) 29 00:01:16,786 --> 00:01:18,631 ההגדרה שלי להצלחה: 30 00:01:18,655 --> 00:01:21,314 ארוחה נחשבת למוצלחת אם הילדים שלי אוכלים ירקות. 31 00:01:22,181 --> 00:01:24,919 אם בני הצעיר יהיה אחראי לכך זה יהיה אחרת לגמרי. 32 00:01:24,919 --> 00:01:27,847 הוא יגיד שהצלחה פירושה שהוא אכל הרבה חמאת-בוטנים. 33 00:01:29,179 --> 00:01:31,405 אבל אני היא זו שבוחרת מהי הצלחה. 34 00:01:31,429 --> 00:01:34,020 אני האחראית. הדעה שלי קובעת. 35 00:01:34,020 --> 00:01:36,739 זהו החוק הראשון של האלגוריתמים. 36 00:01:36,739 --> 00:01:40,039 אלגוריתמים הם דעות שמוטמעות בקוד. 37 00:01:41,562 --> 00:01:45,039 זה שונה מאד ממה שרוב האנשים חושבים על אלגוריתמים. 38 00:01:45,039 --> 00:01:49,753 הם חושבים שהאלגוריתמים הם אובייקטיביים, נכונים ומדעיים. 39 00:01:50,387 --> 00:01:52,086 זו תחבולה שיווקית. 40 00:01:53,269 --> 00:01:55,394 תחבולה שיווקית נוספת 41 00:01:55,418 --> 00:01:58,572 היא להפחיד אתכם באלגוריתמים, 42 00:01:58,596 --> 00:02:02,101 כדי שתבטחו בהם ותחששו מהם 43 00:02:02,101 --> 00:02:04,299 כי אתם בוטחים במתמטיקה וחוששים ממנה. 44 00:02:05,567 --> 00:02:10,397 הרבה יכול להשתבש כשאנחנו נותנים אמון עיוור בנתוני-עתק. 45 00:02:11,684 --> 00:02:14,851 זו קירי סוארז, מנהלת בי"ס תיכון בברוקלין. 46 00:02:14,851 --> 00:02:17,667 ב-2011 היא אמרה לי שהמורים שלה מדורגים 47 00:02:17,691 --> 00:02:20,418 בעזרת אלגוריתם סודי ומורכב, 48 00:02:20,442 --> 00:02:21,931 שנקרא "מודל הערך המוסף". 49 00:02:22,405 --> 00:02:24,681 אמרתי לה, "תבררי מהי הנוסחה ותראי לי אותה. 50 00:02:24,681 --> 00:02:26,742 "אני אסביר לך אותה" 51 00:02:26,946 --> 00:02:28,801 היא אמרה, "ניסיתי לקבל את הנוסחה. 52 00:02:28,801 --> 00:02:31,737 "אך במשרד החינוך אמרו לי שזאת מתמטיקה, 53 00:02:31,737 --> 00:02:33,693 "ושאני לא אבין אותה." 54 00:02:35,266 --> 00:02:36,604 זה נהיה יותר גרוע. 55 00:02:36,628 --> 00:02:40,158 ה"ניו-יורק פוסט" הגיש בקשה לפי חוק חופש המידע. 56 00:02:40,182 --> 00:02:42,725 קיבל את כל שמות המורים והדירוג שלהם, 57 00:02:42,725 --> 00:02:45,947 ופירסם אותן כצעד של ביוש מורים. 58 00:02:46,664 --> 00:02:50,698 כשניסיתי להשיג את הנוסחאות, את הקוד המקורי, באותם האמצעים, 59 00:02:50,698 --> 00:02:52,941 אמרו לי, "אי-אפשר". 60 00:02:52,941 --> 00:02:54,141 דחו אותי. 61 00:02:54,141 --> 00:02:55,339 מאוחר יותר גיליתי 62 00:02:55,339 --> 00:02:58,249 שלאף אחד בעיר ניו-יורק אין גישה לנוסחה ההיא. 63 00:02:58,249 --> 00:02:59,984 שאיש לא מבין אותה. 64 00:03:01,929 --> 00:03:05,153 ואז נכנס לתמונה מישהו ממש חכם. גרי רובינשטיין. 65 00:03:05,177 --> 00:03:10,482 הוא זיהה בנתוני ה"ניו-יורק פוסט" 665 מורים עם שני דירוגים. 66 00:03:10,482 --> 00:03:14,633 זה יכול היה לקרות אם הם לימדו מתמטיקה בכיתות ז' וגם בכיתות ח'. 67 00:03:15,080 --> 00:03:16,618 הוא החליט להציג זאת בגרף. 68 00:03:16,642 --> 00:03:18,635 כל נקודה מסמלת מורה. 69 00:03:19,104 --> 00:03:21,483 (צחוק) 70 00:03:21,507 --> 00:03:23,028 מה זה? 71 00:03:23,052 --> 00:03:24,329 (צחוק) 72 00:03:24,353 --> 00:03:27,603 זה לא משהו שאמור לשמש לצורך הערכות אישיות. 73 00:03:27,603 --> 00:03:29,463 זהו כמעט מחולל מספרים אקראי. 74 00:03:29,463 --> 00:03:32,509 (מחיאות כפיים) 75 00:03:32,509 --> 00:03:33,549 אך זה שימש לכך. 76 00:03:33,549 --> 00:03:37,019 זוהי שרה וויסוקי. היא פוטרה יחד עם עוד 205 מורים 77 00:03:37,019 --> 00:03:39,990 מהמחוז הבית-סיפרי של וושינגטון הבירה, 78 00:03:40,014 --> 00:03:42,757 למרות שהיו לה המלצות מעולות מהנהלת ביה"ס 79 00:03:42,757 --> 00:03:45,160 וגם מההורים של הילדים שלימדה. 80 00:03:45,160 --> 00:03:46,816 אני יודעת שרבים מכם חושבים, 81 00:03:46,816 --> 00:03:49,933 במיוחד חוקרי הנתונים ומומחי הבינה המלאכותית שכאן, 82 00:03:49,957 --> 00:03:54,183 "אני אף פעם לא אכתוב אלגוריתם כל-כך לא עיקבי." 83 00:03:54,853 --> 00:03:56,420 אבל אלגוריתמים יכולים לטעות, 84 00:03:56,420 --> 00:04:01,158 ואפילו לגרום לתוצאות הרסניות ביותר מתוך כוונות טובות. 85 00:04:02,271 --> 00:04:06,479 ובעוד שמטוס שתוכנן גרוע מתרסק וכולם רואים זאת, 86 00:04:06,479 --> 00:04:08,809 הרי כשאלגוריתם מעוצב גרוע, 87 00:04:10,245 --> 00:04:14,110 הוא יכול לעבוד הרבה זמן ולזרוע בשקט תוהו. 88 00:04:15,748 --> 00:04:17,318 זהו רוג'ר איילס. 89 00:04:17,342 --> 00:04:19,342 (צחוק) 90 00:04:20,524 --> 00:04:22,912 הוא ייסד את "חדשות פוקס" ב-1996. 91 00:04:23,436 --> 00:04:25,921 יותר מ-20 נשים התלוננו על הטרדה מינית 92 00:04:25,921 --> 00:04:29,050 ואמרו שהן לא הירשו להן להצליח ב"חדשות פוקס". 93 00:04:29,050 --> 00:04:31,820 הוא הודח בשנה שעברה, אך לאחרונה נודע לנו 94 00:04:32,204 --> 00:04:34,514 שהבעיה נמשכת. 95 00:04:35,654 --> 00:04:36,938 נשאלת השאלה: 96 00:04:36,938 --> 00:04:39,962 מה צריכה רשת "חדשות פוקס" לעשות כדי לפתוח דף חדש? 97 00:04:41,245 --> 00:04:43,980 מה אם הם יחליפו את תהליך ההעסקה שלהם 98 00:04:43,980 --> 00:04:45,678 באלגוריתם של למידת-מכונה? 99 00:04:45,678 --> 00:04:47,467 נשמע טוב, נכון? 100 00:04:47,467 --> 00:04:48,721 חישבו על זה. 101 00:04:48,721 --> 00:04:50,840 הנתונים, מה הם יהיו? 102 00:04:50,840 --> 00:04:55,911 הגיוני שאלה יהיו נתוני 21 השנים האחרונות של בקשות עבודה ב"חדשות פוקס". 103 00:04:55,911 --> 00:04:57,283 הגיוני. 104 00:04:57,557 --> 00:04:59,495 מה לגבי ההגדרה להצלחה? 105 00:04:59,921 --> 00:05:01,305 בחירה הגיונית תהיה, 106 00:05:01,305 --> 00:05:03,077 מי מצליח ב"חדשות פוקס"? 107 00:05:03,077 --> 00:05:06,135 אולי מישהו שעובד שם כבר 4 שנים, 108 00:05:06,135 --> 00:05:08,329 וקיבל קידום לפחות פעם אחת. 109 00:05:08,816 --> 00:05:10,271 נשמע הגיוני. 110 00:05:10,271 --> 00:05:12,579 ואז האלגוריתם יעבור לימוד. 111 00:05:12,579 --> 00:05:16,656 הוא ילמד לחפש אנשים כדי ללמוד מה הוביל להצלחה, 112 00:05:17,219 --> 00:05:21,431 אילו מועמדים הפכו לעובדים מוצלחים, 113 00:05:21,431 --> 00:05:23,065 לפי ההגדרה הזו. 114 00:05:23,999 --> 00:05:28,554 עכשיו חישבו מה יקרה אם ניישם זאת למאגר מועמדים בהווה: 115 00:05:29,119 --> 00:05:30,748 האלגוריתם יסנן החוצה נשים, 116 00:05:31,663 --> 00:05:35,593 כי הן אינן דומות לאנשים שהצליחו בעבר. 117 00:05:39,752 --> 00:05:42,183 האלגוריתמים אינם מתקנים את העולם 118 00:05:42,183 --> 00:05:44,791 אם מיישמים אותם בשמחה ובעיוורון 119 00:05:44,791 --> 00:05:46,377 הם לא מתקנים את העולם 120 00:05:46,377 --> 00:05:48,509 אלא רק חוזרים על מה שעשינו בעבר, 121 00:05:48,509 --> 00:05:49,726 על הדפוסים שלנו. 122 00:05:49,726 --> 00:05:51,835 הם הופכים את המצב הקיים לאוטומטי. 123 00:05:52,718 --> 00:05:55,107 היה נהדר אם היה לנו עולם מושלם, 124 00:05:55,905 --> 00:05:57,171 אבל אין לנו. 125 00:05:57,171 --> 00:06:01,343 ואני אוסיף שרוב החברות לא מתמודדות עם תביעות מביכות, 126 00:06:02,446 --> 00:06:06,604 אבל מומחי הנתונים בחברות אלה מחוייבים לציית לנתונים, 127 00:06:07,091 --> 00:06:09,414 להתמקד בדיוק. 128 00:06:10,093 --> 00:06:11,418 חישבו מה זה אומר, 129 00:06:11,418 --> 00:06:12,961 הרי לכולנו יש הטיות. 130 00:06:12,961 --> 00:06:15,705 אולי הם מתכנתים לאפליה על רקע מין, 131 00:06:15,729 --> 00:06:17,565 או כל סוג אחר של גזענות. 132 00:06:19,488 --> 00:06:20,873 ניסוי מחשבתי, 133 00:06:20,873 --> 00:06:22,442 כי אני אוהבת כאלה: 134 00:06:23,574 --> 00:06:26,549 דמיינו חברה שלמה שמופרדת לפי גזעים: 135 00:06:28,247 --> 00:06:31,575 כל העיירות, כל השכונות, 136 00:06:31,599 --> 00:06:35,876 ואת המשטרה שולחים לחפש פשיעה רק בשכונות של מיעוטים. 137 00:06:36,451 --> 00:06:38,670 נתוני המעצרים יהיו מוטים בצורה מובהקת. 138 00:06:39,851 --> 00:06:42,310 מה אם בנוסף, מצאנו מומחה לנתונים 139 00:06:42,310 --> 00:06:46,611 ושילמנו לו כדי שינבא איפה יקרה הפשע הבא? 140 00:06:47,275 --> 00:06:48,762 שכונת מיעוטים. 141 00:06:49,285 --> 00:06:52,410 או כדי שינבא מי יהיה הפושע הבא? 142 00:06:52,888 --> 00:06:54,283 בן מיעוטים. 143 00:06:55,949 --> 00:07:00,410 מומחי הנתונים יתפארו כמה נהדר ומדוייק המודל שלהם. 144 00:07:00,685 --> 00:07:01,984 והם יצדקו. 145 00:07:03,951 --> 00:07:08,450 המציאות לא כל כך דרסטית, אבל יש לנו באמת הפרדה חמורה 146 00:07:08,450 --> 00:07:09,791 בערים ועיירות רבות, 147 00:07:09,791 --> 00:07:11,794 ויש לנו שפע ראיות 148 00:07:11,818 --> 00:07:14,506 להטיות בנתונים המשטרתיים מוטים ובמערכת המשפט. 149 00:07:15,632 --> 00:07:18,447 ואנחנו אכן חוזים נקודות סיכון, 150 00:07:18,471 --> 00:07:20,001 מקומות בהם יקרו פשעים. 151 00:07:20,401 --> 00:07:24,267 ואנחנו גם מנבאים את מידת הנטיה האישית לפשוע. 152 00:07:24,291 --> 00:07:26,061 את נטייתם של אנשים מסויימים לפשוע. 153 00:07:26,972 --> 00:07:30,649 סוכנות החדשות "פרופבליקה" בחנה לאחרונה 154 00:07:30,649 --> 00:07:32,617 אחד אותם אלגוריתמים ל"ניבוי הישנות פשיעה" 155 00:07:32,617 --> 00:07:34,054 כמו שקוראים להם. 156 00:07:34,054 --> 00:07:37,388 בפלורידה משתמשים בהם שופטים בזמן חריצת גזר הדין. 157 00:07:38,411 --> 00:07:41,996 ברנרד, משמאל, הגבר השחור קיבל 10 נקודות מתך 10. 158 00:07:43,179 --> 00:07:45,186 דילן, מימין - 3 מתוך 10. 159 00:07:45,210 --> 00:07:47,711 10 מתוך 10 - סיכון גבוה. 3 מתוך 10 - סיכון נמוך. 160 00:07:48,598 --> 00:07:50,983 שניהם נעצרו על החזקת סמים. 161 00:07:51,007 --> 00:07:52,161 לשניהם היה כבר תיק. 162 00:07:52,185 --> 00:07:54,991 אבל דילן עבר עבירה 163 00:07:55,015 --> 00:07:56,191 וברנרד - לא. 164 00:07:57,818 --> 00:08:00,884 זה משנה, כי ככל שתקבל ניקוד יותר גבוה, 165 00:08:00,908 --> 00:08:04,381 גובר הסיכוי שתקבל עונש מאסר ארוך יותר. 166 00:08:06,294 --> 00:08:07,588 מה קורה פה? 167 00:08:08,526 --> 00:08:09,858 הלבנת נתונים. 168 00:08:10,930 --> 00:08:15,191 זהו תהליך שבו אנשי הטכנולוגיה מסתירים אמיתות מכוערות 169 00:08:15,191 --> 00:08:16,986 בתוך אלגוריתמים חתומים 170 00:08:16,986 --> 00:08:18,516 ואומרים שהם "אובייקטיביים", 171 00:08:19,320 --> 00:08:20,888 שזאת מריטוקרטיה. 172 00:08:22,907 --> 00:08:28,014 טבעתי כינוי לאלגוריתמים סודיים, חשובים והרסניים אלו: 173 00:08:28,038 --> 00:08:29,951 "נשק להשמדה מתמטית". 174 00:08:29,951 --> 00:08:31,539 (צחוק) 175 00:08:31,539 --> 00:08:34,587 (מחיאות כפיים) 176 00:08:34,587 --> 00:08:37,081 הם בכל מקום וזו לא טעות: 177 00:08:37,695 --> 00:08:41,062 מדובר בחברות פרטיות שכותבות אלגוריתמים פרטיים 178 00:08:41,062 --> 00:08:42,834 לצרכיהן הפרטיים. 179 00:08:43,214 --> 00:08:46,428 אפילו אלו שהזכרתי, שמשמשים להערכה של מורים ולשיטור 180 00:08:46,452 --> 00:08:49,951 נכתבו בידי חברות פרטיות ונמכרו למוסדות ממשלתיים. 181 00:08:50,430 --> 00:08:52,397 הם אומרים שזה "הרוטב הסודי" שלהם 182 00:08:52,397 --> 00:08:54,549 ולכן אינם יכולים לחשוף אותו. 183 00:08:54,549 --> 00:08:56,869 זהו גם כוח פרטי. 184 00:08:57,924 --> 00:09:02,619 הם מרוויחים מהפעלת כוח העמימות. 185 00:09:05,114 --> 00:09:07,702 אתם יכולים לחשוב, "בגלל שכל זה פרטי 186 00:09:07,702 --> 00:09:08,954 "וישנה תחרות, 187 00:09:08,954 --> 00:09:11,414 "השוק החופשי אולי יפתור את הבעיה." 188 00:09:11,414 --> 00:09:12,617 לא נכון. 189 00:09:12,617 --> 00:09:15,977 אפשר להרוויח הרבה כסף מחוסר הוגנות. 190 00:09:17,127 --> 00:09:20,496 אנחנו גם לא יצורים רציונליים מבחינה כלכלית 191 00:09:20,871 --> 00:09:22,323 לכולנו דעות קדומות. 192 00:09:22,960 --> 00:09:26,337 כולנו גזענים ומוטים למרות שהיינו מעדיפים לא להיות כאלה, 193 00:09:26,361 --> 00:09:28,380 ובדרכים שאיננו אפילו יודעים. 194 00:09:29,352 --> 00:09:32,433 אבל אנחנו יודעים שבמצטבר, 195 00:09:32,457 --> 00:09:35,491 בגלל שסוציולוגים מראים באופן עקבי 196 00:09:35,491 --> 00:09:37,230 בניסויים שהם עורכים, 197 00:09:37,230 --> 00:09:39,692 שבהם הם שולחים למעסיקים הרבה קורות חיים 198 00:09:39,692 --> 00:09:41,967 עם כישורים זהים, כשחלק מהשמות נשמעים "לבנים", 199 00:09:41,967 --> 00:09:44,213 ושמות אחרים נשמעים "שחורים", 200 00:09:44,237 --> 00:09:46,931 והתוצאות של הניסויים תמיד מאכזבות, תמיד. 201 00:09:47,510 --> 00:09:49,185 אז אנחנו בעלי הדעות הקדומות, 202 00:09:49,185 --> 00:09:52,734 ואנחנו מחדירים את ההטיות האלו לתוך האלגוריתמים 203 00:09:52,758 --> 00:09:54,570 בכך שאנו בוחרים אילו נתונים יש לאסוף, 204 00:09:54,594 --> 00:09:57,337 כמו שאני החלטתי לא להתייחס ל"מנה חמה"- 205 00:09:57,361 --> 00:09:58,986 החלטתי שהיא איננה רלוונטית. 206 00:09:59,010 --> 00:10:06,546 אבל אם אנחנו בוטחים בנתונים ובהגדרת ההצלחה על יסוד גישות קודמות, 207 00:10:06,546 --> 00:10:10,739 איך אנחנו יכולים לצפות שהאלגוריתמים ייצאו ללא פגע? 208 00:10:10,763 --> 00:10:13,119 ממש לא. אנחנו מוכרחים לבדוק אותם. 209 00:10:14,165 --> 00:10:15,788 אנחנו מוכרחים לוודא שהם הוגנים. 210 00:10:15,788 --> 00:10:18,609 החדשות הטובות הן: זה אפשרי. 211 00:10:18,633 --> 00:10:21,985 אפשר לחקור אלגוריתמים 212 00:10:22,009 --> 00:10:24,043 והם יגידו לנו תמיד את האמת. 213 00:10:24,067 --> 00:10:26,560 ואנחנו יכולים לתקן ולשפר אותם. 214 00:10:26,584 --> 00:10:28,959 אני קוראת לזה "בדיקת אלגוריתם" 215 00:10:28,983 --> 00:10:30,662 אסביר לכם איך זה נעשה. 216 00:10:30,686 --> 00:10:32,882 ראשית מוודאים את שלמות הנתונים. 217 00:10:34,132 --> 00:10:36,789 באלגוריתם "הישנות הפשיעה" שהזכרתי, 218 00:10:37,582 --> 00:10:41,155 בדיקת שלמות הנתונים פירושה שמוכרחים להשלים עם העובדה 219 00:10:41,179 --> 00:10:44,705 שבארה"ב, הלבנים והשחורים מעשנים מריחואנה באותה מידה 220 00:10:44,729 --> 00:10:47,088 אבל לשחורים יש סיכוי גבוה יותר להיעצר - 221 00:10:47,088 --> 00:10:50,422 סיכוי גבוה פי ארבעה או חמישה, תלוי באיזור. 222 00:10:51,317 --> 00:10:54,143 איך נראית ההטיה בתחומי פשע אחרים, 223 00:10:54,167 --> 00:10:55,618 ואיך אנחנו מסבירים אותה? 224 00:10:56,162 --> 00:10:59,201 שנית, אנחנו צריכים להגדיר מחדש מהי הצלחה. 225 00:10:59,225 --> 00:11:00,606 לבדוק את הנושא. 226 00:11:00,630 --> 00:11:03,176 זוכרים את האלגוריתם לשכירת עובדים? דיברנו על זה. 227 00:11:03,176 --> 00:11:06,571 עובד המועסק כבר ארבע שנים וקודם פעם אחת? 228 00:11:06,595 --> 00:11:08,108 זה באמת עובד מצליח, 229 00:11:08,108 --> 00:11:11,467 אבל זה גם עובד שהסביבה התרבותית תומכת בו. 230 00:11:12,089 --> 00:11:14,015 אבל גם כאן יכולות להיות דעות קדומות. 231 00:11:14,039 --> 00:11:16,104 צריך להפריד בין שני הדברים. 232 00:11:16,128 --> 00:11:19,434 למשל בבחינות קבלה עיוורות, 233 00:11:19,468 --> 00:11:22,554 כשהבוחנים נמצאים מאחורי מסך. 234 00:11:22,946 --> 00:11:24,877 אני רוצה לחשוב שכאן, 235 00:11:24,901 --> 00:11:29,915 האנשים המקשיבים הם שהחליטו מה חשוב ומה לא, 236 00:11:29,915 --> 00:11:32,454 ודעתם לא מוסחת ע"י זה. 237 00:11:32,961 --> 00:11:35,710 כשהתחילו המבחנים העיוורים, 238 00:11:35,734 --> 00:11:39,178 מספר הנשים המנגנות בתזמורת גדל פי חמש. 239 00:11:40,253 --> 00:11:42,268 הבא בתור הוא הדיוק. 240 00:11:43,233 --> 00:11:46,967 כאן אלגוריתם הערך המוסף לדירוג מורים ייכשל מיד. 241 00:11:47,578 --> 00:11:49,740 אין אלגוריתם מושלם, כמובן, 242 00:11:50,620 --> 00:11:54,225 אז צריך לקחת בחשבון את השגיאות של כל אלגוריתם: 243 00:11:54,836 --> 00:11:59,195 כמה ומתי הן קורות ועם מי המודל הזה נכשל? 244 00:11:59,620 --> 00:12:01,568 מהו המחיר של הכשלון הזה? 245 00:12:02,434 --> 00:12:04,641 ולסיום, אנחנו מוכרחים לקחת בחשבון 246 00:12:05,973 --> 00:12:08,159 את ההשפעות ארוכות הטווח של האלגוריתמים, 247 00:12:08,866 --> 00:12:11,073 של לולאות המשוב שנוצרות. 248 00:12:11,426 --> 00:12:12,706 זה נשמע מופשט, 249 00:12:12,706 --> 00:12:15,510 אבל מה אם מהנדסי "פייסבוק" היו לוקחים זאת בחשבון 250 00:12:16,270 --> 00:12:21,125 בטרם החליטו להראות לנו רק מה ששיתפו החברים שלנו. 251 00:12:21,761 --> 00:12:24,995 יש לי עוד שני מסרים, אחד למתכנתים באשר הם: 252 00:12:25,450 --> 00:12:28,859 מתכנתים: אסור לנו לתווך את האמת. 253 00:12:29,520 --> 00:12:33,303 אנחנו צריכים לתת ביטוי לדיוני מוסר שמתקיימים 254 00:12:33,327 --> 00:12:34,621 בחברה כולה. 255 00:12:35,579 --> 00:12:37,712 (מחיאות כפיים) 256 00:12:37,736 --> 00:12:39,292 ולשאר האנשים, 257 00:12:39,861 --> 00:12:41,211 אלו שאינם עוסקים במידע: 258 00:12:41,211 --> 00:12:42,929 לא מדובר במבחן במתמטיקה, 259 00:12:43,632 --> 00:12:44,980 אלא במאבק פוליטי. 260 00:12:46,587 --> 00:12:50,924 אנחנו צריכים לדרוש משליטי האלגוריתמים לקחת אחריות. 261 00:12:52,118 --> 00:12:53,617 (מחיאות כפיים) 262 00:12:53,641 --> 00:12:57,720 עידן האמון העיוור בנתונים חייב להסתיים. 263 00:12:57,720 --> 00:12:59,001 תודה רבה. 264 00:12:59,001 --> 00:13:04,384 (מחיאות כפיים)