Return to Video

תעלומת הצ'יפס המקורזל: למה ה"לייקים" של המדיה החברתית אומרים יותר ממה שאתם חושבים.

  • 0:01 - 0:03
    אם אתם זוכרים את העשור הראשון של האינטרנט,
  • 0:03 - 0:05
    זה היה באמת מקום סטטי.
  • 0:05 - 0:07
    יכולתם להיכנס לרשת, להסתכל על דפים,
  • 0:07 - 0:10
    והם הועלו או על ידי ארגונים
  • 0:10 - 0:11
    שהיו להם צוותים שעשו את זה
  • 0:11 - 0:13
    או על ידי אנשים פרטיים שהיו ממש טכנולגיים
  • 0:13 - 0:15
    באותו הזמן.
  • 0:15 - 0:17
    ועם העליה של המדיה החברתית
  • 0:17 - 0:19
    והרשתות החברתיות בתחילת שנות ה 2000,
  • 0:19 - 0:21
    הרשת השתנתה לגמרי
  • 0:21 - 0:25
    למקום שבו עכשיו רוב התוכן
  • 0:25 - 0:28
    אותו אנו צורכים
    מועלה על ידי המשתמש הממוצע,
  • 0:28 - 0:31
    בין אם בסרטוני יוטיוב או פוסטים בבלוג
  • 0:31 - 0:34
    או ביקורות מוצרים או פוסטים במדיה החברתית.
  • 0:34 - 0:37
    וזה גם הפך למקום הרבה יותר אינטראקטיבי,
  • 0:37 - 0:39
    שם אנשים מתקשרים עם אחרים,
  • 0:39 - 0:41
    הם מגיבים, הם חולקים,
  • 0:41 - 0:43
    הם לא רק קוראים.
  • 0:43 - 0:44
    אז פייסבוק הוא לא המקום היחיד לעשות זאת.
  • 0:44 - 0:46
    אבל הוא הגדול ביותר,
  • 0:46 - 0:47
    והוא משמש כדי להדגים את המספרים.
  • 0:47 - 0:51
    לפייסבוק יש 1.2 מיליארד משתמשים לחודש.
  • 0:51 - 0:53
    אז חצי מאוכלוסית האינטרנט העולמית
  • 0:53 - 0:54
    משתמשת בפייסבוק.
  • 0:54 - 0:56
    הם אתר, יחד עם אחרים,
  • 0:56 - 1:00
    שאיפשר לאנשים ליצור ישות אינטרנטית
  • 1:00 - 1:01
    עם מעט מאוד כישורים טכניים,
  • 1:01 - 1:04
    ואנשים הגיבו בלהעלות כמויות עצומות
  • 1:04 - 1:06
    של מידע אישי לרשת.
  • 1:06 - 1:08
    אז התוצאה היא שיש לנו מידע
  • 1:08 - 1:10
    התנהגותי, דמוגרפי והעדפות
  • 1:10 - 1:12
    של מאות מליוני אנשים,
  • 1:12 - 1:14
    שזה מעולם לא קרה בהסטוריה.
  • 1:14 - 1:17
    וכמדענית מחשב, מה שזה אומר
  • 1:17 - 1:19
    זה שהייתי מסוגלת לבנות מודלים
  • 1:19 - 1:21
    שיכולים לצפות כל מיני תכונות חבויות
  • 1:21 - 1:23
    עבור כולכם שאתם אפילו לא ידעתם
  • 1:23 - 1:25
    שאתם חולקים מידע עליהן.
  • 1:25 - 1:28
    כמדענים, אנחנו משתמשים בזה כדי לעזור
  • 1:28 - 1:30
    לאנשים בדרך שבה הם מתקשרים ברשת.
  • 1:30 - 1:32
    אבל יש ישומים פחות אלטרואיסטים,
  • 1:32 - 1:35
    ויש בעיה בזה שמתשמשים לא באמת
  • 1:35 - 1:37
    מבינים את הטכניקות ואיך הן עובדות,
  • 1:37 - 1:40
    ואפילו אם הם הבינו,
    אין להם הרבה שליטה על זה.
  • 1:40 - 1:42
    אז מה שאני רוצה לספר לכם היום
  • 1:42 - 1:45
    זה חלק מהדברים שאנחנו יכולים לעשות,
  • 1:45 - 1:47
    ואז לתת לכם כמה רעיונות על איך נמשיך מפה
  • 1:47 - 1:50
    להזיז קצת שליטה חזרה לידיים של המשתמשים.
  • 1:50 - 1:52
    אז זו טארגט, החברה.
  • 1:52 - 1:53
    לא סתם שמתי את הלוגו
  • 1:53 - 1:55
    על הבטן של האישה ההריונית המסכנה הזו.
  • 1:55 - 1:57
    אתם אולי ראיתם את האנקדוטה הזו מודפסת
  • 1:57 - 1:59
    במגזין פורבס כשטארגט
  • 1:59 - 2:02
    שלחה עלון לבת ה15 הזו
  • 2:02 - 2:03
    עם פרסומות וקופונים
  • 2:03 - 2:06
    לבקבוקי תינוקות וחיתולים ועריסות
  • 2:06 - 2:07
    שבועיים לפני שאמרה להוריה
  • 2:07 - 2:09
    שהיא בהריון,
  • 2:09 - 2:12
    כן, האבא היה ממש עצבני.
  • 2:12 - 2:14
    הוא אמר, "איך טארגט הבינו
  • 2:14 - 2:16
    שנערה בתיכון בהריון
  • 2:16 - 2:18
    לפני שהיא אמרה להוריה?"
  • 2:18 - 2:20
    מסתבר שיש להם את הסטורית הרכישות
  • 2:20 - 2:22
    למאות אלפי לקוחות
  • 2:22 - 2:25
    והם מחשבים את מה שהם קוראים לו ציון הריון,
  • 2:25 - 2:28
    שזה לא רק אם אישה בהריון,
  • 2:28 - 2:29
    אלא מתי התאריך המיועד.
  • 2:29 - 2:31
    והם מחשבים את זה
  • 2:31 - 2:32
    לא על ידי הסתכלות על דברים ברורים,
  • 2:32 - 2:35
    כמו, היא קונה עריסה או בגדי תינוק,
  • 2:35 - 2:38
    אלא דברים כמו, היא קנתה יותר ויטמינים
  • 2:38 - 2:39
    משהיא בדרך כלל קונה,
  • 2:39 - 2:41
    או שהיא קנתה תיק
  • 2:41 - 2:43
    שמספיק גדול להחזיק חיתולים.
  • 2:43 - 2:45
    ובעצמן, למרות שהקניות האלה לא נראות
  • 2:45 - 2:47
    כאילו הן מגלות הרבה,
  • 2:47 - 2:49
    אבל זו תבנית התנהגות,
  • 2:49 - 2:52
    שכשאתם מכניסים את זה
    להקשר של אלפי אנשים אחרים,
  • 2:52 - 2:55
    מתחילה למעשה לגלות תובנות.
  • 2:55 - 2:57
    אז זה סוג הדברים שאנחנו עושים
  • 2:57 - 2:59
    כשאנחנו חוזים דברים עליכם במדיה החברתית.
  • 2:59 - 3:02
    אנחנו מחפשים תבניות זעירות של התנהגות,
  • 3:02 - 3:05
    שכשמזהים אותן בין מליוני אנשים,
  • 3:05 - 3:07
    נותנות לנו למצוא כל מיני דברים.
  • 3:07 - 3:09
    אז במעבדה שלי ועם שותפים,
  • 3:09 - 3:11
    אנחנו פיתחנו מכאניזמים
    איתם אנחנו יכולים
  • 3:11 - 3:13
    לחזות די במדוייק דברים
  • 3:13 - 3:14
    כמו העדפות פוליטיות,
  • 3:14 - 3:18
    ציון האישיות שלכם, מין, העדפות מיניות,
  • 3:18 - 3:21
    דת, גיל, רמת אינטיליגנציה,
  • 3:21 - 3:22
    יחד עם דברים כמו
  • 3:22 - 3:24
    כמה אתם בוטחים באנשים אותם אתם מכירים
  • 3:24 - 3:26
    וכמה חזקים הקשרים האלה.
  • 3:26 - 3:28
    אנחנו יכולים לעשות את זה ממש טוב.
  • 3:28 - 3:30
    ושוב, זה לא מגיע ממה שאתם אולי
  • 3:30 - 3:32
    חושבים כמידע ברור.
  • 3:32 - 3:34
    אז הדוגמה האהובה עלי היא ממחקר
  • 3:34 - 3:36
    שפורסם השנה
  • 3:36 - 3:37
    בפרסומים של האקדמיה הלאומית.
  • 3:37 - 3:39
    אם תגגלו את זה, אתם תמצאו אותו.
  • 3:39 - 3:41
    זה ארבעה דפים, קלים לקריאה.
  • 3:41 - 3:44
    והם הסתכלו רק על לייקים של אנשים בפייסבוק,
  • 3:44 - 3:45
    אז רק הדברים שאתם אוהבים בפייסבוק,
  • 3:45 - 3:48
    והשתמשו בזה כדי לחזות את כל התכונות האלה,
  • 3:48 - 3:49
    יחד עם כמה אחרות.
  • 3:49 - 3:52
    ובמאמר שלהם הם ציינו את חמשת הלייקים
  • 3:52 - 3:55
    שהכי הראו אינטיליגנציה גבוהה.
  • 3:55 - 3:57
    ובינהם היה לייק לדף
  • 3:57 - 3:59
    לצ'יפסים מקורזלים. (צחוק)
  • 3:59 - 4:01
    צ'יפסים מקורזלים הם ממש טעימים,
  • 4:01 - 4:04
    אבל אהבה שלהם לא בהכרח אומרת
  • 4:04 - 4:06
    שאתם אדם חכם מהממוצע.
  • 4:06 - 4:09
    אז איך אחד המדדים החזקים ביותר
  • 4:09 - 4:11
    לאינטליגנציה שלכם
  • 4:11 - 4:12
    הוא אהבת הדף הזה
  • 4:12 - 4:14
    כשהתוכן לחלוטין לא רלוונטי
  • 4:14 - 4:17
    לתכונות שנצפות?
  • 4:17 - 4:19
    ומסתבר שאנחנו צריכים להביט
  • 4:19 - 4:20
    בקבוצה שלמה של תאוריות
  • 4:20 - 4:23
    כדי לראות למה אנחנו מסוגלים לעשות את זה.
  • 4:23 - 4:26
    אחת מהן היא תאוריה סוציולוגית
    שנקראת הומופיליה,
  • 4:26 - 4:29
    שאומרת בעיקרון שאנשים
    חברים עם אנשים שדומים להם.
  • 4:29 - 4:31
    אז אם אתה חכם, אתה נוטה
    להיות חבר של אנשים חכמים,
  • 4:31 - 4:33
    ואם אתה הצעיר, אתה נוטה
    להיות חבר של אנשים צעירים,
  • 4:33 - 4:35
    וזה מוכח היטב
  • 4:35 - 4:37
    מאות שנים.
  • 4:37 - 4:38
    אנחנו גם יודעים הרבה
  • 4:38 - 4:41
    על איך מידע מתפשט ברשתות.
  • 4:41 - 4:42
    מסתבר שדברים כמו סרטונים ויראליים
  • 4:42 - 4:45
    או לייקים של פייסבוק או מידע אחר
  • 4:45 - 4:47
    מתפשטים בדיוק באותה דרך
  • 4:47 - 4:49
    שמחלות מתפשטות ברשתות חברתיות.
  • 4:49 - 4:51
    אז זה משהו שחקרנו הרבה זמן.
  • 4:51 - 4:52
    יש לנו מודלים טובים של זה.
  • 4:52 - 4:55
    וכך אתם יכולים לחבר את הדברים האלה
  • 4:55 - 4:58
    ולהתחיל לראות למה דברים כאלה קורים.
  • 4:58 - 4:59
    אז אם הייתי נותנת לכם השערה,
  • 4:59 - 5:03
    היא תהיה שאדם חכם התחיל את הדף הזה,
  • 5:03 - 5:05
    או אולי אחד האנשים הראשונים שאהבו אותו
  • 5:05 - 5:06
    היה מקבל ציון גבוה במבחן הזה.
  • 5:06 - 5:09
    והם אהבו אותו, וחברים שלהם ראו אותו,
  • 5:09 - 5:12
    ודרך ההומופיליה, אנחנו יודעים
    שכנראה היו לו חברים חכמים,
  • 5:12 - 5:15
    אז זה התפשט אליהם, וכמה מהם אהבו את זה,
  • 5:15 - 5:16
    ולהם היו חברים חכמים,
  • 5:16 - 5:17
    וכך זה התפשט אליהם,
  • 5:17 - 5:19
    ואז זה חלחל דרך הרשת
  • 5:19 - 5:21
    להרבה אנשים חכמים,
  • 5:21 - 5:23
    אז בסוף, הפעולה
  • 5:23 - 5:26
    של אהבת דף הצ'יפסים המקורזלים
  • 5:26 - 5:28
    מעידה של אינטליגנציה גבוהה,
  • 5:28 - 5:29
    לא בגלל התוכן,
  • 5:29 - 5:32
    אלא בגלל הפעולה עצמה של אהבה
  • 5:32 - 5:34
    משקפת את התכונות המשותפות
  • 5:34 - 5:36
    של אנשים אחרים שעשו את זה.
  • 5:36 - 5:39
    אז אלה דברים די מסובכים, נכון?
  • 5:39 - 5:41
    זה קשה לשבת להסביר
  • 5:41 - 5:44
    למשתמש ממוצע, ואפילו אם אתם עושים זאת,
  • 5:44 - 5:46
    מה המשתמש הממוצע יכול לעשות בנוגע לזה?
  • 5:46 - 5:48
    איך אתם יודעים שאהבתם משהו
  • 5:48 - 5:50
    שמשקף תכונה שלכם
  • 5:50 - 5:53
    שלגמרי לא רלוונטית לתוכן של מה שאהבתם?
  • 5:53 - 5:56
    יש הרבה כוח שאין למשתמשים
  • 5:56 - 5:58
    כדי לשלוט באיך משתמשים במידע הזה.
  • 5:58 - 6:01
    ואני רואה בזה בעיה אמיתית בעתיד.
  • 6:01 - 6:03
    אז אני חושבת שיש כמה כיוונים
  • 6:03 - 6:04
    שנרצה לבחון
  • 6:04 - 6:06
    אם אנחנו רוצים לתת למשתמשים מעט שליטה
  • 6:06 - 6:08
    על איך משתמשים במידע הזה,
  • 6:08 - 6:10
    מפני שלא תמיד הוא יהיה בשימוש
  • 6:10 - 6:11
    לתועלתם.
  • 6:11 - 6:13
    דוגמה שאני נותנת לזה הרבה היא,
  • 6:13 - 6:14
    שאם אי פעם אשתעמם להיות פרופסורית,
  • 6:14 - 6:16
    אני אקים חברה
  • 6:16 - 6:17
    שחוזה את כל התכונות האלה
  • 6:17 - 6:19
    ודברים כמו כמה טוב אתם עובדים בצוות
  • 6:19 - 6:22
    ואם אתם משתמשים בסמים,
    אם אתם אלכוהוליסטים.
  • 6:22 - 6:23
    אנחנו יודעים איך לחזות את כל זה.
  • 6:23 - 6:25
    ואני אמכור דוחות
  • 6:25 - 6:27
    לחברות כוח אדם ועסקים גדולים
  • 6:27 - 6:29
    שרוצים להעסיק אתכם.
  • 6:29 - 6:31
    אנחנו לגמרי יכולים לעשות את זה עכשיו.
  • 6:31 - 6:32
    הייתי יכולה להתחיל את העסק הזה מחר,
  • 6:32 - 6:34
    ולא היתה לכם שליטה בכלל
  • 6:34 - 6:36
    על השימוש שלי במידע שלכם כך.
  • 6:36 - 6:39
    זו נראית לי בעיה גדולה.
  • 6:39 - 6:41
    אז אחת הדרכים שאננחו יכולים לבחור בה
  • 6:41 - 6:43
    היא המדיניות והחוק.
  • 6:43 - 6:46
    ובכמה הבטים, אני חושב
    שזה יהיה הכי אפקטיבי,
  • 6:46 - 6:49
    אבל הבעיה היא שלמעשה נצטרך לעשות את זה.
  • 6:49 - 6:51
    בהסתכלות על התהליך הפוליטי שלנו בפעולה
  • 6:51 - 6:54
    גורם לי לחשוב שזה מאוד לא סביר
  • 6:54 - 6:55
    שנשיג כמה נבחרים
  • 6:55 - 6:57
    לשבת, ללמוד את הנושא,
  • 6:57 - 6:59
    ואז להחיל שינויים מקיפים
  • 6:59 - 7:02
    על חוקי רכוש רעיוני בארה"ב.
  • 7:02 - 7:04
    כך שמשתמשים ישלטו במידע שלהם.
  • 7:04 - 7:05
    נוכל ללכת בדרך המדיניות,
  • 7:05 - 7:07
    שם חברות מדיה חברתית אומרות,
  • 7:07 - 7:08
    אתם יודעים מה? המידע בבעלותכם.
  • 7:08 - 7:11
    יש לכם שליטה מלאה בשימוש בו.
  • 7:11 - 7:13
    הבעיה היא שמודלי הרווחיות
  • 7:13 - 7:14
    לרוב חברות המדיה החברתית
  • 7:14 - 7:18
    נסמכים על ניצול המידע
    של המשתמש בדרך כלשהי.
  • 7:18 - 7:20
    לפעמים נאמר על פייסבוק שהמשתמשים
  • 7:20 - 7:23
    הם לא לקוחות, הם המוצר.
  • 7:23 - 7:25
    וכך איך אתם גורמים לחברה
  • 7:25 - 7:28
    לוותר על שליטה בנכס העיקרי שלהם
  • 7:28 - 7:29
    בחזרה למשתמשים?
  • 7:29 - 7:31
    זה אפשרי, אבל אני לא חושב שזה משהו
  • 7:31 - 7:33
    שאנחנו נראה משתנה במהירות.
  • 7:33 - 7:35
    אז אני חושבת שהדרך הנוספת
  • 7:35 - 7:37
    שאנחנו יכולים ללכת בה שתהיה יותר יעילה
  • 7:37 - 7:38
    היא זו של יותר מדע.
  • 7:38 - 7:41
    לעשות מדע זה מה שאפשר לנו לפתח
  • 7:41 - 7:43
    את כל המנגנונים למחשוב
  • 7:43 - 7:45
    המידע האישי מראש.
  • 7:45 - 7:47
    וזה למעשה מחקר מאוד דומה
  • 7:47 - 7:48
    שאנחנו צריכים לעשות
  • 7:48 - 7:51
    אם נרצה לפתח מנגנונים
  • 7:51 - 7:52
    שיכולים להגיד למשתמש,
  • 7:52 - 7:54
    "הנה הסיכונים של הפעולה הזו שעשית."
  • 7:54 - 7:56
    על ידי לחיצת לייק על דף פייסבוק מסויים,
  • 7:56 - 7:59
    או עלי ידי שיתוף פיסה זו של מידע אישי,
  • 7:59 - 8:00
    שיפרתם עכשיו את היכולת שלי
  • 8:00 - 8:03
    לחזות אם אתם משתמשים בסמים
  • 8:03 - 8:05
    או אם אתם מסתדרים במקום העבודה.
  • 8:05 - 8:07
    וזה, אני חושבת, יכול להשפיע על אם
  • 8:07 - 8:09
    אנשים ירצו לחלוק משהו,
  • 8:09 - 8:12
    לשמור על זה פרטי, או פשוט
    לשמור על זה מחוץ לרשת.
  • 8:12 - 8:14
    אנחנו יכולים להביט גם בדברים
  • 8:14 - 8:16
    כמו לאפשר לאנשים להצפין
    את המידע שהם מעלים,
  • 8:16 - 8:18
    אז הוא סוג של בלתי נראה וחסר תועלת
  • 8:18 - 8:20
    לאתרים כמו פייסבוק
  • 8:20 - 8:22
    או שרותי צד שלישי שניגשים אליו,
  • 8:22 - 8:25
    אבל למשתמשים הנבחרים שהאדם שהעלה את זה
  • 8:25 - 8:28
    רוצה שיראו את זה, תהיה גישה אליו.
  • 8:28 - 8:30
    כל זה מחקר סופר מרגש
  • 8:30 - 8:32
    מנקודת מבט אינטלקטואלית,
  • 8:32 - 8:34
    וכך מדענים יהיו מוכנים לעשות את זה.
  • 8:34 - 8:37
    אז זה נותן לנו יתרון על אפשרות החוק.
  • 8:37 - 8:39
    אחת הבעיות שאנשים מעלים
  • 8:39 - 8:41
    כשאני מדברת על זה, הם אומרים,
  • 8:41 - 8:43
    את יודעת, אם אנשים מתחילים
    לשמור על כל המידע פרטי,
  • 8:43 - 8:45
    כל השיטות האלה שפיתחתם
  • 8:45 - 8:48
    לחזות את התכונות שלהם יכשלו.
  • 8:48 - 8:52
    ואני אומרת, בהחלט, ובשבילי, זו הצלחה,
  • 8:52 - 8:53
    מפני שכמדענית,
  • 8:53 - 8:57
    המטרה שלי היא לא להסיק מידע על משתמשים,
  • 8:57 - 9:00
    זה כדי לשפר את הדרך בה אנשים מתקשרים ברשת.
  • 9:00 - 9:03
    ולפעמים זה דורש להסיק דברים עליהם,
  • 9:03 - 9:06
    אבל אם משתמשים לא רוצים
    שאני אשתמש במידע הזה,
  • 9:06 - 9:08
    אני חושבת שצריכה להיות להם
    הזכות לעשות את זה.
  • 9:08 - 9:11
    אני רוצה שמשתמשים
    יהיו מיודעים ומסכימים
  • 9:11 - 9:13
    לכלים שאנחנו מפתחים.
  • 9:13 - 9:16
    אז אני חושבת שלעודד סוג זה של מדע
  • 9:16 - 9:17
    ולתמוך בחוקרים
  • 9:17 - 9:20
    שרוצים להחזיר חלק מהשליטה למשתמשים
  • 9:20 - 9:23
    ולקחת אותו מחברות המדיה החברתית
  • 9:23 - 9:25
    אומר שכשנמשיך הלאה, כשהכלים האלה יתפתחו
  • 9:25 - 9:27
    ויתקדמו,
  • 9:27 - 9:28
    אומר שיהיה לנו בסיס משתמשים
  • 9:28 - 9:30
    מיודע ובעל כוח,
  • 9:30 - 9:31
    ואני חושבת שכולנו יכולים להסכים
  • 9:31 - 9:33
    שזה דרך מאוד אידיאלית להתקדם.
  • 9:33 - 9:36
    תודה לכם.
  • 9:36 - 9:39
    (מחיאות כפיים)
Title:
תעלומת הצ'יפס המקורזל: למה ה"לייקים" של המדיה החברתית אומרים יותר ממה שאתם חושבים.
Speaker:
ג'ניפר גולבק
Description:

האם אתם אוהבים צ'יפסים מקורזלים? האם אהבתם אותם בפייסבוק? צפו בהרצאה הזו כדי לראות דברים מפתיעים שפייסבוק (ואחרים) יכולים לנחש עליכם מהלייקים הרנדומליים והשיתופים.
מדענית המהחשב ג'ניפר גולבק מסבירה איך זה קורה, איך כמה ישומים של הטכנולוגיה הם לא כל כך חמודים -- ולמה היא חושבת שאנחנו צריכים להחזיר שליטה על המידע לבעליו האמיתיים.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Hebrew subtitles

Revisions