תעלומת הצ'יפס המקורזל: למה ה"לייקים" של המדיה החברתית אומרים יותר ממה שאתם חושבים.
-
0:01 - 0:03אם אתם זוכרים את העשור הראשון של האינטרנט,
-
0:03 - 0:05זה היה באמת מקום סטטי.
-
0:05 - 0:07יכולתם להיכנס לרשת, להסתכל על דפים,
-
0:07 - 0:10והם הועלו או על ידי ארגונים
-
0:10 - 0:11שהיו להם צוותים שעשו את זה
-
0:11 - 0:13או על ידי אנשים פרטיים שהיו ממש טכנולגיים
-
0:13 - 0:15באותו הזמן.
-
0:15 - 0:17ועם העליה של המדיה החברתית
-
0:17 - 0:19והרשתות החברתיות בתחילת שנות ה 2000,
-
0:19 - 0:21הרשת השתנתה לגמרי
-
0:21 - 0:25למקום שבו עכשיו רוב התוכן
-
0:25 - 0:28אותו אנו צורכים
מועלה על ידי המשתמש הממוצע, -
0:28 - 0:31בין אם בסרטוני יוטיוב או פוסטים בבלוג
-
0:31 - 0:34או ביקורות מוצרים או פוסטים במדיה החברתית.
-
0:34 - 0:37וזה גם הפך למקום הרבה יותר אינטראקטיבי,
-
0:37 - 0:39שם אנשים מתקשרים עם אחרים,
-
0:39 - 0:41הם מגיבים, הם חולקים,
-
0:41 - 0:43הם לא רק קוראים.
-
0:43 - 0:44אז פייסבוק הוא לא המקום היחיד לעשות זאת.
-
0:44 - 0:46אבל הוא הגדול ביותר,
-
0:46 - 0:47והוא משמש כדי להדגים את המספרים.
-
0:47 - 0:51לפייסבוק יש 1.2 מיליארד משתמשים לחודש.
-
0:51 - 0:53אז חצי מאוכלוסית האינטרנט העולמית
-
0:53 - 0:54משתמשת בפייסבוק.
-
0:54 - 0:56הם אתר, יחד עם אחרים,
-
0:56 - 1:00שאיפשר לאנשים ליצור ישות אינטרנטית
-
1:00 - 1:01עם מעט מאוד כישורים טכניים,
-
1:01 - 1:04ואנשים הגיבו בלהעלות כמויות עצומות
-
1:04 - 1:06של מידע אישי לרשת.
-
1:06 - 1:08אז התוצאה היא שיש לנו מידע
-
1:08 - 1:10התנהגותי, דמוגרפי והעדפות
-
1:10 - 1:12של מאות מליוני אנשים,
-
1:12 - 1:14שזה מעולם לא קרה בהסטוריה.
-
1:14 - 1:17וכמדענית מחשב, מה שזה אומר
-
1:17 - 1:19זה שהייתי מסוגלת לבנות מודלים
-
1:19 - 1:21שיכולים לצפות כל מיני תכונות חבויות
-
1:21 - 1:23עבור כולכם שאתם אפילו לא ידעתם
-
1:23 - 1:25שאתם חולקים מידע עליהן.
-
1:25 - 1:28כמדענים, אנחנו משתמשים בזה כדי לעזור
-
1:28 - 1:30לאנשים בדרך שבה הם מתקשרים ברשת.
-
1:30 - 1:32אבל יש ישומים פחות אלטרואיסטים,
-
1:32 - 1:35ויש בעיה בזה שמתשמשים לא באמת
-
1:35 - 1:37מבינים את הטכניקות ואיך הן עובדות,
-
1:37 - 1:40ואפילו אם הם הבינו,
אין להם הרבה שליטה על זה. -
1:40 - 1:42אז מה שאני רוצה לספר לכם היום
-
1:42 - 1:45זה חלק מהדברים שאנחנו יכולים לעשות,
-
1:45 - 1:47ואז לתת לכם כמה רעיונות על איך נמשיך מפה
-
1:47 - 1:50להזיז קצת שליטה חזרה לידיים של המשתמשים.
-
1:50 - 1:52אז זו טארגט, החברה.
-
1:52 - 1:53לא סתם שמתי את הלוגו
-
1:53 - 1:55על הבטן של האישה ההריונית המסכנה הזו.
-
1:55 - 1:57אתם אולי ראיתם את האנקדוטה הזו מודפסת
-
1:57 - 1:59במגזין פורבס כשטארגט
-
1:59 - 2:02שלחה עלון לבת ה15 הזו
-
2:02 - 2:03עם פרסומות וקופונים
-
2:03 - 2:06לבקבוקי תינוקות וחיתולים ועריסות
-
2:06 - 2:07שבועיים לפני שאמרה להוריה
-
2:07 - 2:09שהיא בהריון,
-
2:09 - 2:12כן, האבא היה ממש עצבני.
-
2:12 - 2:14הוא אמר, "איך טארגט הבינו
-
2:14 - 2:16שנערה בתיכון בהריון
-
2:16 - 2:18לפני שהיא אמרה להוריה?"
-
2:18 - 2:20מסתבר שיש להם את הסטורית הרכישות
-
2:20 - 2:22למאות אלפי לקוחות
-
2:22 - 2:25והם מחשבים את מה שהם קוראים לו ציון הריון,
-
2:25 - 2:28שזה לא רק אם אישה בהריון,
-
2:28 - 2:29אלא מתי התאריך המיועד.
-
2:29 - 2:31והם מחשבים את זה
-
2:31 - 2:32לא על ידי הסתכלות על דברים ברורים,
-
2:32 - 2:35כמו, היא קונה עריסה או בגדי תינוק,
-
2:35 - 2:38אלא דברים כמו, היא קנתה יותר ויטמינים
-
2:38 - 2:39משהיא בדרך כלל קונה,
-
2:39 - 2:41או שהיא קנתה תיק
-
2:41 - 2:43שמספיק גדול להחזיק חיתולים.
-
2:43 - 2:45ובעצמן, למרות שהקניות האלה לא נראות
-
2:45 - 2:47כאילו הן מגלות הרבה,
-
2:47 - 2:49אבל זו תבנית התנהגות,
-
2:49 - 2:52שכשאתם מכניסים את זה
להקשר של אלפי אנשים אחרים, -
2:52 - 2:55מתחילה למעשה לגלות תובנות.
-
2:55 - 2:57אז זה סוג הדברים שאנחנו עושים
-
2:57 - 2:59כשאנחנו חוזים דברים עליכם במדיה החברתית.
-
2:59 - 3:02אנחנו מחפשים תבניות זעירות של התנהגות,
-
3:02 - 3:05שכשמזהים אותן בין מליוני אנשים,
-
3:05 - 3:07נותנות לנו למצוא כל מיני דברים.
-
3:07 - 3:09אז במעבדה שלי ועם שותפים,
-
3:09 - 3:11אנחנו פיתחנו מכאניזמים
איתם אנחנו יכולים -
3:11 - 3:13לחזות די במדוייק דברים
-
3:13 - 3:14כמו העדפות פוליטיות,
-
3:14 - 3:18ציון האישיות שלכם, מין, העדפות מיניות,
-
3:18 - 3:21דת, גיל, רמת אינטיליגנציה,
-
3:21 - 3:22יחד עם דברים כמו
-
3:22 - 3:24כמה אתם בוטחים באנשים אותם אתם מכירים
-
3:24 - 3:26וכמה חזקים הקשרים האלה.
-
3:26 - 3:28אנחנו יכולים לעשות את זה ממש טוב.
-
3:28 - 3:30ושוב, זה לא מגיע ממה שאתם אולי
-
3:30 - 3:32חושבים כמידע ברור.
-
3:32 - 3:34אז הדוגמה האהובה עלי היא ממחקר
-
3:34 - 3:36שפורסם השנה
-
3:36 - 3:37בפרסומים של האקדמיה הלאומית.
-
3:37 - 3:39אם תגגלו את זה, אתם תמצאו אותו.
-
3:39 - 3:41זה ארבעה דפים, קלים לקריאה.
-
3:41 - 3:44והם הסתכלו רק על לייקים של אנשים בפייסבוק,
-
3:44 - 3:45אז רק הדברים שאתם אוהבים בפייסבוק,
-
3:45 - 3:48והשתמשו בזה כדי לחזות את כל התכונות האלה,
-
3:48 - 3:49יחד עם כמה אחרות.
-
3:49 - 3:52ובמאמר שלהם הם ציינו את חמשת הלייקים
-
3:52 - 3:55שהכי הראו אינטיליגנציה גבוהה.
-
3:55 - 3:57ובינהם היה לייק לדף
-
3:57 - 3:59לצ'יפסים מקורזלים. (צחוק)
-
3:59 - 4:01צ'יפסים מקורזלים הם ממש טעימים,
-
4:01 - 4:04אבל אהבה שלהם לא בהכרח אומרת
-
4:04 - 4:06שאתם אדם חכם מהממוצע.
-
4:06 - 4:09אז איך אחד המדדים החזקים ביותר
-
4:09 - 4:11לאינטליגנציה שלכם
-
4:11 - 4:12הוא אהבת הדף הזה
-
4:12 - 4:14כשהתוכן לחלוטין לא רלוונטי
-
4:14 - 4:17לתכונות שנצפות?
-
4:17 - 4:19ומסתבר שאנחנו צריכים להביט
-
4:19 - 4:20בקבוצה שלמה של תאוריות
-
4:20 - 4:23כדי לראות למה אנחנו מסוגלים לעשות את זה.
-
4:23 - 4:26אחת מהן היא תאוריה סוציולוגית
שנקראת הומופיליה, -
4:26 - 4:29שאומרת בעיקרון שאנשים
חברים עם אנשים שדומים להם. -
4:29 - 4:31אז אם אתה חכם, אתה נוטה
להיות חבר של אנשים חכמים, -
4:31 - 4:33ואם אתה הצעיר, אתה נוטה
להיות חבר של אנשים צעירים, -
4:33 - 4:35וזה מוכח היטב
-
4:35 - 4:37מאות שנים.
-
4:37 - 4:38אנחנו גם יודעים הרבה
-
4:38 - 4:41על איך מידע מתפשט ברשתות.
-
4:41 - 4:42מסתבר שדברים כמו סרטונים ויראליים
-
4:42 - 4:45או לייקים של פייסבוק או מידע אחר
-
4:45 - 4:47מתפשטים בדיוק באותה דרך
-
4:47 - 4:49שמחלות מתפשטות ברשתות חברתיות.
-
4:49 - 4:51אז זה משהו שחקרנו הרבה זמן.
-
4:51 - 4:52יש לנו מודלים טובים של זה.
-
4:52 - 4:55וכך אתם יכולים לחבר את הדברים האלה
-
4:55 - 4:58ולהתחיל לראות למה דברים כאלה קורים.
-
4:58 - 4:59אז אם הייתי נותנת לכם השערה,
-
4:59 - 5:03היא תהיה שאדם חכם התחיל את הדף הזה,
-
5:03 - 5:05או אולי אחד האנשים הראשונים שאהבו אותו
-
5:05 - 5:06היה מקבל ציון גבוה במבחן הזה.
-
5:06 - 5:09והם אהבו אותו, וחברים שלהם ראו אותו,
-
5:09 - 5:12ודרך ההומופיליה, אנחנו יודעים
שכנראה היו לו חברים חכמים, -
5:12 - 5:15אז זה התפשט אליהם, וכמה מהם אהבו את זה,
-
5:15 - 5:16ולהם היו חברים חכמים,
-
5:16 - 5:17וכך זה התפשט אליהם,
-
5:17 - 5:19ואז זה חלחל דרך הרשת
-
5:19 - 5:21להרבה אנשים חכמים,
-
5:21 - 5:23אז בסוף, הפעולה
-
5:23 - 5:26של אהבת דף הצ'יפסים המקורזלים
-
5:26 - 5:28מעידה של אינטליגנציה גבוהה,
-
5:28 - 5:29לא בגלל התוכן,
-
5:29 - 5:32אלא בגלל הפעולה עצמה של אהבה
-
5:32 - 5:34משקפת את התכונות המשותפות
-
5:34 - 5:36של אנשים אחרים שעשו את זה.
-
5:36 - 5:39אז אלה דברים די מסובכים, נכון?
-
5:39 - 5:41זה קשה לשבת להסביר
-
5:41 - 5:44למשתמש ממוצע, ואפילו אם אתם עושים זאת,
-
5:44 - 5:46מה המשתמש הממוצע יכול לעשות בנוגע לזה?
-
5:46 - 5:48איך אתם יודעים שאהבתם משהו
-
5:48 - 5:50שמשקף תכונה שלכם
-
5:50 - 5:53שלגמרי לא רלוונטית לתוכן של מה שאהבתם?
-
5:53 - 5:56יש הרבה כוח שאין למשתמשים
-
5:56 - 5:58כדי לשלוט באיך משתמשים במידע הזה.
-
5:58 - 6:01ואני רואה בזה בעיה אמיתית בעתיד.
-
6:01 - 6:03אז אני חושבת שיש כמה כיוונים
-
6:03 - 6:04שנרצה לבחון
-
6:04 - 6:06אם אנחנו רוצים לתת למשתמשים מעט שליטה
-
6:06 - 6:08על איך משתמשים במידע הזה,
-
6:08 - 6:10מפני שלא תמיד הוא יהיה בשימוש
-
6:10 - 6:11לתועלתם.
-
6:11 - 6:13דוגמה שאני נותנת לזה הרבה היא,
-
6:13 - 6:14שאם אי פעם אשתעמם להיות פרופסורית,
-
6:14 - 6:16אני אקים חברה
-
6:16 - 6:17שחוזה את כל התכונות האלה
-
6:17 - 6:19ודברים כמו כמה טוב אתם עובדים בצוות
-
6:19 - 6:22ואם אתם משתמשים בסמים,
אם אתם אלכוהוליסטים. -
6:22 - 6:23אנחנו יודעים איך לחזות את כל זה.
-
6:23 - 6:25ואני אמכור דוחות
-
6:25 - 6:27לחברות כוח אדם ועסקים גדולים
-
6:27 - 6:29שרוצים להעסיק אתכם.
-
6:29 - 6:31אנחנו לגמרי יכולים לעשות את זה עכשיו.
-
6:31 - 6:32הייתי יכולה להתחיל את העסק הזה מחר,
-
6:32 - 6:34ולא היתה לכם שליטה בכלל
-
6:34 - 6:36על השימוש שלי במידע שלכם כך.
-
6:36 - 6:39זו נראית לי בעיה גדולה.
-
6:39 - 6:41אז אחת הדרכים שאננחו יכולים לבחור בה
-
6:41 - 6:43היא המדיניות והחוק.
-
6:43 - 6:46ובכמה הבטים, אני חושב
שזה יהיה הכי אפקטיבי, -
6:46 - 6:49אבל הבעיה היא שלמעשה נצטרך לעשות את זה.
-
6:49 - 6:51בהסתכלות על התהליך הפוליטי שלנו בפעולה
-
6:51 - 6:54גורם לי לחשוב שזה מאוד לא סביר
-
6:54 - 6:55שנשיג כמה נבחרים
-
6:55 - 6:57לשבת, ללמוד את הנושא,
-
6:57 - 6:59ואז להחיל שינויים מקיפים
-
6:59 - 7:02על חוקי רכוש רעיוני בארה"ב.
-
7:02 - 7:04כך שמשתמשים ישלטו במידע שלהם.
-
7:04 - 7:05נוכל ללכת בדרך המדיניות,
-
7:05 - 7:07שם חברות מדיה חברתית אומרות,
-
7:07 - 7:08אתם יודעים מה? המידע בבעלותכם.
-
7:08 - 7:11יש לכם שליטה מלאה בשימוש בו.
-
7:11 - 7:13הבעיה היא שמודלי הרווחיות
-
7:13 - 7:14לרוב חברות המדיה החברתית
-
7:14 - 7:18נסמכים על ניצול המידע
של המשתמש בדרך כלשהי. -
7:18 - 7:20לפעמים נאמר על פייסבוק שהמשתמשים
-
7:20 - 7:23הם לא לקוחות, הם המוצר.
-
7:23 - 7:25וכך איך אתם גורמים לחברה
-
7:25 - 7:28לוותר על שליטה בנכס העיקרי שלהם
-
7:28 - 7:29בחזרה למשתמשים?
-
7:29 - 7:31זה אפשרי, אבל אני לא חושב שזה משהו
-
7:31 - 7:33שאנחנו נראה משתנה במהירות.
-
7:33 - 7:35אז אני חושבת שהדרך הנוספת
-
7:35 - 7:37שאנחנו יכולים ללכת בה שתהיה יותר יעילה
-
7:37 - 7:38היא זו של יותר מדע.
-
7:38 - 7:41לעשות מדע זה מה שאפשר לנו לפתח
-
7:41 - 7:43את כל המנגנונים למחשוב
-
7:43 - 7:45המידע האישי מראש.
-
7:45 - 7:47וזה למעשה מחקר מאוד דומה
-
7:47 - 7:48שאנחנו צריכים לעשות
-
7:48 - 7:51אם נרצה לפתח מנגנונים
-
7:51 - 7:52שיכולים להגיד למשתמש,
-
7:52 - 7:54"הנה הסיכונים של הפעולה הזו שעשית."
-
7:54 - 7:56על ידי לחיצת לייק על דף פייסבוק מסויים,
-
7:56 - 7:59או עלי ידי שיתוף פיסה זו של מידע אישי,
-
7:59 - 8:00שיפרתם עכשיו את היכולת שלי
-
8:00 - 8:03לחזות אם אתם משתמשים בסמים
-
8:03 - 8:05או אם אתם מסתדרים במקום העבודה.
-
8:05 - 8:07וזה, אני חושבת, יכול להשפיע על אם
-
8:07 - 8:09אנשים ירצו לחלוק משהו,
-
8:09 - 8:12לשמור על זה פרטי, או פשוט
לשמור על זה מחוץ לרשת. -
8:12 - 8:14אנחנו יכולים להביט גם בדברים
-
8:14 - 8:16כמו לאפשר לאנשים להצפין
את המידע שהם מעלים, -
8:16 - 8:18אז הוא סוג של בלתי נראה וחסר תועלת
-
8:18 - 8:20לאתרים כמו פייסבוק
-
8:20 - 8:22או שרותי צד שלישי שניגשים אליו,
-
8:22 - 8:25אבל למשתמשים הנבחרים שהאדם שהעלה את זה
-
8:25 - 8:28רוצה שיראו את זה, תהיה גישה אליו.
-
8:28 - 8:30כל זה מחקר סופר מרגש
-
8:30 - 8:32מנקודת מבט אינטלקטואלית,
-
8:32 - 8:34וכך מדענים יהיו מוכנים לעשות את זה.
-
8:34 - 8:37אז זה נותן לנו יתרון על אפשרות החוק.
-
8:37 - 8:39אחת הבעיות שאנשים מעלים
-
8:39 - 8:41כשאני מדברת על זה, הם אומרים,
-
8:41 - 8:43את יודעת, אם אנשים מתחילים
לשמור על כל המידע פרטי, -
8:43 - 8:45כל השיטות האלה שפיתחתם
-
8:45 - 8:48לחזות את התכונות שלהם יכשלו.
-
8:48 - 8:52ואני אומרת, בהחלט, ובשבילי, זו הצלחה,
-
8:52 - 8:53מפני שכמדענית,
-
8:53 - 8:57המטרה שלי היא לא להסיק מידע על משתמשים,
-
8:57 - 9:00זה כדי לשפר את הדרך בה אנשים מתקשרים ברשת.
-
9:00 - 9:03ולפעמים זה דורש להסיק דברים עליהם,
-
9:03 - 9:06אבל אם משתמשים לא רוצים
שאני אשתמש במידע הזה, -
9:06 - 9:08אני חושבת שצריכה להיות להם
הזכות לעשות את זה. -
9:08 - 9:11אני רוצה שמשתמשים
יהיו מיודעים ומסכימים -
9:11 - 9:13לכלים שאנחנו מפתחים.
-
9:13 - 9:16אז אני חושבת שלעודד סוג זה של מדע
-
9:16 - 9:17ולתמוך בחוקרים
-
9:17 - 9:20שרוצים להחזיר חלק מהשליטה למשתמשים
-
9:20 - 9:23ולקחת אותו מחברות המדיה החברתית
-
9:23 - 9:25אומר שכשנמשיך הלאה, כשהכלים האלה יתפתחו
-
9:25 - 9:27ויתקדמו,
-
9:27 - 9:28אומר שיהיה לנו בסיס משתמשים
-
9:28 - 9:30מיודע ובעל כוח,
-
9:30 - 9:31ואני חושבת שכולנו יכולים להסכים
-
9:31 - 9:33שזה דרך מאוד אידיאלית להתקדם.
-
9:33 - 9:36תודה לכם.
-
9:36 - 9:39(מחיאות כפיים)
- Title:
- תעלומת הצ'יפס המקורזל: למה ה"לייקים" של המדיה החברתית אומרים יותר ממה שאתם חושבים.
- Speaker:
- ג'ניפר גולבק
- Description:
-
האם אתם אוהבים צ'יפסים מקורזלים? האם אהבתם אותם בפייסבוק? צפו בהרצאה הזו כדי לראות דברים מפתיעים שפייסבוק (ואחרים) יכולים לנחש עליכם מהלייקים הרנדומליים והשיתופים.
מדענית המהחשב ג'ניפר גולבק מסבירה איך זה קורה, איך כמה ישומים של הטכנולוגיה הם לא כל כך חמודים -- ולמה היא חושבת שאנחנו צריכים להחזיר שליטה על המידע לבעליו האמיתיים. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Ido Dekkers approved Hebrew subtitles for Your social media "likes" expose more than you think | ||
Tal Dekkers accepted Hebrew subtitles for Your social media "likes" expose more than you think | ||
Tal Dekkers edited Hebrew subtitles for Your social media "likes" expose more than you think | ||
Tal Dekkers edited Hebrew subtitles for Your social media "likes" expose more than you think | ||
Tal Dekkers edited Hebrew subtitles for Your social media "likes" expose more than you think | ||
Ido Dekkers edited Hebrew subtitles for Your social media "likes" expose more than you think | ||
Ido Dekkers edited Hebrew subtitles for Your social media "likes" expose more than you think | ||
Ido Dekkers edited Hebrew subtitles for Your social media "likes" expose more than you think |