چالش سیب زمینی سرخ کرده پیچی: چرا «لایک های» رسانه های اجتماعی چیزهای بیشتری از آنچه به نظر می رسد را به ما نشان می دهند
-
0:01 - 0:03اگر دهه اول وب را به خاطر داشته باشید،
-
0:03 - 0:05محیطی کاملا یک نواخت بود.
-
0:05 - 0:07می توانستید آنلاین شوید،
به صفحات نگاه کنید، -
0:07 - 0:10و آنها توسط سازمانهایی طراحی شده بودند
-
0:10 - 0:11که تیمهایی برای این کار داشتند
-
0:11 - 0:13یا توسط افرادی که در آن دوره
-
0:13 - 0:15واقعا عاشق تکنولوژی محسوب می شدند.
-
0:15 - 0:17و با پیدایش رسانه های اجتماعی
-
0:17 - 0:19و شبکه های اجتماعی از سالهای ۲۰۰۰ به بعد،
-
0:19 - 0:21وب فضایی کاملا
-
0:21 - 0:25تغییر پیدا کرد که در حال حاضر بیشتر مطالبی که
-
0:25 - 0:28با آن سر و کار داریم
توسط کاربران معمولی تامین شده اند، -
0:28 - 0:31یا همینطور در ویدیوهای یوتیوب و یا پست های وبلاگ
-
0:31 - 0:34یا در انتقادات از یک محصول
و یا پست های رسانه های اجتماعی. -
0:34 - 0:37و همین طور به محل تعاملی تر
تبدیل شده است، -
0:37 - 0:39جایی که افراد با دیگران در تعامل اند،
-
0:39 - 0:41نظر می گذارند، به اشتراک می گذارند،
-
0:41 - 0:43فقط مشغول خواندن نیستند.
-
0:43 - 0:44فیس بوک تنها محل برای این کار نیست،
-
0:44 - 0:46اما بزرگ ترین محل است،
-
0:46 - 0:47و برای نمایش آماری ما مناسب است.
-
0:47 - 0:51فیس بوک ۱/۲ بیلیون کاربر در ماه دارد.
-
0:51 - 0:53یعنی نیمی از جمعیت اینترنت دنیا
-
0:53 - 0:54از فیس بوک استفاده می کنند.
-
0:54 - 0:56فیس بوک یک سایت مثل سایر سایت ها بود،
-
0:56 - 1:00که به افراد اجازه ایجاد یک نمایه آنلاین را
-
1:00 - 1:01با حداقل دانش فنی داد،
-
1:01 - 1:04و مردم هم با قراردادن مقدار زیادی
از اطلاعات شخصی -
1:04 - 1:06به فیس بوک پاسخ گفتند.
-
1:06 - 1:08بنابراین نتیجه این شد که
اطلاعات رفتاری، -
1:08 - 1:10تمایلات و اطلاعات آمارنگاری
-
1:10 - 1:12درباره صدها میلیون نفر در اختیار ماست،
-
1:12 - 1:14که در تاریخ بی سابقه بوده است.
-
1:14 - 1:17و به عنوان یک دانشمند کامپیوتر،
-
1:17 - 1:19یعنی توانسته ام مدل هایی بسازم
-
1:19 - 1:21که قادر به پیش بینی ویژگیهای پنهانی
-
1:21 - 1:23افرادی مثل شما هستند که حتی نمی دانید که
-
1:23 - 1:25اطلاعات آن ها را به اشتراک گذاشته اید.
-
1:25 - 1:28به عنوان دانشمند، ما از این برای کمک
-
1:28 - 1:30به نحوه ارتباط افراد آنلاین
استفاده می کنیم، -
1:30 - 1:32اما ابزارهای غیر انسان دوستانه
هم وجود دارند، -
1:32 - 1:35و مشکل این است که مردم واقعا نمی دانند
-
1:35 - 1:37که این تکنیک ها چگونه کار می کنند،
-
1:37 - 1:40و حتی اگر می دانستند، کاری
از دستشان بر نمی آمد. -
1:40 - 1:42اما چیزی که امروز می خواهم
بگویم -
1:42 - 1:45کارهاییست که می شود
انجام دهیم، -
1:45 - 1:47و سپس طرح چند ایده برای ما،
که بتوانیم به سمتی حرکت کنیم -
1:47 - 1:50که کنترل برخی از اطلاعاتمان را
به دست کاربر برگردانیم. -
1:50 - 1:52خوب این مربوط به شرکت تارگت است.
-
1:52 - 1:53من لوگوی شرکت را روی این
-
1:53 - 1:55خانم حامله بیچاره نگذاشتم.
-
1:55 - 1:57ممکن است آن داستان جالبی را که
-
1:57 - 1:59در مجله فوربز چاپ شد، دیده باشید
که تارگت -
1:59 - 2:02یک بروشور به آدرس دختر ۱۵ ساله ای می فرستد
-
2:02 - 2:03با محتوای تبلیغات و کوپن هایی
-
2:03 - 2:06درباره شیشه شیر بچه و پوشک و گهواره
-
2:06 - 2:07۲ هفته قبل از آنکه به والدینش بگوید
-
2:07 - 2:09که باردار شده است.
-
2:09 - 2:12آره، باباش خیلی ناراحت شده بود.
-
2:12 - 2:14خوب تارگت چطور متوجه شد
-
2:14 - 2:16که این دختر دبیرستانی باردار است
-
2:16 - 2:18دو هفته قبل از این که والدینش بدانند؟
-
2:18 - 2:20معلوم شد که آنها یک تاریخچه خرید
-
2:20 - 2:22از صدها هزار مشتری خود دارند
-
2:22 - 2:25و عددی که اسمش را نمره بارداری گذاشته اند
محاسبه می کنند. -
2:25 - 2:28که فقط این نیست که یک زن
باردار هست یا نه -
2:28 - 2:29بلکه تاریخ وضع حملش کی است.
-
2:29 - 2:31و آن ها این را فقط توسط
-
2:31 - 2:32محاسبه بدیهیاتی مثل این که
-
2:32 - 2:35او گهواره یا لباس بچه می خرد
حساب نمی کنند، -
2:35 - 2:38بلکه چیزهایی مثل این که او بیشتر
ویتامین خرید می کند -
2:38 - 2:39نسبت به خریدهای قبلی اش،
-
2:39 - 2:41یا او کیف دستی ای خریده است
-
2:41 - 2:43که برای حمل پوشک مناسب است.
-
2:43 - 2:45و به خودی خود، این خریدها به نظر
-
2:45 - 2:47چیز زیادی را آشکار نمی کنند،
-
2:47 - 2:49اما این الگوی رفتاری است که،
-
2:49 - 2:52زمانی که آن را در کنار الگوی
هزاران فرد دیگر قرار می دهید، -
2:52 - 2:55شروع به آشکار کردن بعضی چیزها می کند.
-
2:55 - 2:57بنابراین این کاری است که می کنیم
-
2:57 - 2:59وقتی چیزی درباره شما روی
شبکه های اجتماعی حدس می زنیم. -
2:59 - 3:02ما به دنبال الگوهای رفتاری کوچکی هستیم،
-
3:02 - 3:05که وقتی در کنار میلیون ها
فرد دیگر بگذاریدشان، -
3:05 - 3:07به ما اجازه دانستن همه نوع چیز را می دهد.
-
3:07 - 3:09بنابراین من و همکارانم در آزمایشگاه،
-
3:09 - 3:11مکانیزمی طراحی کرده ایم که می توانیم
-
3:11 - 3:13به خوبی چیزهایی رو پیش بینی کنیم
-
3:13 - 3:14مثل تمایلات سیاسی شما،
-
3:14 - 3:18امتیاز شخصیتی، جنسیت، گرایش جنسی،
-
3:18 - 3:21دین، سن، هوش،
-
3:21 - 3:22به همراه چیزهایی مثل
-
3:22 - 3:24این که چقدر به آشنایانتان اعتماد دارید
-
3:24 - 3:26و چقدر روابطتان عمیق هستند.
-
3:26 - 3:28ما این ها را به خوبی انجام می دهیم.
-
3:28 - 3:30و این هم از چیزهایی که
شما ممکن است به عنوان -
3:30 - 3:32اطلاعات بدیهی تصور کنید
به دست نمی آید. -
3:32 - 3:34خوب مثال مورد علاقه من از مطالعاتی است که
-
3:34 - 3:36امسال منتشر شد در ژورنال
-
3:36 - 3:37Proceedings of the National Academies
-
3:37 - 3:39می شود در گوگل جستجو کردش.
-
3:39 - 3:41چهار صفحه است و به راحتی قابل خواندن.
-
3:41 - 3:44و فقط در مورد لایک های افراد در
فیس بوک تحقیق کرده اند، -
3:44 - 3:45پس فقط آن چه در فیس بوک لایک می کنید،
-
3:45 - 3:48و از آن برای پیش بینی
همه این ویژگی های شخصی، -
3:48 - 3:49به همراه سایر چیزها استفاده کردند.
-
3:49 - 3:52و در مقاله شان ۵ لایکی را نام بردند
-
3:52 - 3:55که بیشترین تاثیر را در
تشخیص هوش بالا داشت. -
3:55 - 3:57و در میان آن ها صفحه ای بود
-
3:57 - 3:59درباره سیب زمینی سرخ کرده پیچی. (خنده)
-
3:59 - 4:01سیب زمینی سرخ کرده پیچی خوشمزه است،
-
4:01 - 4:04اما لایک کردنش لزوما به این معنی نیست
-
4:04 - 4:06که شما باهوش تر از یک آدم معمولی هستید.
-
4:06 - 4:09پس چطور می شود که یکی از مهمترین مشخصه های
-
4:09 - 4:11هوش شما
-
4:11 - 4:12لایک کردن این صفحه است
-
4:12 - 4:14وقتی محتوای آن کاملا بی ارتباط
-
4:14 - 4:17با ویژگی شخصیتی ای است که پیش بینی می شود؟
-
4:17 - 4:19این طور به نظر می رسد که باید
-
4:19 - 4:20کلا به یک سری تئوری پنهان بنگریم
-
4:20 - 4:23که متوجه شویم چرا این اتفاق می افتد.
-
4:23 - 4:26یکی از آن ها یک نظریه جامعه شناسی
به اسم هوموفیلی است، -
4:26 - 4:29که اساسا می گوید افراد،
با آدمهای شبیه خودشان دوست می شوند. -
4:29 - 4:31پس اگر با هوشید،
با باهوش ها دوست می شوید، -
4:31 - 4:33و اگر جوان هستید،
با جوان ها دوست می شوید، -
4:33 - 4:35و این مساله برای
-
4:35 - 4:37هزاران سال وجود داشته است.
-
4:37 - 4:38ما همچینین زیاد درباره
-
4:38 - 4:41اینکه چطور اطلاعات در شبکه ها
پخش می شوند می دانیم. -
4:41 - 4:42ظاهرا چیزهایی مثل کلیپ ویدیویی
-
4:42 - 4:45یا لایک های فیسبوک و سایر اطلاعات
-
4:45 - 4:47دقیقا به شکلی منتشر می شوند،
-
4:47 - 4:49که بیماری ها در بخشهای جامعه
انتشار می یابند. -
4:49 - 4:51بر روی این موضوع زیاد تحقیق کرده ایم.
-
4:51 - 4:52مدل های خوبی برای آن داریم.
-
4:52 - 4:55و می توانید همه این ها را کنار هم بگذارید
-
4:55 - 4:58و ببینید که چرا اتفاقات
این چنینی می افتند. -
4:58 - 4:59بنابراین اگر بخواهم نظریه بدهم،
-
4:59 - 5:03این است که فرد باهوشی که
این صفحه را ایجاد کرده است، -
5:03 - 5:05یا شاید کسی که اولین بار لایکش کرده است.
-
5:05 - 5:06در آزمون امتیاز بالایی می گرفتند.
-
5:06 - 5:09و لایک کردند، و دوستانشان دیدند،
-
5:09 - 5:12و بر اساس هموفیلی، می دانیم که او احتمالا
دوستان باهوشی داشته است، -
5:12 - 5:15پس بین آنها منشتر شد،
و بعضی از آنها هم لایک کردند، -
5:15 - 5:16و دوستانشان باهوش بودند،
-
5:16 - 5:17بینشان منتقل شد،
-
5:17 - 5:19و به همین شکل در شبکه
-
5:19 - 5:21بین افراد باهوش گسترش یافت،
-
5:21 - 5:23تا در نهایت، فعل
-
5:23 - 5:26لایک کردن صفحه سیب زمینی پیچان
-
5:26 - 5:28مشخص کننده هوش بالاست،
-
5:28 - 5:29نه به دلیل محتوای آن،
-
5:29 - 5:32بلکه فقط به خاطر اینکه لایک کردنش
-
5:32 - 5:34ویژگیهای مشابه افرادی را که
-
5:34 - 5:36آن را لایک کرده اند بازتاب می دهد.
-
5:36 - 5:39این خیلی موضوع پیچیده ای است، نه؟
-
5:39 - 5:41نشستن و توضیح دادنش برای
-
5:41 - 5:44یک کاربر معمولی کار سختی است،
و حتی اگر چنین کاری بکنیم، -
5:44 - 5:46یک کاربر معمولی چه کاری از دستش بر می آید؟
-
5:46 - 5:48چطور متوجه می شوید که چیزی را
لایک کرده اید -
5:48 - 5:50که نشان دهنده یک ویژگی شخصیتیست
-
5:50 - 5:53که کاملا با محتوایی که آن را لایک کرده اید
بی ارتباط است. -
5:53 - 5:56برای کنترل استفاده از داده ها،
قدرت زیادی لازم است، -
5:56 - 5:58که کاربران ندارند.
-
5:58 - 6:01و من این را به عنوان مشکلی
که در حال بزرگتر شدن است می بینم. -
6:01 - 6:03و فکر می کنم چند راه وجود دارد که
-
6:03 - 6:04باید مدنظر قرار دهیم
-
6:04 - 6:06اکر می خواهیم به کاربران اجازه کنترل
-
6:06 - 6:08نحوه استفاده از اطلاعاتشان را بدهیم،
-
6:08 - 6:10چرا که اطلاعات همیشه به سود آنها
-
6:10 - 6:11استفاده نمی شود.
-
6:11 - 6:13مثال معمول من این است که،
-
6:13 - 6:14اگر زمانی از استادی خسته شدم،
-
6:14 - 6:16یک شرکت به راه خواهم انداخت
-
6:16 - 6:17برای پیش بینی تمام این ویژگیها
-
6:17 - 6:19و چیزهایی مثل طرز فکر در کار تیمی
-
6:19 - 6:22و آیا معتاد هستید، آیا الکلی هستید.
-
6:22 - 6:23می دانیم چطور پیش بینی کنیم.
-
6:23 - 6:25و این گونه گزارشات را
-
6:25 - 6:27به شرکتهای تجاری بزرگ
-
6:27 - 6:29که قصد استخدام دارند می فروشیم.
-
6:29 - 6:31ما واقعا می توانیم.
-
6:31 - 6:32می توانم همین فردا تجارت را شروع کنم،
-
6:32 - 6:34و شما هیچ کنترلی نخواهید داشت
-
6:34 - 6:36که من از داده های شما این گونه
استفاده کنم. -
6:36 - 6:39این از نظر من یک مشکل است.
-
6:39 - 6:41یکی از راه های پبش روی ما
-
6:41 - 6:43راه قانون و خط مشی است.
-
6:43 - 6:46و به دلایلی، فکر می کنم
این کاربردی ترین راه است. -
6:46 - 6:49اما مشکل اینجاست که
که ما واقعا باید این کار را انجام دهیم. -
6:49 - 6:51در نظر گرفتن پروسه سیاسی مان در عمل
-
6:51 - 6:54به من این حس را می دهد که خیلی بعید است
-
6:54 - 6:55که ما چند نفر نماینده پیدا کنیم
-
6:55 - 6:57که بنشینند، در این باره آموزش ببینند،
-
6:57 - 6:59و شروع به انجام تغییرات در
-
6:59 - 7:02قوانین مالکیت عمومی آمریکا کنند،
-
7:02 - 7:04تا کاربران قدرت کنترل داده هایشان را
داشته باشند. -
7:04 - 7:05می توان راه خط مشی را رفت،
-
7:05 - 7:07که رسانه های اجتماعی بگویند،
-
7:07 - 7:08اختیار اطلاعاتتان را دارید.
-
7:08 - 7:11و بر نحوه استفاده از آن کنترل دارید.
-
7:11 - 7:13مشکل این جاست که مدل درآمد در
-
7:13 - 7:14بیشتر شبکه های اجتماعی
-
7:14 - 7:18به نوعی بر پایه اشتراک و بهره برداری از
اطلاعات کاربران بنا شده است. -
7:18 - 7:20گاهی درباره فیس بوک گفته می شود که
-
7:20 - 7:23کاربران مشتری نیستند، بلکه کالا هستند.
-
7:23 - 7:25و خب شما چطور می توانید
شرکتی را وادار کنید -
7:25 - 7:28که کنترل مهمترین داراییشان را
-
7:28 - 7:29به کاربران برگردانند؟
-
7:29 - 7:31ممکن است، ولی من فکر نمی کنم که
-
7:31 - 7:33به این زودی تغییری ببینیم.
-
7:33 - 7:35پس فکر می کنم که راه دیگری
-
7:35 - 7:37که می توان رفت و کارآمد تر خواهد بود
-
7:37 - 7:38راه علم است.
-
7:38 - 7:41این علم است که به ما اجازه طراحی
-
7:41 - 7:43مکانیزم هایی برای محاسبه
-
7:43 - 7:45اطلاعات شخصی را داد.
-
7:45 - 7:47و در واقع ما باید
-
7:47 - 7:48تحقیقات مشابهی انجام دهیم
-
7:48 - 7:51تا مکانیزم هایی طراحی کنیم
-
7:51 - 7:52که بتوانند به کاربران بگویند،
-
7:52 - 7:54«این ریسک کاری است که تو انجام دادی.»
-
7:54 - 7:56با لایک آن صفحه فیس بوک،
-
7:56 - 7:59یا به اشتراک گذاری آن تکه از اطلاعات شخصی،
-
7:59 - 8:00تو قابلیت مرا برای پیش بینی
-
8:00 - 8:03این که معتاد هستی یا نه افزایش دادی
-
8:03 - 8:05یا این که شرایطتت در محل کار
خوب است یا بد. -
8:05 - 8:07و فکر می کنم این، بر روی تمایل افراد
-
8:07 - 8:09برای اشتراک گذاری یک چیز،
-
8:09 - 8:12خصوصی کردن، یا حتی فقط ذخیره کردن در
کامپیوترشان موثر است. -
8:12 - 8:14همچنین می توان روی کارهایی مثل
-
8:14 - 8:16اجازه رمزنگاری اطلاعاتی که آپلود می کنند
کار کنیم، -
8:16 - 8:18تا اطلاعات برای سایت هایی مثل فیس بوک
-
8:18 - 8:20یا هر سرویس دیگری
-
8:20 - 8:22مخفی و غیرقابل استفاده باشد،
-
8:22 - 8:25اما کاربرانی که شخص آپلود کننده
انتخاب می کند، -
8:25 - 8:28اجازه دسترسی به اطلاعات را داشته باشند.
-
8:28 - 8:30با یک نگاه عقلانی
-
8:30 - 8:32این تحقیقات خیلی هیجان آور هستند،
-
8:32 - 8:34و دانشمندان تمایل به انجام آن را دارند.
-
8:34 - 8:37و این یک مزیت نسبت به راه قانون است.
-
8:37 - 8:39یکی از مشکلاتی که مردم هنگام صحبت در
-
8:39 - 8:41این رابطه بیان می کنند این است که
-
8:41 - 8:43می گویند اگر افراد شروع به
مخفی کردن این اطلاعات کنند، -
8:43 - 8:45تمامی روشهایی که شما برای پیش بینی
-
8:45 - 8:48شخصیتشان طراحی کردید، از کار خواهند افتاد.
-
8:48 - 8:52و من می گویم، کاملا درسته، و برای من،
این یعنی موفقیت، -
8:52 - 8:53چرا که به عنوان یک دانشمند،
-
8:53 - 8:57هدف من کشف اطلاعات درباره مردم نیست،
-
8:57 - 9:00بلکه بهبود روش تعاملشان در اینترنت است.
-
9:00 - 9:03و گاهی این کار با کسب اطلاعات،
درباره آنها انجام می شود، -
9:03 - 9:06اما اگر کاربران نخواهند که از اطلاعاتشان
استفاده کنم، -
9:06 - 9:08به نظرم باید این حق را داشته باشند.
-
9:08 - 9:11من می خواهم کاربران ابزارهایی که
ما طراحی می کنیم -
9:11 - 9:13مطلع و راضی باشند.
-
9:13 - 9:16و یه همین دلیل فکر می کنم ترغیب کردن
این نوع علم -
9:16 - 9:17و پشتیبانی از محققینی که
-
9:17 - 9:20قصد دارند بخشی از کنترل را
به کاربران برگردانند، -
9:20 - 9:23و جلوی شرکت های رسانه های اجتماعی
را بگیرند، -
9:23 - 9:25به معنی پیشرفت است، همچنان که
این ابزارها بهتر -
9:25 - 9:27و پیشرفته تر می شوند،
-
9:27 - 9:28به این معنی است که کاربرانی
-
9:28 - 9:30تحصیل کرده و قدرتمند خواهیم داشت،
-
9:30 - 9:31و فکر می کنم که همه
-
9:31 - 9:33می پذیریم که این هدف ایده آلی است برای
دنبال کردن. -
9:33 - 9:36متشکرم.
-
9:36 - 9:39(تشویق حضار)
- Title:
- چالش سیب زمینی سرخ کرده پیچی: چرا «لایک های» رسانه های اجتماعی چیزهای بیشتری از آنچه به نظر می رسد را به ما نشان می دهند
- Speaker:
- جنیفر گلبک
- Description:
-
آیا سیب زمینی سرخ کرده پیچی دوست دارید؟ تا به حال آنها را در فیس بوک «لایک» کرده اید؟ به تماشای این ویدیو بپردازید تا متوجه شوید کهٓ فیس بوک (و سایتهای دیگر) با استفاده از لایکها و اشتراک گذاری های شما چه ویژگی های حیرت آوری را حدس می زنند. متخصص کامپیوتر جنفیر گلبک چگونگی پیدایش این موضوع را توضیح می دهد، برخی از نرم افزارها و تکنولوژی ها خیلی دوست داشتنی نیستند -- و چرا او فکر می کند که ما باید کنترل اطلاعات را به صاحبان واقعی آنها برگردانیم.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
b a approved Persian subtitles for Your social media "likes" expose more than you think | ||
b a edited Persian subtitles for Your social media "likes" expose more than you think | ||
b a edited Persian subtitles for Your social media "likes" expose more than you think | ||
b a edited Persian subtitles for Your social media "likes" expose more than you think | ||
Leila Ataei edited Persian subtitles for Your social media "likes" expose more than you think | ||
Leila Ataei edited Persian subtitles for Your social media "likes" expose more than you think | ||
Ali Mousavi edited Persian subtitles for Your social media "likes" expose more than you think | ||
Ali Mousavi edited Persian subtitles for Your social media "likes" expose more than you think |