WEBVTT 00:00:01.041 --> 00:00:04.175 سلام ، من جوی هستم ، شاعر کد، 00:00:04.199 --> 00:00:09.192 در یک ماموریت برای متوقف کردن یک نیروی دیده نشده در حال ظهور، 00:00:09.216 --> 00:00:12.072 نیرویی که من آن را "نگاه رمزی" صدا می کنم 00:00:12.096 --> 00:00:15.405 اصطلاح من برای تبعیض الگوریتمی. NOTE Paragraph 00:00:15.429 --> 00:00:19.729 تبعیض الگوریتمی، مانند تبعیض انسانی باعث نابرابری میشود. 00:00:19.753 --> 00:00:25.775 با این حال،الگوریتم ها، مانند ویروس ها می تونن در ابعاد عظیم 00:00:25.799 --> 00:00:27.381 و سرعت زیادی، تبعیض رو گسترش یابند 00:00:27.943 --> 00:00:32.330 تبعیض الگوریتمی همچنین میتونه باعث تجربیات انحصاری 00:00:32.354 --> 00:00:34.482 و اعمال تبعیض آمیز بشه. 00:00:34.506 --> 00:00:36.567 بذارین منظورمو بهتون نشون بدم. NOTE Paragraph 00:00:36.980 --> 00:00:39.416 [فیلم] جوی: سلام دوربین. من یک صورت دارم. 00:00:40.162 --> 00:00:42.026 میتونی صورتمو ببینی 00:00:42.051 --> 00:00:43.676 صورت بدون عینکم رو؟ 00:00:43.701 --> 00:00:45.915 تو میتونی صورتشو ببینی. 00:00:46.237 --> 00:00:48.482 صورت من رو چطور؟ 00:00:51.890 --> 00:00:55.640 من یک ماسک دارم. می تونی ماسک من رو ببینی؟ NOTE Paragraph 00:00:56.474 --> 00:00:58.839 پس چطور این اتفاق افتاد؟ 00:00:58.863 --> 00:01:02.004 چرا من روبه روی یک کامپیوتر نشستم 00:01:02.028 --> 00:01:03.452 به همراه یک ماسک سفید 00:01:03.476 --> 00:01:07.126 و تلاش می کنم تا به وسیله یک وب کم ارزان قیمت شناخته شوم؟ 00:01:07.150 --> 00:01:09.441 خب وقتی که من با "نگاه رمزی" مبارزه نمی کنم 00:01:09.465 --> 00:01:10.985 به عنوان یک شاعر کد، 00:01:11.009 --> 00:01:14.281 من یک دانشجوی تحصیلات تکمیلی در آزمایشگاه رسانه MIT هستم 00:01:14.305 --> 00:01:19.222 من آنجا فرصت دارم تا روی انواع پروژه های جالب و خیالبافانه کار کنم 00:01:19.246 --> 00:01:21.273 مثل آینه آرزو 00:01:21.297 --> 00:01:26.431 پروژه ای که می تواند روی تصویر من ماسک بگذارد 00:01:26.455 --> 00:01:28.805 پس در صبح، اگر من بخوام احساس قدرت کنم، 00:01:28.829 --> 00:01:30.263 میتونم ماسک یک شیر رو بذارم. 00:01:30.287 --> 00:01:33.783 یا اگر بخواهم با روحیه باشم می توانم یک نقل قول ببینم. 00:01:33.807 --> 00:01:36.796 بنابراین از یک دستگاه تشخیص چهره استفاده کردم 00:01:36.820 --> 00:01:38.171 تا این سیستم رو بسازم، 00:01:38.195 --> 00:01:43.298 ولی فهمیدم که واقعا بدون ماسک سفید امکان تست این سیستم وجود نداره. NOTE Paragraph 00:01:44.282 --> 00:01:48.628 متاسفانه قبلاً هم به این مشکل برخورد کرده بودم 00:01:48.652 --> 00:01:52.955 وقتی که در دانشگاه Gerogia Tech دانشجوی کارشناسی رشته علوم کامپیوتر بودم، 00:01:52.979 --> 00:01:55.034 روی رباتهای اجتماعی کار میکردم، 00:01:55.058 --> 00:01:58.835 و یکی از وظایفم این بود که به ربات بازی peek-a-boo رو یاد بدم 00:01:58.859 --> 00:02:00.542 یک بازی نوبتی ساده (مثل دالّی کردن) 00:02:00.566 --> 00:02:04.887 که تو اون به نوبت هرکی صورتشو میپوشونه و بعد پوشش رو بر میداره و میگه "peek-a-boo" 00:02:04.911 --> 00:02:09.340 مشکل اینه که، این بازی اگر من نتونم ببینمتون فایده نداره 00:02:09.364 --> 00:02:11.863 و ربات من نمیتونست من رو ببینه. 00:02:11.887 --> 00:02:15.837 ولی من صورت هم اتاقیم رو قرض گرفتم تا پروژم رو انجام بدم 00:02:15.861 --> 00:02:17.241 تمرین رو انجام دادم، 00:02:17.265 --> 00:02:21.018 و فهمیدم که، میدونی چیه؟ یکی دیگه این مشکل رو حل خواهد کرد. NOTE Paragraph 00:02:21.669 --> 00:02:23.672 مدت کوتاهی بعد از این ماجرا، 00:02:23.696 --> 00:02:27.855 من برای یک مسابقه کارآفرینی در هنگ کنگ بودم. 00:02:28.339 --> 00:02:31.033 برگزارکنندگان تصیمیم گرفتن که شرکت کننده ها رو 00:02:31.057 --> 00:02:33.429 به یک تور بازدید از استارتاپ های محلی ببرن 00:02:33.453 --> 00:02:36.168 یکی از استارتاپها یک ربات اجتماعی داشت، 00:02:36.192 --> 00:02:38.104 و تصمیم گرفتن که یک دمو برگزار کنن. 00:02:38.128 --> 00:02:41.108 دمو روی همه کار کرد تا اینکه نوبت من شد 00:02:41.132 --> 00:02:43.055 و احتمالا میتونین حدس بزنین. 00:02:43.079 --> 00:02:46.044 که ربات نتونست صورت من رو تشخیص بده. 00:02:46.068 --> 00:02:48.579 من از توسعهدهندگان ربات پرسیدم جریان چیه 00:02:48.603 --> 00:02:54.136 و معلوم شد که همون نرمافزار تشخیص چهرهای رو استفاده میکردن که ما میکردیم. 00:02:54.160 --> 00:02:55.810 اون طرف دنیا، 00:02:55.834 --> 00:02:59.686 من یاد گرفتم که تبعیض الگوریتمی میتونه خیلی سریع سفر کنه 00:02:59.710 --> 00:03:02.880 به سرعت دانلود چندتا فایل از اینترنت. NOTE Paragraph 00:03:03.745 --> 00:03:06.821 حالا جریان چیه؟ چرا صورت من تشخیص داده نشد؟ 00:03:06.845 --> 00:03:10.201 باید ببینیم که ما چطوری به ماشینها توانایی دیدن میدیم. 00:03:10.225 --> 00:03:13.634 بینایی کامپیوتر برای تشخیص چهره از تکنیکهای یادگیری ماشین استفاده میکنه 00:03:15.562 --> 00:03:19.459 روش کارش اینطوریه که یک مجموعه داده آموزشی از نمونه صورت ها درست میکنید. 00:03:19.483 --> 00:03:22.301 این یک صورته. این یک صورته. این صورت نیست. 00:03:22.325 --> 00:03:26.844 و به مرور زمان، میتونین به کامپیوتر یاد بدین که چطوری صورت هارو تشخیص بده. 00:03:26.868 --> 00:03:30.857 اما اگه مجموعه داده آموزشی واقعا متنوع نباشه. 00:03:30.881 --> 00:03:34.230 هر چهرهای که خیلی با معیار فرق کنه، 00:03:34.254 --> 00:03:35.903 تشخیصش سخت تر میشه 00:03:35.927 --> 00:03:37.890 که این برای من هم پیش اومد. NOTE Paragraph 00:03:37.914 --> 00:03:40.296 ولی نگران نباشین خبرهای خوبی برای شنیدن هستن 00:03:40.320 --> 00:03:43.091 مجموعه داده آموزشی همینطوری از ناکجا آباد نمیان. 00:03:43.115 --> 00:03:44.903 در واقع ما میسازیمشون. 00:03:44.927 --> 00:03:49.103 پس این فرصت برای ساخت مجموعه داده آموزشی متنوع و فراگیر وجود داره. 00:03:49.127 --> 00:03:52.951 که تصویر غنیتری از انسانیت رو نشون بدن. NOTE Paragraph 00:03:52.975 --> 00:03:55.196 شما در مثالهای من دیدین که 00:03:55.220 --> 00:03:56.988 چجوری رباتهای اجتماعی 00:03:57.012 --> 00:04:01.623 باعث کشف من درباره محرومیت به وسیله تبعیض الگوریتمی شدن. 00:04:01.647 --> 00:04:06.462 ولی تبعیض الگوریتمی میتونه باعث رفتارهای تبعیضآمیز بشه 00:04:07.437 --> 00:04:08.890 در سراسر ایالات متحده 00:04:08.914 --> 00:04:13.112 دپارتمانهای پلیس شروع به استفاده از نرمافزار تشخیص چهره کردن. 00:04:13.136 --> 00:04:15.595 و اون رو به تجهیزاتشون در جنگ با جرم اضافه کردن. 00:04:15.619 --> 00:04:17.632 Georgetown Law گزارشی رو منتشر کرده که 00:04:17.656 --> 00:04:24.419 نشون میده، در ایالت متحده از هر دو نفر یک نفر 00:04:24.443 --> 00:04:27.977 چیزی حدود ۱۱۷ میلیون نفر تصاویرشون در شبکههای تشخیص چهره قرار داره 00:04:28.001 --> 00:04:32.553 پلیس بدون نظارت مراجع مربوطه میتونه به این شبکهها نگاه کنه 00:04:32.577 --> 00:04:36.863 اونم با استفاده از الگوریتمهایی که صحتشون تایید نشده. 00:04:36.887 --> 00:04:40.751 با این وجود میدونیم که تشخیص چهره، عاری از خطا نیست 00:04:40.775 --> 00:04:44.954 و مشخص کردن چهرهها همیشه یک چالش باقی خواهد ماند. 00:04:44.978 --> 00:04:46.740 شاید شما اینو تو فیسبوک دیده باشین. 00:04:46.764 --> 00:04:51.632 من و دوستام همیشه ازینکه بقیه اشتباه تو عکسهامون مشخص شدن خندمون میگیره. 00:04:52.258 --> 00:04:57.849 ولی تشخیص اشتباه یک مظنون جنایی اصلا چیز خنده داری نیست. 00:04:57.873 --> 00:05:00.700 نقض آزادیهای مدنی هم همینطور. NOTE Paragraph 00:05:00.724 --> 00:05:03.929 برای تشخیص چهره، از یادگیری ماشین داره استفاده میشه 00:05:03.953 --> 00:05:08.458 ولی یادگیری ماشین فراتر از محدوده بینایی ماشین هست. 00:05:09.266 --> 00:05:13.282 در کتاب "سلاحهای ریاضی مخرب" 00:05:13.306 --> 00:05:19.987 Cathy O'Neil که یک داده شناس هست، درباره ظهور این سلاحهای جدید صحبت میکنه 00:05:20.011 --> 00:05:24.364 الگوریتمهایی مرموز، فراگیر و مخرب 00:05:24.388 --> 00:05:27.352 که به طور روز افزون در حال استفاده شدن در تصمیم گیریها هستند. 00:05:27.376 --> 00:05:30.553 و روی جنبه های بیشتری از زندگیهای ما تاثیر میذارن. 00:05:30.577 --> 00:05:32.447 مثلا کی استخدام شه کی اخراج؟ 00:05:32.471 --> 00:05:34.843 فلان وام رو بگیرین؟ بیمه بشین؟ 00:05:34.843 --> 00:05:38.110 در دانشگاهی که میخواهین برین پذیرفته شین؟ 00:05:38.134 --> 00:05:41.643 من و شما یک کالا رو از یک مکان با یک قیمت بخریم؟ NOTE Paragraph 00:05:44.133 --> 00:05:47.892 مجریان قانونی هم شروع به استفاده از یادگیری ماشین 00:05:47.916 --> 00:05:50.205 برای محافظت پیشگیرانه کرده اند. 00:05:50.229 --> 00:05:54.123 برخی از قاضی ها از مقدار ریسک محاسبه شده توسط ماشین برای مشخص کردن اینکه 00:05:54.123 --> 00:05:58.149 یک فرد چقدر در زندان باشد، استفاده میکنند. 00:05:58.173 --> 00:06:00.627 پس ما باید خیلی جدی درباره این تصمیمات فکر کنیم. 00:06:00.651 --> 00:06:01.833 آیا منصفانه هستن؟ 00:06:01.857 --> 00:06:04.747 و ما تبعیض الگوریتمی رو دیده ایم 00:06:04.771 --> 00:06:08.145 که لزوماً باعث نتایج منصفانه نمیشن. NOTE Paragraph 00:06:08.169 --> 00:06:10.133 خب ما چه کار میتونیم بکنیم؟ 00:06:10.157 --> 00:06:13.837 ما میتونیم شروع کنیم به فکر کردن درباره ساختن کدهای غیر انحصاری تر 00:06:13.861 --> 00:06:16.851 و رفتارهای غیر انحصاری رو برای کد زدن استفاده کنیم. 00:06:16.875 --> 00:06:19.184 همه چی واقعاً از آدمها شروع میشه. 00:06:19.708 --> 00:06:21.669 اینکه چه کسی کُد میزنه مهمه. 00:06:21.693 --> 00:06:25.812 آیا ما داریم تیم هایی با طیف مختلفی از افراد درست میکنیم؟ 00:06:25.836 --> 00:06:28.247 که بتونن نقاط ضعف همدیگه رو بررسی کنن؟ 00:06:28.271 --> 00:06:31.816 در سمت تکنیکال، اینکه چطوری کد میزنیم مهمه 00:06:31.840 --> 00:06:35.491 آیا وقتی که یک سیستم رو توسعه میدیم برامون برابری یک شاخص هست؟ 00:06:35.515 --> 00:06:38.428 و در پایان، اینکه چرا کد میزنیم مهمه. 00:06:38.785 --> 00:06:43.868 ما از ابزارهای کامپیوتری برای بدست آوردن ثروت زیادی استفاده کرده ایم. 00:06:43.892 --> 00:06:48.339 حالا این فرصت رو داریم که حتی برابری بیشتری هم بدست بیاریم. 00:06:48.363 --> 00:06:51.293 به شرط اینکه تغییر اجتماعی رو یک اولویت بذاریم 00:06:51.317 --> 00:06:53.767 و به عنوان نه چیزی که حالا بعدا بهش فکر میکنیم 00:06:54.008 --> 00:06:58.530 پس برای جنبش "کد غیرانحصاری" این سه اصل رو داریم: 00:06:58.554 --> 00:07:00.206 اینکه کی کد میزنه مهمه، 00:07:00.230 --> 00:07:01.773 اینکه چطوری کد میزنیم مهمه 00:07:01.797 --> 00:07:03.820 و اینکه چرا کد میزنیم هم مهمه. NOTE Paragraph 00:07:03.844 --> 00:07:06.943 پس برای اینکه به این سمت بریم، میتونیم شروع کنیم به فکر کردن 00:07:06.967 --> 00:07:10.131 درباره ساختن پلتفرمهایی که تبعیض رو تشخیص میدن 00:07:10.155 --> 00:07:13.233 استفاده از تجربیات افراد، مثل اونایی که من به اشتراک گذاشتم 00:07:13.257 --> 00:07:16.327 و البته نظارت و بازرسی بر نرم افزارها. 00:07:16.351 --> 00:07:20.116 همچنین میتونیم شروع کنیم به ساختن مجموعه دادههای آموزشی غیرانحصاری تر. 00:07:20.140 --> 00:07:22.943 کمپین "سلفی برای باهم بودن" رو تصور کنید 00:07:22.967 --> 00:07:25.816 که من و شما میتونیم به برنامهنویسها کمک کنیم 00:07:25.816 --> 00:07:28.649 تا مجموعه دادههای غیرانحصاریتری بسازن و تست کنن 00:07:29.302 --> 00:07:32.130 و میتونیم با وجدان بیشتری شروع به فکر کردن کنیم 00:07:32.154 --> 00:07:37.545 درباره مسائلی مثل تاثیر اجتماعی تکنولوژی که خودمون توسعش میدیم. NOTE Paragraph 00:07:37.569 --> 00:07:39.962 برای شروع این جنبش، 00:07:39.986 --> 00:07:42.833 من لیگ عدالت الگوریتمی رو راه اندازی کردم 00:07:42.857 --> 00:07:48.729 که هرکس که به برابری اهمیت میده میتونه برای مبارزه با نگاه رمزی مبارزه کنه 00:07:48.753 --> 00:07:52.049 شما میتونین در سایت codedgaze.com تبعیض ها رو گزارش بدین، 00:07:52.073 --> 00:07:54.518 درخواست بررسی کنین، یک تست کننده بشین 00:07:54.542 --> 00:07:57.313 و به گفتگو در جریان بپیوندید. 00:07:57.337 --> 00:07:59.624 codedgaze# NOTE Paragraph 00:08:00.742 --> 00:08:03.229 من شما رو دعوت میکنم که به من ملحق شین 00:08:03.253 --> 00:08:06.972 برای ساخت جهانی که در آن، تکنولوژی برای همهی ما، نه فقط بعضیها کار کنه. 00:08:08.917 --> 00:08:13.505 جهانی که به غیر انحصاری بودن ارزش میدیم و تغییرات اجتماعی مورد توجهمون هست. NOTE Paragraph 00:08:13.529 --> 00:08:14.704 خیلی ممنون. NOTE Paragraph 00:08:14.728 --> 00:08:18.999 (تشویق حاضرین) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 ولی من یک سوال ازتون دارم: 00:08:23.751 --> 00:08:25.810 آیا به من در این مبارزه میپیوندید؟ NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (خنده حاضرین) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (تشویق حاضرین)