WEBVTT 00:00:00.975 --> 00:00:02.571 الگوریتمها همه جا هستند. 00:00:04.111 --> 00:00:07.196 آنها برندهها و بازندهها را ردهبندی کرده و از هم جدا میکنند 00:00:08.036 --> 00:00:10.283 برندهها استخدام میشوند 00:00:10.307 --> 00:00:12.050 یا یک پیشنهاد خوب مالی میگیرند. 00:00:12.074 --> 00:00:14.725 اما بازندهها حتی مصاحبه هم نمیشوند 00:00:15.590 --> 00:00:17.367 یا هزینه بیشتری برای بیمه میپردازند. 00:00:18.197 --> 00:00:21.746 ما با فرمولهای مرموزی سنجیده میشویم که درکشان نمیکنیم. 00:00:22.675 --> 00:00:25.892 که معمولاً سیستمی برای تجدید نظر ندارند. 00:00:27.240 --> 00:00:28.536 این سوالی را بر میانگیزد: 00:00:28.560 --> 00:00:31.473 اگر الگوریتمها اشتباه کنند چطور؟ NOTE Paragraph 00:00:33.100 --> 00:00:35.140 برای ایجاد یک الگوریتم دو چیز نیاز دارید: 00:00:35.164 --> 00:00:37.145 داده، چیزی که در گذشته اتفاق افتاده، 00:00:37.169 --> 00:00:38.730 و تعریفی برای موفقیت، 00:00:38.754 --> 00:00:41.281 چیزی که به دنبال آن هستید و معمولاً انتظارش را دارید. 00:00:41.281 --> 00:00:46.272 شما به الگوریتم با دیدن و درک کردن آموزش میدهید. 00:00:46.296 --> 00:00:49.715 الگوریتم درک میکند که چه چیزهایی با موفقیت ارتباط دارند. 00:00:49.739 --> 00:00:52.202 چه موقعیتی به موفقیت منتهی میشود؟ NOTE Paragraph 00:00:52.881 --> 00:00:55.023 در واقع، همه از الگوریتمها استفاده میکنند. 00:00:55.023 --> 00:00:57.385 فقط آنها را به صورت کد نمینویسند 00:00:57.409 --> 00:00:58.757 بگذارید مثالی بزنم. 00:00:58.781 --> 00:01:02.097 من هر روز از یک الگوریتم برای پخت غذای خانوادهام استفاده میکنم. 00:01:02.121 --> 00:01:03.597 دادههایی که استفاده میکنم 00:01:04.394 --> 00:01:06.053 شامل مواد موجود در آشپزخانهام، 00:01:06.077 --> 00:01:07.604 زمانی که دارم، 00:01:07.628 --> 00:01:08.861 و هدفی که دارم میشود. 00:01:08.885 --> 00:01:10.594 و من این دادهها را مدیریت میکنم. 00:01:10.618 --> 00:01:14.869 من آن بستههای کوچک نودل رامن را غذا به حساب نمیآورم. NOTE Paragraph 00:01:14.893 --> 00:01:16.762 (خنده حضار) NOTE Paragraph 00:01:16.786 --> 00:01:18.631 تعریف من از موفقیت این است: 00:01:18.655 --> 00:01:21.314 یک غذا موفق است اگر فرزندانم سبزیجات بخورند. 00:01:22.181 --> 00:01:25.035 این خیلی متفاوت میشد اگر پسر بزرگترم مسئول بود. 00:01:25.059 --> 00:01:27.847 از نظر او موفقیت این است که بتواند زیاد نوتلا بخورد. 00:01:29.179 --> 00:01:31.405 ولی منم که موفقیت را انتخاب میکنم. 00:01:31.429 --> 00:01:34.136 من مسئولم. نظر من است که اهمیت دارد. 00:01:34.160 --> 00:01:36.835 این اولین قانون الگوریتمهاست. NOTE Paragraph 00:01:36.859 --> 00:01:40.039 الگوریتمها سلایقی هستند که در قالب کد ارائه میشوند. 00:01:41.562 --> 00:01:45.225 این با چیزی که بیشتر مردم در مورد الگوریتمها فکر میکنند تفاوت دارد. 00:01:45.249 --> 00:01:49.753 آنها فکر میکنند که الگوریتمها عینی، درست و علمی هستند. 00:01:50.387 --> 00:01:52.086 این یک حقهٔ بازاریابی است. 00:01:53.269 --> 00:01:55.394 این هم یک حقهٔ بازاریابی است 00:01:55.418 --> 00:01:58.572 که شما را با الگوریتمها بترسانند، 00:01:58.596 --> 00:02:02.257 که شما را وادار به اعتماد به الگوریتمها و ترس از آنها کنند 00:02:02.281 --> 00:02:04.299 به دلیل ترس و اعتماد شما به ریاضیات. 00:02:05.567 --> 00:02:10.397 باور کورکورانه به کلاندادهها میتواند عواقب نادرستی داشته باشد. 00:02:11.684 --> 00:02:15.057 این کیری سورس است. او مدیر یک دبیرستان در بروکلین است. 00:02:15.081 --> 00:02:17.667 در سال ۲۰۱۱، او به من گفت معلمهای مدرسهاش 00:02:17.691 --> 00:02:20.418 با یک الگوریتم مرموز و پیچیده امتیازبندی میشوند 00:02:20.442 --> 00:02:21.931 که نام آن «مدل ارزش افزوده» است. 00:02:22.505 --> 00:02:25.597 من به او گفتم، «خب، فرمول را پیدا کن و به من نشان بده 00:02:25.621 --> 00:02:27.162 من آن را برایت توضیح میدهم». 00:02:27.186 --> 00:02:29.327 او گفت: «من سعی کردم که فرمول را بدست بیاورم، 00:02:29.351 --> 00:02:32.123 اما رابط ادارهی آموزش به من گفت که ریاضیات است 00:02:32.147 --> 00:02:34.073 و من آن را درک نخواهم کرد.» NOTE Paragraph 00:02:35.266 --> 00:02:36.604 بدتر هم میشود. 00:02:36.628 --> 00:02:40.158 روزنامه «نیویورک پست» درخواستی مربوط به «سند آزادی اطلاعات» منتشر کرد، 00:02:40.182 --> 00:02:43.141 نام تمام معلمها و تمام نمراتشان را به دست آورد 00:02:43.165 --> 00:02:46.037 و برای خجالتزده کردن معلمان آنها را منتشر کرد. 00:02:47.084 --> 00:02:50.944 وقتی من خواستم فرمولها و کد را از همین طریق ببینم، 00:02:50.968 --> 00:02:53.117 به من گفتند نمیتوانم. 00:02:53.141 --> 00:02:54.377 از این کار منع شدم. 00:02:54.401 --> 00:02:55.575 بعداً فهمیدم 00:02:55.599 --> 00:02:58.465 که هیچکس در شهر نیویورک به آن فرمول دسترسی نداشت. 00:02:58.489 --> 00:02:59.794 هیچکس آن را نمیفهمید. 00:03:01.929 --> 00:03:05.153 بعداً یک فرد واقعاً باهوش به نام «گری روبنشتاین» درگیر این موضوع شد. 00:03:05.177 --> 00:03:08.798 او ۶۶۵ معلم که در دادههای نیویورک پست بودند را یافت 00:03:08.822 --> 00:03:10.688 که هر یک، دو نمره داشتند. 00:03:10.712 --> 00:03:12.593 اگر یک معلم در دو کلاس هفتم و هشتم 00:03:12.617 --> 00:03:15.056 تدریس کند ممکن است این اتفاق رخ دهد. 00:03:15.080 --> 00:03:16.988 او تصمیم گرفت این دادهها را ترسیم کند. 00:03:16.988 --> 00:03:18.635 هر نقطه نشاندهندهی یک معلم است. NOTE Paragraph 00:03:19.104 --> 00:03:21.483 (خندهی حضار) NOTE Paragraph 00:03:21.507 --> 00:03:23.028 این چیست؟ NOTE Paragraph 00:03:23.052 --> 00:03:24.329 (خندهی حضار) NOTE Paragraph 00:03:24.353 --> 00:03:27.799 هرگز نباید برای ارزیابی افراد مورد استفاده قرار میگرفت. 00:03:27.823 --> 00:03:29.919 تقریباً یک تولیدکنندهی اعداد تصادفی است. NOTE Paragraph 00:03:29.919 --> 00:03:32.719 (تشوق حضار) NOTE Paragraph 00:03:32.743 --> 00:03:33.905 اما استفاده شد. 00:03:33.929 --> 00:03:35.105 این سارا ویساکی است. 00:03:35.129 --> 00:03:37.304 او به همراه ۲۰۵ معلم دیگر 00:03:37.328 --> 00:03:39.990 از ناحیهی مدارس واشنگتون دیسی اخراج شد. 00:03:40.014 --> 00:03:42.923 علیرغم اینکه توصیهنامههای خیلی خوبی از طرف مدیر 00:03:42.947 --> 00:03:44.375 و خانوادههای شاگردانش داشت. NOTE Paragraph 00:03:45.390 --> 00:03:47.422 میدانم بسیاری از شما چه فکر میکنید، 00:03:47.446 --> 00:03:49.933 خصوصاً دانشمندان داده، و خبرگان هوش مصنوعی. 00:03:49.957 --> 00:03:54.183 شما فکر میکنید، «من هرگز الگوریتمی به این ناسازگاری نخواهم ساخت». 00:03:54.853 --> 00:03:57.046 اما الگوریتمها میتوانند اشتباه کنند، 00:03:57.046 --> 00:04:01.158 حتی آثار مخرب عمیقی داشته باشند، در صورتی که نیتشان خیر بوده است. 00:04:02.531 --> 00:04:04.910 برخلاف هواپیمایی که بد طراحی شده است 00:04:04.934 --> 00:04:06.935 و سقوط میکند و همه آن را میبینند، 00:04:06.959 --> 00:04:08.809 الگوریتمی که بد طراحی شده باشد 00:04:10.245 --> 00:04:14.110 ممکن است مدت زیادی به صورت خاموش تخریب کند. NOTE Paragraph 00:04:15.748 --> 00:04:17.318 این راجر ایلز است. NOTE Paragraph 00:04:17.342 --> 00:04:19.342 (خندهی حضار) NOTE Paragraph 00:04:20.524 --> 00:04:22.912 او در سال ۱۹۹۶ فاکس نیوز را تأسیس کرد. 00:04:23.436 --> 00:04:26.017 بیش از ۲۰ زن از آزار جنسی شکایت کردند. 00:04:26.041 --> 00:04:29.276 آنها میگفتند که اجازه موفقیت در فاکس نیوز را ندارند. 00:04:29.300 --> 00:04:31.820 او سال گذشته برکنار شد، اما اخیراً دیده شده 00:04:31.844 --> 00:04:34.514 که مشکلات باقی ماندهاند. 00:04:35.654 --> 00:04:37.374 این مسئله این سؤال را برمیانگیزد: 00:04:37.374 --> 00:04:39.962 فاکس نیوز باید چه کند تا بهبود یابد؟ NOTE Paragraph 00:04:41.245 --> 00:04:44.286 خب، چطور است فرایند استخدم را 00:04:44.310 --> 00:04:46.314 با یک الگوریتم یادگیری ماشین جایگزین کنیم؟ 00:04:46.314 --> 00:04:47.813 به نظر خوب میآید، نه؟ 00:04:47.813 --> 00:04:48.907 به آن فکر کنید. 00:04:48.931 --> 00:04:51.036 داده، دادهها چه خواهند بود؟ 00:04:51.060 --> 00:04:56.007 یک انتخاب منطقی سابقه درخواستهای استخدام در ۲۱ سال گذشتهی فاکس نیوز است. 00:04:56.031 --> 00:04:57.533 منطقی است. 00:04:57.557 --> 00:04:59.495 تعریف موفقیت چطور؟ 00:04:59.921 --> 00:05:01.245 یک انتخاب منطقی این است که، 00:05:01.269 --> 00:05:03.047 چه کسی در فاکس نیوز موفق است؟ 00:05:03.071 --> 00:05:06.651 به نظرم کسی که مثلاً، چهار سال در آنجا مانده باشد 00:05:06.675 --> 00:05:08.329 و حداقل یک بار ارتقاء گرفته باشد. 00:05:08.816 --> 00:05:10.427 به نظرم منطقی است. 00:05:10.427 --> 00:05:12.755 سپس الگوریتم را آموزش میدهیم. 00:05:12.779 --> 00:05:16.656 الگوریتم آموزش داده میشود که بگردد و بفهمد چه چیزی منجر به موفقیت شده است. 00:05:17.219 --> 00:05:19.431 بر اساس این تعریف 00:05:19.431 --> 00:05:22.855 که چه جور درخواستهایی در گذشته منجر به موفقیت شدهاند؟ 00:05:24.200 --> 00:05:26.325 حالا به این فکر کنید که اگر الگوریتم را 00:05:26.325 --> 00:05:28.554 روی درخواستهای فعلی اجرا کنیم چه خواهد شد؟ 00:05:29.119 --> 00:05:30.748 زنها حذف میشوند 00:05:31.663 --> 00:05:35.593 چون شبیه افرادی که در گذشته موفق بودهاند به نظر نمیرسند. NOTE Paragraph 00:05:39.752 --> 00:05:42.289 الگوریتمها چیزی را عادلانه نمیکنند 00:05:42.313 --> 00:05:45.007 اگر آنها را خوشبینانه و کورکورانه به کار ببرید. 00:05:45.031 --> 00:05:46.513 چیزی را عادلانه نمیکنند. 00:05:46.537 --> 00:05:48.665 آنها تجربیات و الگوهای گذشتهی ما را 00:05:48.689 --> 00:05:49.872 تکرار میکنند. 00:05:49.896 --> 00:05:51.835 وضعیت موجود را خودکارسازی میکنند. 00:05:52.718 --> 00:05:55.107 اگر دنیای ما بینقص بود، این عالی بود، 00:05:55.905 --> 00:05:57.217 اما اینطور نیست. 00:05:57.241 --> 00:06:01.343 و اضافه میکنم که اکثر شرکتها دادخواستهای شرمآوری ندارند، 00:06:02.446 --> 00:06:05.034 اما به دانشمندان داده در این شرکتها 00:06:05.058 --> 00:06:07.247 گفته میشود که دادهها را دنبال کنند، 00:06:07.271 --> 00:06:09.414 و روی دقت تمرکز کنند. 00:06:10.273 --> 00:06:12.274 به این فکر کنید که این به چه معنی است. 00:06:12.274 --> 00:06:15.705 چون ما همه تعصباتی داریم، یعنی ممکن است تبعیض جنسی 00:06:15.729 --> 00:06:17.955 یا هر نوع تعصب دیگر را به کد تبدیل کنیم. NOTE Paragraph 00:06:19.488 --> 00:06:20.909 یک آزمایش فکری، 00:06:20.933 --> 00:06:22.442 چون آن را دوست دارم: 00:06:23.574 --> 00:06:26.549 یک جامعه کاملاً تفکیکشده -- 00:06:28.247 --> 00:06:31.575 تفکیکشدهی نژادی، در تمام شهرها، تمام محلهها 00:06:31.599 --> 00:06:33.980 و پلیسها را برای تشخیص جرم 00:06:33.980 --> 00:06:35.853 فقط به محلهی اقلیتها میفرستیم. 00:06:36.451 --> 00:06:38.670 دادههای دستگیریها خیلی تبعیضآمیز خواهد بود. 00:06:39.851 --> 00:06:42.626 چه خوا هد شد اگر علاوه بر این، تعدادی دانشمند داده بیابیم 00:06:42.626 --> 00:06:46.611 و به آنها پول بدهیم تا محل وقوع جرایم بعدی را پیشبینی کنند؟ 00:06:47.275 --> 00:06:48.762 محلهی اقلیتها. 00:06:49.285 --> 00:06:52.410 و یا پیشبینی کنند مجرمِ بعدی که خواهد بود؟ 00:06:52.888 --> 00:06:54.283 یک [فردِ] اقلیت. 00:06:55.949 --> 00:06:59.490 دانشمندان داده به عظمت و دقتِ مدلِشان 00:06:59.514 --> 00:07:00.811 افتخار خواهند کرد، 00:07:00.835 --> 00:07:02.134 و حق دارند. NOTE Paragraph 00:07:03.951 --> 00:07:08.566 آیا این جدی نیست؟ اما ما این تفکیکهای شدید را 00:07:08.590 --> 00:07:10.357 در بسیاری شهرهای بزرگ و کوچک داریم، 00:07:10.357 --> 00:07:11.794 و شواهدی زیادی از تعصبات پلیسی 00:07:11.818 --> 00:07:14.506 و دادههای سیستم قضایی، در دست داریم. 00:07:15.632 --> 00:07:18.447 و در واقع نقاط کانونی را پیشبینی میکنیم، 00:07:18.471 --> 00:07:20.301 مکانهایی که جرم در آن رخ خواهد داد. 00:07:20.401 --> 00:07:24.267 در حقیقت، جنایتکاری فردی را پیشبینی میکنیم. 00:07:24.291 --> 00:07:26.061 میزان جنایتکاری افراد را. 00:07:26.972 --> 00:07:30.935 سازمان خبری پروپابلیکا به یکی از الگوریتمهای 00:07:30.959 --> 00:07:32.983 به ظاهر [تشخیصدهندهی] «ریسک تکرار جرم» 00:07:33.007 --> 00:07:34.170 نگاهی انداخته است. 00:07:34.194 --> 00:07:37.388 که در فلوریدا حین صدور رأی قضات استفاده میشود. 00:07:38.411 --> 00:07:41.996 برنابرد، در سمت چپ، مرد سیاهپوست، امتیاز ۱۰ از ۱۰ گرفته بود. 00:07:43.179 --> 00:07:45.186 دیلان، در سمت راست، ۳ از ۱۰. 00:07:45.210 --> 00:07:47.711 ۱۰ از ۱۰، ریسک زیاد. ۳ از ۱۰، ریسک کم. 00:07:48.598 --> 00:07:51.173 هر دوی آنها به خاطر حمل مواد مخدر دستگیر شده بودند. 00:07:51.173 --> 00:07:52.711 هر دوی آنها سابقهدار بودند، 00:07:52.711 --> 00:07:54.991 اما دیلان سابقهی تبهکاری داشت 00:07:55.015 --> 00:07:56.521 ولی برنارد نداشت. 00:07:57.818 --> 00:08:00.884 این مسئله به این خاطر اهمیت دارد که هر چه امتیاز شما بالاتر باشد، 00:08:00.908 --> 00:08:04.381 احتمال اینکه محکومیت طولانیتری بگیرید افزایش مییابد. NOTE Paragraph 00:08:06.294 --> 00:08:07.588 قضیه چیست؟ 00:08:08.526 --> 00:08:09.858 دادهشویی. 00:08:10.930 --> 00:08:15.357 فرایندی که طی آن فناوریگرایان حقایق زشت را در جعبههای سیاه 00:08:15.381 --> 00:08:17.202 پنهان میکنند. 00:08:17.226 --> 00:08:18.516 و آن را «عینی» میخوانند؛ 00:08:19.320 --> 00:08:21.428 آنرا «شایستهسالاری» خطاب میکنند. 00:08:23.118 --> 00:08:25.803 در حالی که این الگوریتمها مخفی، مهم و ویرانگر هستند، 00:08:25.803 --> 00:08:28.014 من برای آنها نامی در نظر گرفتهام: 00:08:28.038 --> 00:08:30.037 «سلاح کشتار ریاضی.» NOTE Paragraph 00:08:30.061 --> 00:08:31.625 (خنده حضار) NOTE Paragraph 00:08:31.649 --> 00:08:34.703 (تشویق حضار) NOTE Paragraph 00:08:34.727 --> 00:08:37.081 اینها همه جا هستند، و این یک اشتباه نیست. 00:08:37.695 --> 00:08:41.418 این شرکتهای خصوصی الگوریتمهایی خصوصی 00:08:41.442 --> 00:08:42.834 برای اهداف شخصی میسازند. 00:08:43.214 --> 00:08:46.428 حتی همانهایی که دربارهشان صحبت کردم برای معلمان و پلیس عمومی، 00:08:46.452 --> 00:08:48.541 آنها هم توسط شرکتهای خصوصی ساخته شده بودند 00:08:48.541 --> 00:08:50.576 و به مؤسسات دولتی فروخته شده بودند. 00:08:50.600 --> 00:08:52.473 به آن «سس مخصوص» خودشان میگویند 00:08:52.497 --> 00:08:54.915 برای همین نمیتوانند دربارهی آن به ما توضیح دهند. 00:08:54.915 --> 00:08:56.869 قدرت خصوصی هم هست. 00:08:57.924 --> 00:09:02.619 آنها به خاطر داشتن حق محرمانگی سود میبرند. 00:09:05.114 --> 00:09:08.048 ممکن است فکر کنید، چون این چیزها خصوصی هستند 00:09:08.072 --> 00:09:09.230 و رقابت وجود دارد، 00:09:09.254 --> 00:09:11.560 شاید بازار آزاد این مسئله را حل کند. 00:09:11.584 --> 00:09:12.833 اینطور نخواهد شد. 00:09:12.857 --> 00:09:15.977 پول زیادی از بیعدالتی به دست میآید. NOTE Paragraph 00:09:17.127 --> 00:09:20.496 علاوه بر این، ما عاملهای اقتصادیِ منطقیای نیستیم. 00:09:21.031 --> 00:09:22.323 همهی ما تعصباتی داریم. 00:09:22.960 --> 00:09:26.337 ما همه نژادپرست و متعصبیم به طرقی که دوست داشتیم نباشیم، 00:09:26.361 --> 00:09:28.380 به طرقی که حتی نمیدانیم. 00:09:29.352 --> 00:09:32.433 هر چند در مجموع این را میدانیم 00:09:32.457 --> 00:09:35.677 چون جامعهشناسان مدام این را با آزمایشهایی که میکنند، 00:09:35.701 --> 00:09:37.366 ثابت کردهاند. 00:09:37.390 --> 00:09:39.958 آنها تعدادی درخواست استخدام را ارسال میکنند 00:09:39.982 --> 00:09:42.673 که به یک اندازه واجد شرایطند اما برخی نامهای سفیدپوستی 00:09:42.673 --> 00:09:44.213 و برخی نامهای سیاهپوستی دارند، 00:09:44.237 --> 00:09:46.931 و نتیجه همواره ناامیدکننده است، همیشه. NOTE Paragraph 00:09:47.510 --> 00:09:49.281 بنابراین این ما هستیم که تعصب داریم، 00:09:49.305 --> 00:09:52.734 و این تعصبات را با دادههایی که جمعآوری میکنیم 00:09:52.758 --> 00:09:54.570 به الگوریتمها تزریق میکنیم. 00:09:54.594 --> 00:09:57.337 مثلاً من تصمیمی گرفتم به ریمن نودل فکر نکنم 00:09:57.361 --> 00:09:58.986 به نظرم نامربوط بود. 00:09:59.010 --> 00:10:04.694 اما با اعتماد به دادههایی که از تجربیات گذشته یاد میگیرند 00:10:04.718 --> 00:10:06.732 و با انتخاب تعریف موفقیت، 00:10:06.756 --> 00:10:10.739 چطور میتوانیم از الگوریتمها انتظار داشته باشیم جان سالم به در ببرند؟ 00:10:10.763 --> 00:10:13.119 نمیتوانیم. باید آنها را بررسی کنیم. 00:10:14.165 --> 00:10:15.874 باید عدالت را در آنها بررسی کنیم. NOTE Paragraph 00:10:15.898 --> 00:10:18.609 خبر خوب اینکه، میتوانیم عدالت را در آنان بررسی کنیم. 00:10:18.633 --> 00:10:21.985 میتوان الگوریتمها را بازجویی کرد. 00:10:22.009 --> 00:10:24.043 و آنها هر بار به ما حقیقت را خواهند گفت. 00:10:24.067 --> 00:10:27.010 و میتوانیم آنها را درست کنیم. میتوانیم آنها را بهتر کنیم. 00:10:27.010 --> 00:10:28.959 من به این حسابرسی الگوریتمی میگویم، 00:10:28.983 --> 00:10:30.662 و آن را به شما توضیح میدهم. NOTE Paragraph 00:10:30.686 --> 00:10:32.882 نخست، بررسی درستی دادهها. 00:10:34.132 --> 00:10:36.789 برای الگوریتم ریسک تکرار جنایت که دربارهاش صحبت کردم، 00:10:37.582 --> 00:10:41.155 بررسی درستی داده به این معنی است که باید با این حقیقت کنار بیاییم 00:10:41.179 --> 00:10:44.705 که در ایالات متحده، سیاهپوستان و سفیدپوستان به میزان یکسانی گُل میکشند 00:10:44.729 --> 00:10:47.214 اما سیاهپوستان به مراتب بیشتر دستگیر میشوند 00:10:47.238 --> 00:10:50.422 چهار تا پنچ برابر بیشتر وابسته به منطقه. 00:10:51.317 --> 00:10:54.143 این تعصب در سایر ردههای جرم چطور است، 00:10:54.167 --> 00:10:55.618 و چطور آن را در نظر بگیریم؟ NOTE Paragraph 00:10:56.162 --> 00:10:59.201 دوم، باید دربارهی تعریف موفقیت فکر کنیم، 00:10:59.225 --> 00:11:00.606 آن را حسابرسی کنیم. 00:11:00.630 --> 00:11:03.382 الگوریتم استخدام را به خاطر دارید؟ دربارهی آن صحبت کردیم. 00:11:03.406 --> 00:11:06.571 فردی که چهارسال بماند و یک بار ارتقاء گرفته باشد؟ 00:11:06.595 --> 00:11:08.364 خب، این یک کارمند موفق است. 00:11:08.388 --> 00:11:11.747 اما علاوه بر این کارمندی است که در فرهنگش مورد حمایت قرار گرفته است. 00:11:12.089 --> 00:11:14.015 بنابراین، آن هم میتواند متعصبانه باشد. 00:11:14.039 --> 00:11:16.104 باید این دو را از هم جدا کنیم. 00:11:16.128 --> 00:11:17.518 برای مثال باید 00:11:17.518 --> 00:11:19.774 به مصاحبهی ارکستر ناپیدا بنگریم. 00:11:19.798 --> 00:11:22.554 در این مصاحبه افراد مصاحبهگر در پسِ یک پرده هستند. 00:11:22.946 --> 00:11:24.877 آنچه میخواهم به آن فکر کنم 00:11:24.901 --> 00:11:28.318 این است که افرادی که گوش میدهند متوجه شدهاند چه چیزی مهم است 00:11:28.342 --> 00:11:30.371 و چه چیزی مهم نیست، 00:11:30.395 --> 00:11:32.454 و به خاطر آن حواسشان پرت نمیشود. 00:11:32.961 --> 00:11:35.710 زمانی که مصاحبهی ارکستر ناپیدا شروع شد، 00:11:35.734 --> 00:11:39.178 تعداد زنان در ارکسترها پنچ برابر شد. NOTE Paragraph 00:11:40.253 --> 00:11:42.268 سپس، باید دقت را در نظر بگیریم. 00:11:43.233 --> 00:11:46.967 اینجاست که مدل ارزش افزوده برای معلمان بلافاصله در هم میشکند. 00:11:47.578 --> 00:11:49.740 البته هیچ الگوریتمی بینقص نیست، 00:11:50.620 --> 00:11:54.225 بنابراین باید خطای تمام الگوریتمها را در نظر بگیریم. 00:11:54.836 --> 00:11:59.195 این خطاها تا چه حد پر تکرارند، و این مدل برای چه کسانی بد عمل میکند؟ 00:11:59.850 --> 00:12:01.568 هزینهی این خطا چقدر است؟ NOTE Paragraph 00:12:02.434 --> 00:12:04.541 و در نهایت، باید 00:12:05.973 --> 00:12:08.579 آثار بلند مدت الگوریتمها را در نظر بگیریم. 00:12:08.866 --> 00:12:11.073 حلقههای بازخوردی که تشدید کنندهاند. 00:12:11.586 --> 00:12:12.822 به نظر انتزاعی میرسد، 00:12:12.846 --> 00:12:15.710 اما تصور کنید اگر مهندسان فیسبوک پیش از آنکه تصمیم بگیرند 00:12:16.270 --> 00:12:19.921 فقط چیزهایی را به ما نشان بدهند که دوستانمان فرستادهاند، 00:12:19.921 --> 00:12:21.761 این مسئله را در نظر نگرفته بودند. NOTE Paragraph 00:12:21.761 --> 00:12:24.995 دو پیام دیگر هم دارم، یکی برای دانشمندان داده. 00:12:25.450 --> 00:12:28.859 دانشمندان داده: ما نباید داوران حقیقت باشیم. 00:12:29.520 --> 00:12:32.787 ما باید مترجمان گفتگوهای اخلاقی باشیم 00:12:32.787 --> 00:12:35.041 که در جامعهی بزرگتر رخ میدهد. NOTE Paragraph 00:12:35.579 --> 00:12:37.712 (تشویق حضار) NOTE Paragraph 00:12:37.736 --> 00:12:39.292 و بقیهی شما، 00:12:40.011 --> 00:12:41.407 کسانی که دانشمند داده نیستند: 00:12:41.431 --> 00:12:42.929 این یک امتحان ریاضی نیست. 00:12:43.632 --> 00:12:44.980 این یک جنگ سیاسی است. 00:12:46.587 --> 00:12:50.494 ما باید مسئولیتپذیری را از اربابانِ الگوریتمیمان مطالبه کنیم. NOTE Paragraph 00:12:52.118 --> 00:12:53.617 (تشویق حضار) NOTE Paragraph 00:12:53.641 --> 00:12:57.866 عصر ایمان کورکورانه به دادههای عظیم باید پایان بیابد. NOTE Paragraph 00:12:57.890 --> 00:12:59.057 خیلی متشکرم. NOTE Paragraph 00:12:59.081 --> 00:13:04.384 (تشویق حضار)