Return to Video

عصر ایمان کورکورانه به داده‌های عظیم باید به پایان برسد

  • 0:01 - 0:03
    الگوریتمها همه جا هستند.
  • 0:04 - 0:07
    آنها برندهها و بازندهها را
    ردهبندی کرده و از هم جدا میکنند
  • 0:08 - 0:10
    برندهها استخدام میشوند
  • 0:10 - 0:12
    یا یک پیشنهاد خوب مالی میگیرند.
  • 0:12 - 0:15
    اما بازندهها حتی مصاحبه هم نمیشوند
  • 0:16 - 0:17
    یا هزینه بیشتری برای بیمه میپردازند.
  • 0:18 - 0:22
    ما با فرمولهای مرموزی سنجیده میشویم
    که درکشان نمیکنیم.
  • 0:23 - 0:26
    که معمولاً سیستمی برای تجدید نظر ندارند.
  • 0:27 - 0:29
    این سوالی را بر میانگیزد:
  • 0:29 - 0:31
    اگر الگوریتمها اشتباه کنند چطور؟
  • 0:33 - 0:35
    برای ایجاد یک الگوریتم دو چیز نیاز دارید:
  • 0:35 - 0:37
    داده، چیزی که در گذشته اتفاق افتاده،
  • 0:37 - 0:39
    و تعریفی برای موفقیت،
  • 0:39 - 0:41
    چیزی که به دنبال آن هستید
    و معمولاً انتظارش را دارید.
  • 0:41 - 0:46
    شما به الگوریتم با دیدن
    و درک کردن آموزش میدهید.
  • 0:46 - 0:50
    الگوریتم درک میکند که چه چیزهایی
    با موفقیت ارتباط دارند.
  • 0:50 - 0:52
    چه موقعیتی به موفقیت منتهی میشود؟
  • 0:53 - 0:55
    در واقع، همه
    از الگوریتمها استفاده میکنند.
  • 0:55 - 0:57
    فقط آنها را به صورت کد نمینویسند
  • 0:57 - 0:59
    بگذارید مثالی بزنم.
  • 0:59 - 1:02
    من هر روز از یک الگوریتم
    برای پخت غذای خانوادهام استفاده میکنم.
  • 1:02 - 1:04
    دادههایی که استفاده میکنم
  • 1:04 - 1:06
    شامل مواد موجود در آشپزخانهام،
  • 1:06 - 1:08
    زمانی که دارم،
  • 1:08 - 1:09
    و هدفی که دارم میشود.
  • 1:09 - 1:11
    و من این دادهها را مدیریت میکنم.
  • 1:11 - 1:15
    من آن بستههای کوچک
    نودل رامن را غذا به حساب نمیآورم.
  • 1:15 - 1:17
    (خنده حضار)
  • 1:17 - 1:19
    تعریف من از موفقیت این است:
  • 1:19 - 1:21
    یک غذا موفق است
    اگر فرزندانم سبزیجات بخورند.
  • 1:22 - 1:25
    این خیلی متفاوت میشد
    اگر پسر بزرگترم مسئول بود.
  • 1:25 - 1:28
    از نظر او موفقیت این است
    که بتواند زیاد نوتلا بخورد.
  • 1:29 - 1:31
    ولی منم که موفقیت را انتخاب میکنم.
  • 1:31 - 1:34
    من مسئولم.
    نظر من است که اهمیت دارد.
  • 1:34 - 1:37
    این اولین قانون الگوریتمهاست.
  • 1:37 - 1:40
    الگوریتمها سلایقی هستند
    که در قالب کد ارائه میشوند.
  • 1:42 - 1:45
    این با چیزی که بیشتر مردم در مورد
    الگوریتمها فکر میکنند تفاوت دارد.
  • 1:45 - 1:50
    آنها فکر میکنند که الگوریتمها
    عینی، درست و علمی هستند.
  • 1:50 - 1:52
    این یک حقهٔ بازاریابی است.
  • 1:53 - 1:55
    این هم یک حقهٔ بازاریابی است
  • 1:55 - 1:59
    که شما را با الگوریتمها بترسانند،
  • 1:59 - 2:02
    که شما را وادار به اعتماد به الگوریتمها
    و ترس از آنها کنند
  • 2:02 - 2:04
    به دلیل ترس و اعتماد شما به ریاضیات.
  • 2:06 - 2:10
    باور کورکورانه به کلاندادهها
    میتواند عواقب نادرستی داشته باشد.
  • 2:12 - 2:15
    این کیری سورس است.
    او مدیر یک دبیرستان در بروکلین است.
  • 2:15 - 2:18
    در سال ۲۰۱۱، او به من گفت
    معلمهای مدرسهاش
  • 2:18 - 2:20
    با یک الگوریتم مرموز
    و پیچیده امتیازبندی میشوند
  • 2:20 - 2:22
    که نام آن
    «مدل ارزش افزوده» است.
  • 2:23 - 2:26
    من به او گفتم، «خب، فرمول را پیدا کن
    و به من نشان بده
  • 2:26 - 2:27
    من آن را برایت توضیح میدهم».
  • 2:27 - 2:29
    او گفت: «من سعی کردم
    که فرمول را بدست بیاورم،
  • 2:29 - 2:32
    اما رابط ادارهی آموزش
    به من گفت که ریاضیات است
  • 2:32 - 2:34
    و من آن را درک نخواهم کرد.»
  • 2:35 - 2:37
    بدتر هم میشود.
  • 2:37 - 2:40
    روزنامه «نیویورک پست» درخواستی
    مربوط به «سند آزادی اطلاعات» منتشر کرد،
  • 2:40 - 2:43
    نام تمام معلمها
    و تمام نمراتشان را به دست آورد
  • 2:43 - 2:46
    و برای خجالتزده کردن معلمان
    آنها را منتشر کرد.
  • 2:47 - 2:51
    وقتی من خواستم فرمولها
    و کد را از همین طریق ببینم،
  • 2:51 - 2:53
    به من گفتند نمیتوانم.
  • 2:53 - 2:54
    از این کار منع شدم.
  • 2:54 - 2:56
    بعداً فهمیدم
  • 2:56 - 2:58
    که هیچکس در شهر نیویورک
    به آن فرمول دسترسی نداشت.
  • 2:58 - 3:00
    هیچکس آن را نمیفهمید.
  • 3:02 - 3:05
    بعداً یک فرد واقعاً باهوش
    به نام «گری روبنشتاین» درگیر این موضوع شد.
  • 3:05 - 3:09
    او ۶۶۵ معلم که در دادههای
    نیویورک پست بودند را یافت
  • 3:09 - 3:11
    که هر یک، دو نمره داشتند.
  • 3:11 - 3:13
    اگر یک معلم در دو کلاس هفتم و هشتم
  • 3:13 - 3:15
    تدریس کند ممکن است این اتفاق رخ دهد.
  • 3:15 - 3:17
    او تصمیم گرفت این دادهها را ترسیم کند.
  • 3:17 - 3:19
    هر نقطه نشاندهندهی یک معلم است.
  • 3:19 - 3:21
    (خندهی حضار)
  • 3:22 - 3:23
    این چیست؟
  • 3:23 - 3:24
    (خندهی حضار)
  • 3:24 - 3:28
    هرگز نباید برای ارزیابی افراد
    مورد استفاده قرار میگرفت.
  • 3:28 - 3:30
    تقریباً یک تولیدکنندهی اعداد تصادفی است.
  • 3:30 - 3:33
    (تشوق حضار)
  • 3:33 - 3:34
    اما استفاده شد.
  • 3:34 - 3:35
    این سارا ویساکی است.
  • 3:35 - 3:37
    او به همراه ۲۰۵ معلم دیگر
  • 3:37 - 3:40
    از ناحیهی مدارس واشنگتون دیسی اخراج شد.
  • 3:40 - 3:43
    علیرغم اینکه توصیهنامههای
    خیلی خوبی از طرف مدیر
  • 3:43 - 3:44
    و خانوادههای شاگردانش داشت.
  • 3:45 - 3:47
    میدانم بسیاری از شما
    چه فکر میکنید،
  • 3:47 - 3:50
    خصوصاً دانشمندان داده،
    و خبرگان هوش مصنوعی.
  • 3:50 - 3:54
    شما فکر میکنید، «من هرگز الگوریتمی
    به این ناسازگاری نخواهم ساخت».
  • 3:55 - 3:57
    اما الگوریتمها میتوانند اشتباه کنند،
  • 3:57 - 4:01
    حتی آثار مخرب عمیقی داشته باشند،
    در صورتی که نیتشان خیر بوده است.
  • 4:03 - 4:05
    برخلاف هواپیمایی
    که بد طراحی شده است
  • 4:05 - 4:07
    و سقوط میکند و همه آن را میبینند،
  • 4:07 - 4:09
    الگوریتمی که بد طراحی شده باشد
  • 4:10 - 4:14
    ممکن است مدت زیادی
    به صورت خاموش تخریب کند.
  • 4:16 - 4:17
    این راجر ایلز است.
  • 4:17 - 4:19
    (خندهی حضار)
  • 4:21 - 4:23
    او در سال ۱۹۹۶ فاکس نیوز را تأسیس کرد.
  • 4:23 - 4:26
    بیش از ۲۰ زن از آزار جنسی
    شکایت کردند.
  • 4:26 - 4:29
    آنها میگفتند که اجازه موفقیت
    در فاکس نیوز را ندارند.
  • 4:29 - 4:32
    او سال گذشته برکنار شد،
    اما اخیراً دیده شده
  • 4:32 - 4:35
    که مشکلات باقی ماندهاند.
  • 4:36 - 4:37
    این مسئله این سؤال را برمیانگیزد:
  • 4:37 - 4:40
    فاکس نیوز باید چه کند
    تا بهبود یابد؟
  • 4:41 - 4:44
    خب، چطور است فرایند استخدم را
  • 4:44 - 4:46
    با یک الگوریتم یادگیری ماشین جایگزین کنیم؟
  • 4:46 - 4:48
    به نظر خوب میآید، نه؟
  • 4:48 - 4:49
    به آن فکر کنید.
  • 4:49 - 4:51
    داده، دادهها چه خواهند بود؟
  • 4:51 - 4:56
    یک انتخاب منطقی سابقه درخواستهای استخدام
    در ۲۱ سال گذشتهی فاکس نیوز است.
  • 4:56 - 4:58
    منطقی است.
  • 4:58 - 4:59
    تعریف موفقیت چطور؟
  • 5:00 - 5:01
    یک انتخاب منطقی این است که،
  • 5:01 - 5:03
    چه کسی در فاکس نیوز موفق است؟
  • 5:03 - 5:07
    به نظرم کسی که مثلاً،
    چهار سال در آنجا مانده باشد
  • 5:07 - 5:08
    و حداقل یک بار ارتقاء گرفته باشد.
  • 5:09 - 5:10
    به نظرم منطقی است.
  • 5:10 - 5:13
    سپس الگوریتم را آموزش میدهیم.
  • 5:13 - 5:17
    الگوریتم آموزش داده میشود که بگردد
    و بفهمد چه چیزی منجر به موفقیت شده است.
  • 5:17 - 5:19
    بر اساس این تعریف
  • 5:19 - 5:23
    که چه جور درخواستهایی در گذشته
    منجر به موفقیت شدهاند؟
  • 5:24 - 5:26
    حالا به این فکر کنید که اگر الگوریتم را
  • 5:26 - 5:29
    روی درخواستهای فعلی اجرا کنیم
    چه خواهد شد؟
  • 5:29 - 5:31
    زنها حذف میشوند
  • 5:32 - 5:36
    چون شبیه افرادی که در گذشته
    موفق بودهاند به نظر نمیرسند.
  • 5:40 - 5:42
    الگوریتمها چیزی را عادلانه نمیکنند
  • 5:42 - 5:45
    اگر آنها را خوشبینانه
    و کورکورانه به کار ببرید.
  • 5:45 - 5:47
    چیزی را عادلانه نمیکنند.
  • 5:47 - 5:49
    آنها تجربیات و الگوهای گذشتهی ما را
  • 5:49 - 5:50
    تکرار میکنند.
  • 5:50 - 5:52
    وضعیت موجود را خودکارسازی میکنند.
  • 5:53 - 5:55
    اگر دنیای ما بینقص بود،
    این عالی بود،
  • 5:56 - 5:57
    اما اینطور نیست.
  • 5:57 - 6:01
    و اضافه میکنم که اکثر شرکتها
    دادخواستهای شرمآوری ندارند،
  • 6:02 - 6:05
    اما به دانشمندان داده در این شرکتها
  • 6:05 - 6:07
    گفته میشود که دادهها را دنبال کنند،
  • 6:07 - 6:09
    و روی دقت تمرکز کنند.
  • 6:10 - 6:12
    به این فکر کنید که این به چه معنی است.
  • 6:12 - 6:16
    چون ما همه تعصباتی داریم،
    یعنی ممکن است تبعیض جنسی
  • 6:16 - 6:18
    یا هر نوع تعصب دیگر را به کد تبدیل کنیم.
  • 6:19 - 6:21
    یک آزمایش فکری،
  • 6:21 - 6:22
    چون آن را دوست دارم:
  • 6:24 - 6:27
    یک جامعه کاملاً تفکیکشده --
  • 6:28 - 6:32
    تفکیکشدهی نژادی، در تمام شهرها،
    تمام محلهها
  • 6:32 - 6:34
    و پلیسها را برای تشخیص جرم
  • 6:34 - 6:36
    فقط به محلهی اقلیتها میفرستیم.
  • 6:36 - 6:39
    دادههای دستگیریها
    خیلی تبعیضآمیز خواهد بود.
  • 6:40 - 6:43
    چه خوا هد شد اگر علاوه بر این،
    تعدادی دانشمند داده بیابیم
  • 6:43 - 6:47
    و به آنها پول بدهیم تا محل وقوع
    جرایم بعدی را پیشبینی کنند؟
  • 6:47 - 6:49
    محلهی اقلیتها.
  • 6:49 - 6:52
    و یا پیشبینی کنند مجرمِ بعدی
    که خواهد بود؟
  • 6:53 - 6:54
    یک [فردِ] اقلیت.
  • 6:56 - 6:59
    دانشمندان داده به عظمت
    و دقتِ مدلِشان
  • 7:00 - 7:01
    افتخار خواهند کرد،
  • 7:01 - 7:02
    و حق دارند.
  • 7:04 - 7:09
    آیا این جدی نیست؟
    اما ما این تفکیکهای شدید را
  • 7:09 - 7:10
    در بسیاری شهرهای بزرگ و کوچک داریم،
  • 7:10 - 7:12
    و شواهدی زیادی از تعصبات پلیسی
  • 7:12 - 7:15
    و دادههای سیستم قضایی،
    در دست داریم.
  • 7:16 - 7:18
    و در واقع نقاط کانونی را پیشبینی میکنیم،
  • 7:18 - 7:20
    مکانهایی که جرم در آن رخ خواهد داد.
  • 7:20 - 7:24
    در حقیقت، جنایتکاری فردی
    را پیشبینی میکنیم.
  • 7:24 - 7:26
    میزان جنایتکاری افراد را.
  • 7:27 - 7:31
    سازمان خبری پروپابلیکا
    به یکی از الگوریتمهای
  • 7:31 - 7:33
    به ظاهر [تشخیصدهندهی] «ریسک تکرار جرم»
  • 7:33 - 7:34
    نگاهی انداخته است.
  • 7:34 - 7:37
    که در فلوریدا حین صدور رأی
    قضات استفاده میشود.
  • 7:38 - 7:42
    برنابرد، در سمت چپ، مرد سیاهپوست،
    امتیاز ۱۰ از ۱۰ گرفته بود.
  • 7:43 - 7:45
    دیلان، در سمت راست، ۳ از ۱۰.
  • 7:45 - 7:48
    ۱۰ از ۱۰، ریسک زیاد.
    ۳ از ۱۰، ریسک کم.
  • 7:49 - 7:51
    هر دوی آنها به خاطر حمل
    مواد مخدر دستگیر شده بودند.
  • 7:51 - 7:53
    هر دوی آنها سابقهدار بودند،
  • 7:53 - 7:55
    اما دیلان سابقهی تبهکاری داشت
  • 7:55 - 7:57
    ولی برنارد نداشت.
  • 7:58 - 8:01
    این مسئله به این خاطر اهمیت دارد
    که هر چه امتیاز شما بالاتر باشد،
  • 8:01 - 8:04
    احتمال اینکه محکومیت طولانیتری
    بگیرید افزایش مییابد.
  • 8:06 - 8:08
    قضیه چیست؟
  • 8:09 - 8:10
    دادهشویی.
  • 8:11 - 8:15
    فرایندی که طی آن فناوریگرایان
    حقایق زشت را در جعبههای سیاه
  • 8:15 - 8:17
    پنهان میکنند.
  • 8:17 - 8:19
    و آن را «عینی» میخوانند؛
  • 8:19 - 8:21
    آنرا «شایستهسالاری» خطاب میکنند.
  • 8:23 - 8:26
    در حالی که این الگوریتمها مخفی،
    مهم و ویرانگر هستند،
  • 8:26 - 8:28
    من برای آنها نامی در نظر گرفتهام:
  • 8:28 - 8:30
    «سلاح کشتار ریاضی.»
  • 8:30 - 8:32
    (خنده حضار)
  • 8:32 - 8:35
    (تشویق حضار)
  • 8:35 - 8:37
    اینها همه جا هستند،
    و این یک اشتباه نیست.
  • 8:38 - 8:41
    این شرکتهای خصوصی
    الگوریتمهایی خصوصی
  • 8:41 - 8:43
    برای اهداف شخصی میسازند.
  • 8:43 - 8:46
    حتی همانهایی که دربارهشان صحبت کردم
    برای معلمان و پلیس عمومی،
  • 8:46 - 8:49
    آنها هم توسط شرکتهای خصوصی
    ساخته شده بودند
  • 8:49 - 8:51
    و به مؤسسات دولتی فروخته شده بودند.
  • 8:51 - 8:52
    به آن «سس مخصوص» خودشان میگویند
  • 8:52 - 8:55
    برای همین نمیتوانند دربارهی آن
    به ما توضیح دهند.
  • 8:55 - 8:57
    قدرت خصوصی هم هست.
  • 8:58 - 9:03
    آنها به خاطر داشتن
    حق محرمانگی سود میبرند.
  • 9:05 - 9:08
    ممکن است فکر کنید،
    چون این چیزها خصوصی هستند
  • 9:08 - 9:09
    و رقابت وجود دارد،
  • 9:09 - 9:12
    شاید بازار آزاد
    این مسئله را حل کند.
  • 9:12 - 9:13
    اینطور نخواهد شد.
  • 9:13 - 9:16
    پول زیادی از بیعدالتی
    به دست میآید.
  • 9:17 - 9:20
    علاوه بر این، ما
    عاملهای اقتصادیِ منطقیای نیستیم.
  • 9:21 - 9:22
    همهی ما تعصباتی داریم.
  • 9:23 - 9:26
    ما همه نژادپرست و متعصبیم
    به طرقی که دوست داشتیم نباشیم،
  • 9:26 - 9:28
    به طرقی که حتی نمیدانیم.
  • 9:29 - 9:32
    هر چند در مجموع این را میدانیم
  • 9:32 - 9:36
    چون جامعهشناسان
    مدام این را با آزمایشهایی که میکنند،
  • 9:36 - 9:37
    ثابت کردهاند.
  • 9:37 - 9:40
    آنها تعدادی درخواست
    استخدام را ارسال میکنند
  • 9:40 - 9:43
    که به یک اندازه واجد شرایطند
    اما برخی نامهای سفیدپوستی
  • 9:43 - 9:44
    و برخی نامهای سیاهپوستی دارند،
  • 9:44 - 9:47
    و نتیجه همواره ناامیدکننده است، همیشه.
  • 9:48 - 9:49
    بنابراین این ما هستیم که تعصب داریم،
  • 9:49 - 9:53
    و این تعصبات را
    با دادههایی که جمعآوری میکنیم
  • 9:53 - 9:55
    به الگوریتمها تزریق میکنیم.
  • 9:55 - 9:57
    مثلاً من تصمیمی گرفتم
    به ریمن نودل فکر نکنم
  • 9:57 - 9:59
    به نظرم نامربوط بود.
  • 9:59 - 10:05
    اما با اعتماد به دادههایی
    که از تجربیات گذشته یاد میگیرند
  • 10:05 - 10:07
    و با انتخاب تعریف موفقیت،
  • 10:07 - 10:11
    چطور میتوانیم از الگوریتمها
    انتظار داشته باشیم جان سالم به در ببرند؟
  • 10:11 - 10:13
    نمیتوانیم. باید آنها را بررسی کنیم.
  • 10:14 - 10:16
    باید عدالت را در آنها بررسی کنیم.
  • 10:16 - 10:19
    خبر خوب اینکه،
    میتوانیم عدالت را در آنان بررسی کنیم.
  • 10:19 - 10:22
    میتوان الگوریتمها را بازجویی کرد.
  • 10:22 - 10:24
    و آنها هر بار به ما
    حقیقت را خواهند گفت.
  • 10:24 - 10:27
    و میتوانیم آنها را درست کنیم.
    میتوانیم آنها را بهتر کنیم.
  • 10:27 - 10:29
    من به این حسابرسی الگوریتمی میگویم،
  • 10:29 - 10:31
    و آن را به شما توضیح میدهم.
  • 10:31 - 10:33
    نخست، بررسی درستی دادهها.
  • 10:34 - 10:37
    برای الگوریتم ریسک تکرار جنایت
    که دربارهاش صحبت کردم،
  • 10:38 - 10:41
    بررسی درستی داده به این معنی است
    که باید با این حقیقت کنار بیاییم
  • 10:41 - 10:45
    که در ایالات متحده، سیاهپوستان
    و سفیدپوستان به میزان یکسانی گُل میکشند
  • 10:45 - 10:47
    اما سیاهپوستان به مراتب
    بیشتر دستگیر میشوند
  • 10:47 - 10:50
    چهار تا پنچ برابر بیشتر
    وابسته به منطقه.
  • 10:51 - 10:54
    این تعصب در سایر ردههای جرم چطور است،
  • 10:54 - 10:56
    و چطور آن را در نظر بگیریم؟
  • 10:56 - 10:59
    دوم، باید دربارهی تعریف موفقیت فکر کنیم،
  • 10:59 - 11:01
    آن را حسابرسی کنیم.
  • 11:01 - 11:03
    الگوریتم استخدام را به خاطر دارید؟
    دربارهی آن صحبت کردیم.
  • 11:03 - 11:07
    فردی که چهارسال بماند
    و یک بار ارتقاء گرفته باشد؟
  • 11:07 - 11:08
    خب، این یک کارمند موفق است.
  • 11:08 - 11:12
    اما علاوه بر این کارمندی است
    که در فرهنگش مورد حمایت قرار گرفته است.
  • 11:12 - 11:14
    بنابراین، آن هم میتواند متعصبانه باشد.
  • 11:14 - 11:16
    باید این دو را از هم جدا کنیم.
  • 11:16 - 11:18
    برای مثال باید
  • 11:18 - 11:20
    به مصاحبهی ارکستر ناپیدا بنگریم.
  • 11:20 - 11:23
    در این مصاحبه افراد مصاحبهگر
    در پسِ یک پرده هستند.
  • 11:23 - 11:25
    آنچه میخواهم به آن فکر کنم
  • 11:25 - 11:28
    این است که افرادی که گوش میدهند
    متوجه شدهاند چه چیزی مهم است
  • 11:28 - 11:30
    و چه چیزی مهم نیست،
  • 11:30 - 11:32
    و به خاطر آن
    حواسشان پرت نمیشود.
  • 11:33 - 11:36
    زمانی که مصاحبهی ارکستر ناپیدا شروع شد،
  • 11:36 - 11:39
    تعداد زنان در ارکسترها
    پنچ برابر شد.
  • 11:40 - 11:42
    سپس، باید دقت را در نظر بگیریم.
  • 11:43 - 11:47
    اینجاست که مدل ارزش افزوده
    برای معلمان بلافاصله در هم میشکند.
  • 11:48 - 11:50
    البته هیچ الگوریتمی بینقص نیست،
  • 11:51 - 11:54
    بنابراین باید خطای
    تمام الگوریتمها را در نظر بگیریم.
  • 11:55 - 11:59
    این خطاها تا چه حد پر تکرارند،
    و این مدل برای چه کسانی بد عمل میکند؟
  • 12:00 - 12:02
    هزینهی این خطا چقدر است؟
  • 12:02 - 12:05
    و در نهایت، باید
  • 12:06 - 12:09
    آثار بلند مدت الگوریتمها را
    در نظر بگیریم.
  • 12:09 - 12:11
    حلقههای بازخوردی که تشدید کنندهاند.
  • 12:12 - 12:13
    به نظر انتزاعی میرسد،
  • 12:13 - 12:16
    اما تصور کنید اگر مهندسان فیسبوک
    پیش از آنکه تصمیم بگیرند
  • 12:16 - 12:20
    فقط چیزهایی را به ما نشان بدهند
    که دوستانمان فرستادهاند،
  • 12:20 - 12:22
    این مسئله را در نظر نگرفته بودند.
  • 12:22 - 12:25
    دو پیام دیگر هم دارم،
    یکی برای دانشمندان داده.
  • 12:25 - 12:29
    دانشمندان داده: ما نباید
    داوران حقیقت باشیم.
  • 12:30 - 12:33
    ما باید مترجمان گفتگوهای اخلاقی باشیم
  • 12:33 - 12:35
    که در جامعهی بزرگتر رخ میدهد.
  • 12:36 - 12:38
    (تشویق حضار)
  • 12:38 - 12:39
    و بقیهی شما،
  • 12:40 - 12:41
    کسانی که دانشمند داده نیستند:
  • 12:41 - 12:43
    این یک امتحان ریاضی نیست.
  • 12:44 - 12:45
    این یک جنگ سیاسی است.
  • 12:47 - 12:50
    ما باید مسئولیتپذیری را
    از اربابانِ الگوریتمیمان مطالبه کنیم.
  • 12:52 - 12:54
    (تشویق حضار)
  • 12:54 - 12:58
    عصر ایمان کورکورانه
    به دادههای عظیم باید پایان بیابد.
  • 12:58 - 12:59
    خیلی متشکرم.
  • 12:59 - 13:04
    (تشویق حضار)
Title:
عصر ایمان کورکورانه به داده‌های عظیم باید به پایان برسد
Speaker:
کثی اونیل
Description:

الگوریتم‌ها تعیین می‌کنند چه کسی وام می‌گیرد، چه کسی مصاحبه می‌شود، چه کسی بیمه می‌شود و خیلی کارهای دیگر. اما الگوریتم‌ها به صورت خودکار چیزی را عادلانه نمی‌کنند. کثی اونیل، ریاضی‌دان و دانشمند داده، اصطلاحی را برای الگوریتم‌های مخفی، مهم و مضر ابداع کرد: «سلاح کشتار ریاضی.» درباره‌ی برنامه‌ی پنهان در پس فرمول‌ها بیشتر بدانید.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18

Persian subtitles

Revisions