WEBVTT 00:00:00.739 --> 00:00:04.861 خب، من اولین شغلم را به عنوان یک برنامه نویس کامپیوتر شروع کردم 00:00:04.885 --> 00:00:06.841 در اولین سال کالجم 00:00:06.865 --> 00:00:08.372 در واقع، به عنوان یک نوجوان NOTE Paragraph 00:00:08.889 --> 00:00:10.621 درست پس از شروع به کار در 00:00:10.645 --> 00:00:12.255 یک شزکت به عنوان برنامهنویس کامپیوتر ، 00:00:12.799 --> 00:00:16.434 یک مدیر که در همان جا کار میکرد نزد من آمد، 00:00:16.458 --> 00:00:17.726 و با صدای آرام به من گفت: 00:00:18.229 --> 00:00:21.090 "او می تونه بگه اگه من دروغ بگم؟" 00:00:21.806 --> 00:00:23.883 در اتاق هیچ کسی وجود نداشت. NOTE Paragraph 00:00:25.032 --> 00:00:29.421 "کسی میتونه بگه اگه تو دروغ میگی؟ و چرا ما در حال پچ پچ کردن هستیم؟" NOTE Paragraph 00:00:30.266 --> 00:00:33.373 مدیر کامپیوتر در اتاق را نشان داد. 00:00:33.397 --> 00:00:36.493 "او میتونه بگه اگه من دروغ بگم؟" 00:00:37.613 --> 00:00:41.975 خب، آن مدیر رابطه نامشروع با منشیاش داشت. NOTE Paragraph 00:00:41.999 --> 00:00:43.111 (خنده حاضرین) NOTE Paragraph 00:00:43.135 --> 00:00:44.901 و من هم هنوز یک نوجوان بودم 00:00:45.447 --> 00:00:47.466 سپس من با صدای بلندی گفتم: 00:00:47.490 --> 00:00:51.114 "بله، کامپیوتر می تونه بگه اگه تو دروغ بگی" NOTE Paragraph 00:00:51.138 --> 00:00:52.944 (خنده حاضرین) NOTE Paragraph 00:00:52.968 --> 00:00:55.891 خب، من خندیدم، ولی در واقع، خنده به خودم 00:00:55.915 --> 00:00:59.183 امروزه، سامانههای محاسباتی وجود دارد 00:00:59.207 --> 00:01:02.755 که حالت احساسی و حتی دروغ رو از طریق تحلیل صورت انسان 00:01:02.779 --> 00:01:04.823 می تونه بفهمه 00:01:05.248 --> 00:01:09.401 تبلیغ کنندهها و حتی دولتها خیلی جالبند. NOTE Paragraph 00:01:10.319 --> 00:01:12.181 من یه برنامه نویس کامپیوتر شده بودم 00:01:12.205 --> 00:01:15.318 زیرا من یکی از آن بچههای دیوانه ریاضی و علم بودم 00:01:15.942 --> 00:01:19.050 اما در مسیر زندگی من در مورد سلاحهای هستهای چیزهایی یادگرفتم، 00:01:19.074 --> 00:01:22.026 و واقعا در مورد اخلاق علمی نگران شدم. 00:01:22.050 --> 00:01:23.254 من وحشت زده بودم 00:01:23.278 --> 00:01:25.919 به هر حال، به دلیل موقعیت خانوادهام 00:01:25.943 --> 00:01:29.241 نیاز داشتم تا در اسرع وقت- کارم را شروع کنم 00:01:29.265 --> 00:01:32.564 خُب با خودم فکر کردم بگذار تا یک رشته تکنیکی را بردارم 00:01:32.588 --> 00:01:34.384 که شغل راحتی باشه 00:01:34.408 --> 00:01:38.426 و من با هیچ پرسش سخت اخلاقی مواجه نشوم؟ 00:01:39.022 --> 00:01:40.551 پس کامپیوترها را انتخاب کردم. NOTE Paragraph 00:01:40.575 --> 00:01:41.679 (خنده حاضرین) NOTE Paragraph 00:01:41.703 --> 00:01:45.113 خب، ها، ها، ها! همه خندهها برای من هستند. 00:01:45.137 --> 00:01:47.891 امروزه، دانشمندان کامپیوتر در حال ساخت یک سیستم عامل هستند 00:01:47.915 --> 00:01:52.124 که آنچه یک میلیارد آدم هر روز میبینند روکنترل میکنه 00:01:53.052 --> 00:01:56.874 آنها خودروهایی را ساختند که میتوانند تصمیم بگیرند که چه کسی زیر بگیرند. 00:01:57.707 --> 00:02:00.920 آن ها حتی در حال ساخت ماشینهایی هستند، تسلیحاتی 00:02:00.944 --> 00:02:03.229 که ممکنه آدم ها رو در جنگ بکشه. 00:02:03.253 --> 00:02:06.024 همه اینها سقوط اخلاق است. NOTE Paragraph 00:02:07.183 --> 00:02:09.241 هوشمندی ماشین اینجاست. 00:02:09.823 --> 00:02:13.297 ما در حال استفاده از محاسباتی هستیم که همه تصمیمات ما را مرتب میکنه، 00:02:13.321 --> 00:02:15.207 همچنین نوعهای مختلف تصمیمها را مرتب میکند. 00:02:15.231 --> 00:02:20.403 ما سوالاتی را می پرسیم هستیم که هیچ جواب معین درستی ندارند، 00:02:20.427 --> 00:02:21.629 آنها ذهنی هستند 00:02:21.653 --> 00:02:23.978 و بدون جواب معین و پر محتوا هستند. NOTE Paragraph 00:02:24.002 --> 00:02:25.760 ما پرسشهایی شبیه اینها را میپرسیم: 00:02:25.784 --> 00:02:27.434 «شرکت کی باید استخدام کند؟» 00:02:28.096 --> 00:02:30.855 «بکدام بروزرسانی از کدام دوست باید نشان داده شود؟» 00:02:30.879 --> 00:02:33.145 «کدام متهم بیشتر شبیه خلافکارهاست؟» 00:02:33.514 --> 00:02:36.568 «کدام بخش خبرها یا فیلم باید به مردم توصیه بشه؟» NOTE Paragraph 00:02:36.592 --> 00:02:39.964 ببیند، بله، ما مدتهاست است که در حال استفاده از کامپیوترها هستیم 00:02:39.988 --> 00:02:41.505 اما این بار فرق داره. 00:02:41.529 --> 00:02:43.596 این یک چرخش تاریخی است، 00:02:43.620 --> 00:02:48.957 زیرا ما نمیتوانیم محاسبات را برای تصمیمهای ذهنی نگه داریم 00:02:48.981 --> 00:02:54.401 مانند روش محاسباتی برای پرواز هواپیما، ساخت پلها 00:02:54.425 --> 00:02:55.684 و به ماه رفتن. 00:02:56.449 --> 00:02:59.708 آیا هواپیماها امن هستند؟ آیا این پل فرو میریزد؟ 00:02:59.732 --> 00:03:04.230 این چنین است، ما منصفانه و براساس معیارهای روشن توافق کردیم 00:03:04.254 --> 00:03:06.493 و ما قوانین طبیعت را برای راهنمایی داریم 00:03:06.517 --> 00:03:09.911 ما چیزی شبیه مجری ها و معیارها برای تصمیم گیری 00:03:09.935 --> 00:03:13.898 درکارهای انسان آشفته نداریم. NOTE Paragraph 00:03:13.922 --> 00:03:18.159 برای انجام کارهای پیچیدهتر، تا نرم افزارهای ما بیشتر قدرتمند میشوند، 00:03:18.183 --> 00:03:21.956 اما این می تواند کمتر شفاف و بیشتر پیچیده باشد. 00:03:22.542 --> 00:03:24.582 اخیرا، در دهه گذشته 00:03:24.606 --> 00:03:27.335 الگوریتم های پیچیده با گامهای بلندی ساخته شدهاند. 00:03:27.359 --> 00:03:29.349 آنها میتوانند صورت انسان را بازشناسایی کنند. 00:03:29.985 --> 00:03:32.040 آنها میتوانند دست خط را تشخیص بدهند. 00:03:32.436 --> 00:03:34.502 آنها میتوانند تقلب در کارت اعتباری را کشف کنند 00:03:34.526 --> 00:03:35.715 و اسپمها را مسدود کنند 00:03:35.739 --> 00:03:37.776 و آنها میتوانند زبانها را ترجمه کنند، 00:03:37.800 --> 00:03:40.374 می توانند تومورها را در تصاویر پزشکی کشف کنند. 00:03:40.398 --> 00:03:42.603 آنها میتوانند در بازیهای شطرنج و گو از آدمها ببرند. NOTE Paragraph 00:03:43.264 --> 00:03:47.768 بیشتر این پیشرفتها از روشی به نام "یادگیری ماشین" آمدهاند. 00:03:48.175 --> 00:03:51.362 یادگیری ماشین با برنامه نویسی سنتی متفاوت هست، 00:03:51.386 --> 00:03:54.971 که به کامپیوتر جزئیات دقیق دستورات پر زحمت را میدهید. 00:03:55.378 --> 00:03:59.560 این بیشتر شبیه اینه که شما یک سیستم گرفتهاید و اطلاعات زیادی به آن میخورانید 00:03:59.584 --> 00:04:01.240 شامل اطلاعات بدون ساختار، 00:04:01.264 --> 00:04:03.542 مانند اطلاعاتی که ما در زندگی دیجیتال خود تولید میکنیم. 00:04:03.566 --> 00:04:06.296 و سیستمی که بوسیله گردش در بین اطلاعات یاد میگیرد. 00:04:06.669 --> 00:04:08.195 و همچنین بحرانی 00:04:08.219 --> 00:04:12.599 آن سیستمهایی که زیر یک پاسخ سیگنال منطقی عمل نمی کنند 00:04:12.623 --> 00:04:15.582 آن ها یک پاسخ ساده تولید نمی کنند این ها بیشتر "احتمال" هستند 00:04:15.606 --> 00:04:19.089 "این یک احتمالی است که بیشتر شبیه آنچه شما دنبال آن هستید " NOTE Paragraph 00:04:20.023 --> 00:04:23.093 حالا، بالاتر این است که: این شیوه واقعا قدرتمند است. 00:04:23.117 --> 00:04:25.193 رییس سیستمهای هوش مصنوعی (AI) گوگل این را نام گذاری کرد: 00:04:25.217 --> 00:04:27.414 "اثر غیر منطقی اطلاعات" 00:04:27.791 --> 00:04:29.144 قسمت بدترش این است که: 00:04:29.738 --> 00:04:32.809 ما واقعا نمیفهمیم سیستم چه یاد میگیرد. 00:04:32.833 --> 00:04:34.420 در حقیقت این قدرت آن است. 00:04:34.946 --> 00:04:38.744 این کمتر شبیهِ دادنِ دستورالعمل به کامپیوتر است، 00:04:39.200 --> 00:04:43.264 این بیشتر شبیه یاد دادن به یک توله ماشین زندهاست 00:04:43.288 --> 00:04:45.659 ما واقعا نمیفهمیم و کنترل نمیکنیم. 00:04:46.362 --> 00:04:47.913 خب این مشکل ماست. 00:04:48.427 --> 00:04:52.689 این یک مشکل است وقتی که سیستم هوش مصنوعی چیزها را اشتباه یاد میگیرد. 00:04:52.713 --> 00:04:56.253 این همچنین یک مشکل است وقتی که این چیزها را درست یاد میگیرد، 00:04:56.277 --> 00:04:59.905 زیرا ما حتی نمی دانیم کدام به کدام است وقتی که این یک مشکل درونی است. 00:04:59.929 --> 00:05:02.268 ما نمیدانیم در حال فکر کردن به چه چیزی است NOTE Paragraph 00:05:03.493 --> 00:05:07.176 یک الگوریتم استخدام را فرض کنید-- 00:05:08.123 --> 00:05:12.434 یک سیستمی که مردم را با استفاده از سیستم یادگیری ماشین استخدام می کند. 00:05:13.052 --> 00:05:16.631 مانند یک سیستمی که بر اساس اطلاعات کارمندان قبلی آموزش دیده شده است 00:05:16.655 --> 00:05:19.246 و دستور دارد که پیدا کند و استخدام کند 00:05:19.270 --> 00:05:22.308 مردمی که بهروری بالایی در شرکت دارند. 00:05:22.814 --> 00:05:23.967 به نظر خوب میاد. 00:05:23.991 --> 00:05:25.990 من یک بار در کنفرانسی حضور داشتم 00:05:26.014 --> 00:05:29.139 که مدیران منابع انسانی و مدیران اجرایی دور هم جمع شده بودند، 00:05:29.163 --> 00:05:30.369 افراد رده بالای شرکتها 00:05:30.393 --> 00:05:31.952 که از این سیستمهای برای استخدام استفاده می کردند. 00:05:31.976 --> 00:05:33.622 آنها خیلی هیجان زده بودند 00:05:33.646 --> 00:05:38.299 آنها فکر می کردند که این استخدام را بیشتر هدفمند و کمتر مغروضانه خواهند بود، 00:05:38.323 --> 00:05:41.323 و به خانم ها و اقلیت یک شانس بهتری میدهد 00:05:41.347 --> 00:05:43.535 بر خلاف غرضورزی مدیران منابع انسانی NOTE Paragraph 00:05:43.559 --> 00:05:46.402 ببینید-- استخدام افراد غرض ورزانه است. 00:05:47.099 --> 00:05:48.284 من میدانم. 00:05:48.308 --> 00:05:51.313 منظورم اینه، در اولین شغل من به عنوان برنامه نویس 00:05:51.337 --> 00:05:55.205 مدیر بخش من گاهی اوقات 00:05:55.229 --> 00:05:58.982 در اول صبح یا آخر عصر پیش من میآمد 00:05:59.006 --> 00:06:02.068 و میگفت: "زینب بیا بریم ناهار" 00:06:02.724 --> 00:06:04.891 من به خاطر زمانهای عجیب گیج میشدم 00:06:04.915 --> 00:06:07.044 الان ساعت ۴ است، ناهار؟ 00:06:07.068 --> 00:06:10.162 من شکست میخوردم من همیشه برای ناهار مجانی میرفتم 00:06:10.618 --> 00:06:12.685 بعدها فهمیدم که چه اتفاقی میافتاد 00:06:12.709 --> 00:06:17.255 مدیران بالایی من در انتخابشان برای استخدام 00:06:17.279 --> 00:06:20.392 یک دختر نوجوان که کفش کتانی و جین در محل کار میپوشید 00:06:20.416 --> 00:06:24.346 برای انجام یک کار جدی اشتباه نکرده بودند. 00:06:25.174 --> 00:06:27.376 من خوب کار میکردم، اما به نظرمیآمد که من مناسب نیستم 00:06:27.400 --> 00:06:29.099 سن و جنسیتم نیز اشتباه بود. NOTE Paragraph 00:06:29.123 --> 00:06:32.469 خُب نادیده گرفتن شدن جنسیت و نژاد من 00:06:32.493 --> 00:06:34.358 قطعا چیزی خوبی برای من بود. 00:06:35.031 --> 00:06:38.372 اما با این سیستم ها بغرنجتر و پیچیدهتر شده و دلیلیش اینجاست: 00:06:38.968 --> 00:06:44.759 اخیرا، سیستمهای محاسبهگر میتوانند به همه چیزهای شما 00:06:44.783 --> 00:06:46.655 از طریق خرده اطلاعات دیجیتالی شما پیببرند، 00:06:46.679 --> 00:06:49.012 حتی اگر شما آن چیزها را فاش نکرده باشید. 00:06:49.506 --> 00:06:52.433 آنها به گرایشهای جنسیتان ، 00:06:52.994 --> 00:06:54.300 ویژگیهای شخصیتان، 00:06:54.859 --> 00:06:56.232 دانستههای سیاسیتان پیببرند. 00:06:56.830 --> 00:07:00.515 آنها قدرت پیش بینی با صحت بالایی را دارند. 00:07:01.362 --> 00:07:03.940 به یاد داشته باشید، برای چیزهایی که شما حتی آنها را فاش نکردهاید 00:07:03.964 --> 00:07:05.555 نتیجه گیری و استنتاج است. NOTE Paragraph 00:07:05.579 --> 00:07:08.840 من یک دوستی دارم که سیستم های محاسبه گری را توسعه میدهد 00:07:08.864 --> 00:07:12.505 تا شانس افسردگی بالینی یا بعد از وضع حمل را پیش بینی کند 00:07:12.529 --> 00:07:13.945 با استفاده از اطلاعات رسانه های اجتماعی 00:07:14.676 --> 00:07:16.103 نتیجه ها هیجان انگیز هستند. 00:07:16.492 --> 00:07:19.849 سیستمش احتمال افسردگی را میتوان 00:07:19.873 --> 00:07:23.776 ماههای قبل از شروع علائم بیماری را پیشبینی کند-- 00:07:23.800 --> 00:07:25.173 ماههای قبل. 00:07:25.197 --> 00:07:27.443 هیچ علامتی از بیماری نیست، ولی پیش بینی میشود. 00:07:27.467 --> 00:07:32.279 او امیدوار است بزودی این را برای مداخلات (روانشناسی) استفاده کند . عالیه. 00:07:32.911 --> 00:07:34.951 اما حالا این در فضای استخدام قرار دهید. NOTE Paragraph 00:07:36.027 --> 00:07:39.073 بنابراین در این کنفرانس منبع مدیران انسانی 00:07:39.097 --> 00:07:43.806 من به یک مدیر سطح بالا در یک شرکت بزرگ نزدیک شدم 00:07:43.830 --> 00:07:48.408 و به او گفتم: "ببین، چه میشد اگر من برای تو فردی ناشناخته میشدم؟" 00:07:48.432 --> 00:07:54.981 آیا سیستم تو در حال حذف مردم با احتمال بالای افسردگی در آینده، است ؟ 00:07:55.761 --> 00:07:59.137 آن ها الان افسرده نیستند، فقط شاید در آینده به احتمال زیاد دچار افسردگی شوند. 00:07:59.923 --> 00:08:03.329 یا اگر زنانی که احتمال دارد در یکی دو سال آینده باردار شوند 00:08:03.353 --> 00:08:05.939 ولی الان حامله نیستد را کنار گذارده شوند؟ 00:08:06.844 --> 00:08:12.480 اگر این افراد پرخاشکر را استخدام شوند زیرا آن فرهنگ محیط کاریت است 00:08:13.173 --> 00:08:15.864 تو با استفاده از نگاه کردن به تقسیم بندی جنسبت نمی توانی بگویی 00:08:15.888 --> 00:08:17.390 آن ها ممکنه متعادل باشند. 00:08:17.414 --> 00:08:20.971 و چون این یادگیری ماشین است و برنامه نویسی سنتی نیست 00:08:20.995 --> 00:08:25.902 هیچ متغیری وجود ندارد که "بیشترین خطر افسردگی " نام گذاری شود 00:08:25.926 --> 00:08:27.759 "بیشترین خطر حاملگی" 00:08:27.783 --> 00:08:29.517 "مقیاس پرخاشگری مردان" 00:08:29.995 --> 00:08:33.674 نه تنها نمی دانست چگونه سیستم شما، انتخاب می کنه 00:08:33.698 --> 00:08:36.021 شما حتی نمی دانی که در کجا جستجو میکند 00:08:36.045 --> 00:08:37.291 این یک جعبه سیاه است. 00:08:37.315 --> 00:08:40.122 این قدرت پیش گویی دارد اما شما این را نمیفهمی NOTE Paragraph 00:08:40.486 --> 00:08:42.855 من پرسسیدم"حفاظت چیست؟" 00:08:42.879 --> 00:08:46.552 « آیا باید مطمئن شوی که جعبه سیاه تان کار مشکوکی انجام نمیدهد؟» 00:08:48.863 --> 00:08:52.741 او به من به نگاه کرد مثل اینکه من پا روی دُم ده تا توله گذاشتم! NOTE Paragraph 00:08:52.765 --> 00:08:54.013 (خنده حاضرین) NOTE Paragraph 00:08:54.037 --> 00:08:56.078 او به من خیره شد و گفت: 00:08:56.556 --> 00:09:00.889 «نمیخوام کلمه دیگری در این باره بشنوم» 00:09:01.458 --> 00:09:03.492 و او برگشت و قدم زنان دور شد. 00:09:04.064 --> 00:09:05.550 به خاطر داشته باشید او بیادب نبود. 00:09:05.574 --> 00:09:11.882 کاملا روشن بود با نگاهش میگفت: نمیدونم، این مشکل من نیست، برو. NOTE Paragraph 00:09:11.906 --> 00:09:13.152 (خنده حاضرین) NOTE Paragraph 00:09:13.862 --> 00:09:17.701 نگاه کنید، یک سیستم ممکن است حتی کمتر جانبدارانه باشد 00:09:17.725 --> 00:09:19.828 تا مدیران انسانی در همان زمینه. 00:09:19.852 --> 00:09:21.998 و این میتونه یک حس مالی ایجاد کنه 00:09:22.573 --> 00:09:24.223 اما این میتونه منجر بشه 00:09:24.247 --> 00:09:28.995 به یک یکنواختی اما یواشکی بستن بازار کار مردم 00:09:29.019 --> 00:09:31.312 که با ریسک بالای افسردگی همراه هستند. 00:09:31.753 --> 00:09:34.349 آیا این نوع اجتماعی است که ما میخواهیم بسازیم؟ 00:09:34.373 --> 00:09:36.658 بدون حتی دانستن اینکه ما این را انجام دادیم 00:09:36.682 --> 00:09:40.646 زیرا ما ساختن تصمیم را تبدیل کردیم به ماشین که ما سرانجامش را نمیفهمیم NOTE Paragraph 00:09:41.265 --> 00:09:42.723 و مسئله دیگر این است: 00:09:43.314 --> 00:09:47.766 این سیستم ها اغلب روی اطلاعات تولید شده توسط کارهای ما آموزش داده میشوند، 00:09:47.790 --> 00:09:49.606 آثار به جای مانده از انسان. 00:09:50.188 --> 00:09:53.996 خب، آنها فقط میتوانند تمایلات ما را منعکس کنند، 00:09:54.020 --> 00:09:57.613 و این سیستمهای میتوانند تمایلات ما را انتخاب کنند 00:09:57.637 --> 00:09:58.950 و آن را تقویت کرده 00:09:58.974 --> 00:10:00.392 و آن را دوباره به ما نشان دهند، 00:10:00.416 --> 00:10:01.878 در حالی که به خودمان میگویم، 00:10:01.902 --> 00:10:05.019 «ما فقط در حال بررسی هستیم.» NOTE Paragraph 00:10:06.314 --> 00:10:08.991 محققان در شرکت گوگل دریافتند، 00:10:10.134 --> 00:10:15.447 زنان نسبت به مردان احتمال کمتری دارد که برای مشاغل با حقوق بالاتر قدام کنند. 00:10:16.463 --> 00:10:18.993 و نامهای آفریقایی-آمریکایی را که جستجو کنید 00:10:19.017 --> 00:10:23.723 احتمال بیشتر دارد که پیشینه جرم نشان دهد، 00:10:23.747 --> 00:10:25.314 حتی وقتی که واقعا جرمی وجود ندارد. 00:10:26.693 --> 00:10:30.242 مانند تمایلات پنهان و الگوریتم جعبه سیاه 00:10:30.266 --> 00:10:34.239 که گاهی محققات آن را تحت پوشش قرار نمی دهند و ما از آن گاهی اطلاع نداریم. 00:10:34.263 --> 00:10:36.924 که می توانیم پرآمدهایی زندگی داشته باشد. NOTE Paragraph 00:10:37.958 --> 00:10:42.117 در ویسکانسین یک متهم به شش سال زندان محکوم شد 00:10:42.141 --> 00:10:43.496 برای فرار از پلیس. 00:10:44.824 --> 00:10:46.010 شما ممکنه این را ندانید، 00:10:46.034 --> 00:10:50.032 اما الگوریتم به طور افزایندهای در آزادی مشروط و صدور حکم در حال استفاده هستند 00:10:50.056 --> 00:10:53.011 او می خواهد بداند: چگونه این نمره محاسبه می شود؟ 00:10:53.795 --> 00:10:55.460 این یک جعبه سیاه تجاری است 00:10:55.484 --> 00:10:59.689 شرکت درخواست اینکه الگوریتم در دادگاه به چالش کشیده بشود را رد کرد. 00:11:00.396 --> 00:11:05.928 اما پروپابلیکا، یک موسسه تحقیقاتی غیرانتفاعی خیلی از الگوریتم ها را 00:11:05.952 --> 00:11:07.968 با اطلاعات عمومی ای که آن ها میتوانند پیدا کنند بررسی میکنند. 00:11:07.992 --> 00:11:10.308 و دریافتند که این یک نتیجه از تمایلات بوده 00:11:10.332 --> 00:11:13.961 و این قدرت پیشبینی اشتباه، نه فقظ شانسی( بلکه به عمد) 00:11:13.985 --> 00:11:18.401 و به طور اشتباه متهمان سیاه را به عنوان مجرمان آینده دوبرابر نرخ مجرمان سفید 00:11:18.425 --> 00:11:22.320 برچست گذاری کرده بود. NOTE Paragraph 00:11:23.891 --> 00:11:25.455 خب، به این مورد دقت کنید: 00:11:26.103 --> 00:11:29.955 این خانم برای برداشتن دخترخواندهاش دیر رسید 00:11:29.979 --> 00:11:32.054 از یک مدرسه در بروارد ایالت فلوریدا، 00:11:32.757 --> 00:11:35.113 با دوستش از خیابان می دوید. 00:11:35.137 --> 00:11:39.236 آن ها یک دوچرخه بچه و یک اسکوتر روی ایوان که قفل نشده بود را نشان دادند 00:11:39.260 --> 00:11:40.892 و احمقانه روی آن پرید 00:11:40.916 --> 00:11:43.515 وقتی آنها در حال سرعت گرفتن بودند یک زن آمد و گفت 00:11:43.539 --> 00:11:45.744 هی! این دوچرخه بچه من است 00:11:45.768 --> 00:11:49.062 آن ها دوچرخه را رها کردن و دور شدند ولی آن ها دستگیر شدند NOTE Paragraph 00:11:49.086 --> 00:11:52.723 او اشتباه کرد و او احمق بود ولی او تنها ۱۸ سال داشت 00:11:52.747 --> 00:11:55.291 او یک تعدادی جرمهای کوچک داشت. 00:11:55.808 --> 00:12:00.993 ضمنا، آن مرد برای سرقت از فروشگاه هوم دیپو دستگیر شده بود-- 00:12:01.017 --> 00:12:03.941 ۸۵ دلار، که ارزشش به اندازه جرم کوچک بود. 00:12:04.766 --> 00:12:09.325 اما او محکومیت دو سرقت مسلحانه داشت. 00:12:09.955 --> 00:12:13.437 اما الگوریتم احتمال بالای جرم برای این زن نشان میداد، و نه برای این مرد. 00:12:14.746 --> 00:12:18.620 دو سال بعد، پروپابلیکا یافت که این نباید در حبس باشد. 00:12:18.644 --> 00:12:21.194 و با سایقهای را که داشت برای او پیدا کردن شغل مشگل بود. 00:12:21.218 --> 00:12:23.294 از طرف دیگر این مرد زندانی شد 00:12:23.318 --> 00:12:27.154 و برای گناه گذشتهاش برای هشت سال زندانی خواهد بود. 00:12:28.088 --> 00:12:31.457 روشن است، ما نیاز داریم تا جعبه سیاهمان را بازبینی و بررسی کنیم 00:12:31.481 --> 00:12:34.096 و نه آن ها را، بلکه این نوع قدرت چک نشده را حسابرسی کنیم NOTE Paragraph 00:12:34.120 --> 00:12:36.999 (تشویق حضار) NOTE Paragraph 00:12:38.087 --> 00:12:42.329 بررسی و باربینی خوب و مهم است اما آنها تمام مشکلات ما را حل نمی کنند. 00:12:42.353 --> 00:12:45.101 الگوریتم قدرت خبری فیسبوک را در نظر بگیرید. 00:12:45.125 --> 00:12:49.968 میدانید، کسی که همه چیز را رتبه بندی میکند و تصمیم میگیرد که چه به شما نشان دهد 00:12:49.992 --> 00:12:52.276 از همه دوستان و همه صفحههایی که شما دنبال میکنید. 00:12:52.898 --> 00:12:55.173 باید به شما عکس بچهی دیگه را نشان دهد؟ NOTE Paragraph 00:12:55.197 --> 00:12:56.393 (خنده) NOTE Paragraph 00:12:56.417 --> 00:12:59.013 یک یادداشت عبوس از یک آشنا؟ 00:12:59.449 --> 00:13:01.305 یک خبر مهم اما قسمتهای سختش؟ 00:13:01.329 --> 00:13:02.811 هیچ جواب درستی وجود ندارد. 00:13:02.835 --> 00:13:05.494 فیس بوک برای مشغولیت بیشتر در سایت بهینه شده : 00:13:05.518 --> 00:13:06.933 لایک، اشتراگ گذاری، کامنت NOTE Paragraph 00:13:08.168 --> 00:13:10.864 در آگوست ۲۰۱۴ 00:13:10.888 --> 00:13:13.550 در شهر فرگوست ایالت میسوری معترضان 00:13:13.574 --> 00:13:17.991 بعد از کشتن یک نوجوان آفریقایی- آمریکایی به وسیله یک پلیس سفید پوست 00:13:18.015 --> 00:13:19.585 زیر رویداد مبهم شورش کردند، 00:13:19.974 --> 00:13:21.981 خبرهای معترضان در همه جا بود 00:13:22.005 --> 00:13:24.690 الگورتیم من فیدهای تویتر را فیلتر نکرد 00:13:24.714 --> 00:13:26.664 اما در فیس بوکم هیچ جا باز نبود. 00:13:27.182 --> 00:13:28.916 آیا اینها دوستان فیسبوکی من بودند؟ 00:13:28.940 --> 00:13:30.972 من الگوریتم فیسبوکم را غیر فعال کردم، 00:13:31.472 --> 00:13:34.320 که سخت بود زیرا فیسبوک خواسته های شما را حفظ میکند 00:13:34.344 --> 00:13:36.380 تا شما را زیر کنترل الگوریتم ها نگه دارد، 00:13:36.404 --> 00:13:38.642 و می بینید که دوستان من در حال صحبت کردن درباره این حادثه بودند. 00:13:38.666 --> 00:13:41.175 این فقط الگوریتمی بود که این را به من نشان من داد. 00:13:41.199 --> 00:13:44.241 من تحقیق کردم و فهمیدم که این یه مشکل شایع بود NOTE Paragraph 00:13:44.265 --> 00:13:48.078 حادثه فرگوست یک الگوریتم دوستانه نبود. 00:13:48.102 --> 00:13:49.273 دوست داشتنی نبود 00:13:49.297 --> 00:13:50.849 چه کسی می خواد تا روی "like" کلیک کنید؟ 00:13:51.500 --> 00:13:53.706 این حتی ساده نیست تا کامنتی روی آن قرار دهید. 00:13:53.730 --> 00:13:55.101 بدون "like" و کامنت 00:13:55.125 --> 00:13:58.417 احتمالا الگوریتم برای افراد کمتری را نشان داده میشد، 00:13:58.441 --> 00:13:59.983 بنابراین ما نتوانستیم این را ببینیم 00:14:00.946 --> 00:14:02.174 در عوض، آن هفته، 00:14:02.198 --> 00:14:04.496 الگوریتم فیس بوک این را برجسته کرده بود: 00:14:04.520 --> 00:14:06.746 این چالش سطل آب یخ است. 00:14:06.770 --> 00:14:10.512 علت ارزش، خالی کردن آب یخ، کمک به موسسه خیریه خوب است 00:14:10.536 --> 00:14:12.440 اما این الگوریتم دوستانه عالی بود. 00:14:13.219 --> 00:14:15.832 که ماشین این تصمیم را برای ما گرفت. 00:14:15.856 --> 00:14:19.353 و خیلی مهم است اما گفتگوی سختی است 00:14:19.377 --> 00:14:20.932 ممکن است خفه شده باشد. 00:14:20.956 --> 00:14:23.652 آیا فیسبوک فقط یک کانال داشت؟ NOTE Paragraph 00:14:24.117 --> 00:14:27.914 خُب، این سیستم ها میتوانند اشتباه باشند 00:14:27.938 --> 00:14:30.674 در راه هایی که شباهت به سیستم انسانی ندارد. 00:14:30.698 --> 00:14:33.620 آیا شما واتسون، سیستم ماشین هوشمند آی بی ام 00:14:33.644 --> 00:14:36.772 که با انسان مسابقه جوپرتری را داد را به خاطر دارید؟ 00:14:37.131 --> 00:14:38.559 واتسون بازیگر خوبی در مسابقه بود. 00:14:38.583 --> 00:14:42.152 اما در آخرین جوپرتی، از واتسون پرسیده شد 00:14:42.659 --> 00:14:45.591 «آیا بزرگترین فرودگاه که برای یک قهرمان جنگ جهانی دوم نام گذاری شد" 00:14:45.615 --> 00:14:47.867 این دومین فرودگاه بزرگ برای مبارزه جنگ جهانی دوم نامگذاری شد.» NOTE Paragraph 00:14:47.891 --> 00:14:49.269 (...) NOTE Paragraph 00:14:49.582 --> 00:14:50.764 شیکاگو. 00:14:50.788 --> 00:14:52.158 دو فرد درست جواب دادند 00:14:52.697 --> 00:14:57.045 واتسون در طرف دیگر پاسخ داد «تورنتو»-- 00:14:57.069 --> 00:14:58.887 برای یک شهر آمریکایی! 00:14:59.596 --> 00:15:02.497 سیستم موثر همچنین یک اشتباه کرد 00:15:02.521 --> 00:15:06.172 که یک فرد هیچ وقت این اشتباه را نخواهد کرد، حتی یک کلاس دومی. NOTE Paragraph 00:15:06.823 --> 00:15:09.932 ماشین هوشمند ما میتواند شکست بخورد 00:15:09.956 --> 00:15:13.056 در جاهایی که نمی تواند الگوی خطای انسان ها را متناسب کند 00:15:13.080 --> 00:15:16.030 در جاهایی که ما انتظار و آمادگی برای آن نخواهیم داشت 00:15:16.054 --> 00:15:19.692 این نکبت بار خواهد بود که کسی که واجد شرایط هست شفلی را نگیرد، 00:15:19.716 --> 00:15:23.443 اما سه برابر آن بدتر اینکه به دلیل خرده رفتارها 00:15:23.467 --> 00:15:24.899 در روال عادی زندگی فرد آن شغل را نگیرد. NOTE Paragraph 00:15:24.923 --> 00:15:26.502 (خنده حضار) NOTE Paragraph 00:15:26.526 --> 00:15:29.312 در ماه می ۲۰۱۰، 00:15:29.336 --> 00:15:33.380 یک خرابی کوتاه مدت ناشی از یک حلقه فیدبک تقویت شد در وال استریت 00:15:33.404 --> 00:15:36.432 در الگوریتم« فروش» وال استریت 00:15:36.456 --> 00:15:40.640 یک تریلیون دلار ارزش را در ۳۶ دقیقه از بین برد. 00:15:41.722 --> 00:15:43.909 من حتی نمیخوام در مورد معنیهای «خطا» 00:15:43.933 --> 00:15:47.522 در زمینه سلاح های کشنده خودکار فکر کنم. NOTE Paragraph 00:15:49.894 --> 00:15:53.684 خب بله، انسانها همیشه تمایلات را میسازند. 00:15:53.708 --> 00:15:55.884 تصمیم گیرندهها و دربانها 00:15:55.908 --> 00:15:59.401 در دادگاه ها و در خبر ها و در جنگ... 00:15:59.425 --> 00:16:02.463 آنها اشتباه می کنند، اما این دقیقا نکته مورد نظر من است. 00:16:02.487 --> 00:16:06.008 ما نمی توانیم از این سوالهای مشگل فرارکنیم. 00:16:06.596 --> 00:16:10.112 ما نمیتوانیم مسئولیت هایمان را در قبال ماشین ها نادیده بگیریم. NOTE Paragraph 00:16:10.676 --> 00:16:14.884 (تشویق) NOTE Paragraph 00:16:17.089 --> 00:16:21.536 هوش مصنوعی نمیتواند به ما یک کارت «خارج شدن از اخلاق به صورت رایگان» بدهد NOTE Paragraph 00:16:22.742 --> 00:16:26.123 دانشمند اطلاعات، فرد بنسون این را "شستشوی ریاضی" مینامد 00:16:26.147 --> 00:16:27.536 ما به این تضاد نیاز داریم. 00:16:27.560 --> 00:16:32.948 ما نیاز داریم تا یک الگوریتم بد گمانی را با بررسی دقیق و موشکافانه رشد دهیم. 00:16:33.380 --> 00:16:36.578 ما نیاز داریم تا مطمئن باشیم که مسولیت الگوریتمی داریم، 00:16:36.602 --> 00:16:39.047 حسابرسی و شفافیت معنایی نیاز داریم. 00:16:39.380 --> 00:16:42.614 ما نیاز داریم تا قبول کنیم که آورده های ریاضی و محاسباتی 00:16:42.638 --> 00:16:45.608 برای ارزش انباشته و به هم ریخته و امور انسانی 00:16:45.632 --> 00:16:48.016 عینیت ندارد. 00:16:48.040 --> 00:16:51.673 بلکه ، پیچیدگی امور انسانی به الگوریتم ها حتما غلبه میکند. 00:16:52.148 --> 00:16:55.635 بله ما می توانیم و ما باید از محاسبات استفاده کنیم 00:16:55.659 --> 00:16:57.673 تا برای داشتن تصمیمات بهتر به خودمان کمک کنیم 00:16:57.697 --> 00:17:03.029 اما ما اعتراف میکنیم به مسئولیت اخلاقی و قضاوت 00:17:03.053 --> 00:17:05.871 و استفااه از الگورتیم هایی با آن چارچوب 00:17:05.895 --> 00:17:10.830 نه به عنوان وسیله ای برای کناره گیری و واگذاری مسئولیت هایمان 00:17:10.854 --> 00:17:13.308 به یک انسان دیگر. NOTE Paragraph 00:17:13.807 --> 00:17:16.416 هوش مصنوعی اینجاست. 00:17:16.440 --> 00:17:19.861 این بدان معناست که ما باید محکمتر 00:17:19.885 --> 00:17:22.032 ارزشها و اخلاق انسانی را نگه داریم. NOTE Paragraph 00:17:22.056 --> 00:17:23.210 متشکرم NOTE Paragraph 00:17:23.234 --> 00:17:28.254 (تشویق)