0:00:00.739,0:00:04.861 خب، من اولین شغلم را به عنوان یک [br]برنامه نویس کامپیوتر شروع کردم 0:00:04.885,0:00:06.841 در اولین سال کالجم 0:00:06.865,0:00:08.372 در واقع، به عنوان یک نوجوان 0:00:08.889,0:00:10.621 درست پس از شروع به کار در 0:00:10.645,0:00:12.255 یک شزکت به عنوان برنامهنویس کامپیوتر ، 0:00:12.799,0:00:16.434 یک مدیر که در همان جا کار میکرد[br]نزد من آمد، 0:00:16.458,0:00:17.726 و با صدای آرام به من گفت: 0:00:18.229,0:00:21.090 "او می تونه بگه اگه من دروغ بگم؟" 0:00:21.806,0:00:23.883 در اتاق هیچ کسی وجود نداشت. 0:00:25.032,0:00:29.421 "کسی میتونه بگه اگه تو دروغ میگی؟[br]و چرا ما در حال پچ پچ کردن هستیم؟" 0:00:30.266,0:00:33.373 مدیر کامپیوتر در اتاق را نشان داد. 0:00:33.397,0:00:36.493 "او میتونه بگه اگه من دروغ بگم؟" 0:00:37.613,0:00:41.975 خب، آن مدیر رابطه نامشروع با منشیاش داشت. 0:00:41.999,0:00:43.111 (خنده حاضرین) 0:00:43.135,0:00:44.901 و من هم هنوز یک نوجوان بودم 0:00:45.447,0:00:47.466 سپس من با صدای بلندی گفتم: 0:00:47.490,0:00:51.114 "بله، کامپیوتر می تونه بگه [br]اگه تو دروغ بگی" 0:00:51.138,0:00:52.944 (خنده حاضرین) 0:00:52.968,0:00:55.891 خب، من خندیدم، ولی در واقع،[br]خنده به خودم 0:00:55.915,0:00:59.183 امروزه، سامانههای محاسباتی وجود دارد 0:00:59.207,0:01:02.755 که حالت احساسی و حتی دروغ رو [br]از طریق تحلیل صورت انسان 0:01:02.779,0:01:04.823 می تونه بفهمه 0:01:05.248,0:01:09.401 تبلیغ کنندهها و حتی دولتها خیلی[br]جالبند. 0:01:10.319,0:01:12.181 من یه برنامه نویس کامپیوتر[br]شده بودم 0:01:12.205,0:01:15.318 زیرا من یکی از آن بچههای دیوانه [br]ریاضی و علم بودم 0:01:15.942,0:01:19.050 اما در مسیر زندگی من در مورد[br]سلاحهای هستهای چیزهایی یادگرفتم، 0:01:19.074,0:01:22.026 و واقعا در مورد اخلاق علمی نگران شدم. 0:01:22.050,0:01:23.254 من وحشت زده بودم 0:01:23.278,0:01:25.919 به هر حال، به دلیل موقعیت خانوادهام 0:01:25.943,0:01:29.241 نیاز داشتم تا[br]در اسرع وقت- کارم را شروع کنم 0:01:29.265,0:01:32.564 خُب با خودم فکر کردم[br]بگذار تا یک رشته تکنیکی را بردارم 0:01:32.588,0:01:34.384 که شغل راحتی باشه 0:01:34.408,0:01:38.426 و من با هیچ پرسش سخت اخلاقی [br]مواجه نشوم؟ 0:01:39.022,0:01:40.551 پس کامپیوترها را انتخاب کردم. 0:01:40.575,0:01:41.679 (خنده حاضرین) 0:01:41.703,0:01:45.113 خب، ها، ها، ها![br]همه خندهها برای من هستند. 0:01:45.137,0:01:47.891 امروزه، دانشمندان کامپیوتر[br]در حال ساخت یک سیستم عامل هستند 0:01:47.915,0:01:52.124 که آنچه یک میلیارد آدم[br]هر روز میبینند روکنترل میکنه 0:01:53.052,0:01:56.874 آنها خودروهایی را ساختند که میتوانند[br]تصمیم بگیرند که چه کسی زیر بگیرند. 0:01:57.707,0:02:00.920 آن ها حتی در حال ساخت ماشینهایی هستند،[br]تسلیحاتی 0:02:00.944,0:02:03.229 که ممکنه آدم ها رو در جنگ بکشه. 0:02:03.253,0:02:06.024 همه اینها سقوط اخلاق است. 0:02:07.183,0:02:09.241 هوشمندی ماشین اینجاست. 0:02:09.823,0:02:13.297 ما در حال استفاده از محاسباتی[br]هستیم که همه تصمیمات ما را مرتب میکنه، 0:02:13.321,0:02:15.207 همچنین نوعهای مختلف تصمیمها را مرتب میکند. 0:02:15.231,0:02:20.403 ما سوالاتی را می پرسیم هستیم که [br]هیچ جواب معین درستی ندارند، 0:02:20.427,0:02:21.629 آنها ذهنی هستند 0:02:21.653,0:02:23.978 و بدون جواب معین [br]و پر محتوا هستند. 0:02:24.002,0:02:25.760 ما پرسشهایی شبیه اینها را میپرسیم: 0:02:25.784,0:02:27.434 «شرکت کی باید استخدام کند؟» 0:02:28.096,0:02:30.855 «بکدام بروزرسانی از کدام دوست [br]باید نشان داده شود؟» 0:02:30.879,0:02:33.145 «کدام متهم بیشتر شبیه خلافکارهاست؟» 0:02:33.514,0:02:36.568 «کدام بخش خبرها یا فیلم باید به مردم [br]توصیه بشه؟» 0:02:36.592,0:02:39.964 ببیند، بله، ما مدتهاست است که در حال [br]استفاده از کامپیوترها هستیم 0:02:39.988,0:02:41.505 اما این بار فرق داره. 0:02:41.529,0:02:43.596 این یک چرخش تاریخی است، 0:02:43.620,0:02:48.957 زیرا ما نمیتوانیم محاسبات را [br]برای تصمیمهای ذهنی نگه داریم 0:02:48.981,0:02:54.401 مانند روش محاسباتی[br]برای پرواز هواپیما، ساخت پلها 0:02:54.425,0:02:55.684 و به ماه رفتن. 0:02:56.449,0:02:59.708 آیا هواپیماها امن هستند؟[br]آیا این پل فرو میریزد؟ 0:02:59.732,0:03:04.230 این چنین است، ما منصفانه و براساس معیارهای[br]روشن توافق کردیم 0:03:04.254,0:03:06.493 و ما قوانین طبیعت را برای راهنمایی داریم 0:03:06.517,0:03:09.911 ما چیزی شبیه مجری ها و معیارها [br]برای تصمیم گیری 0:03:09.935,0:03:13.898 درکارهای انسان آشفته نداریم. 0:03:13.922,0:03:18.159 برای انجام کارهای پیچیدهتر،[br]تا نرم افزارهای ما بیشتر قدرتمند میشوند، 0:03:18.183,0:03:21.956 اما این می تواند کمتر شفاف [br]و بیشتر پیچیده باشد. 0:03:22.542,0:03:24.582 اخیرا، در دهه گذشته 0:03:24.606,0:03:27.335 الگوریتم های پیچیده[br]با گامهای بلندی ساخته شدهاند. 0:03:27.359,0:03:29.349 آنها میتوانند صورت انسان را[br]بازشناسایی کنند. 0:03:29.985,0:03:32.040 آنها میتوانند دست خط را تشخیص بدهند. 0:03:32.436,0:03:34.502 آنها میتوانند تقلب در کارت اعتباری را[br]کشف کنند 0:03:34.526,0:03:35.715 و اسپمها را مسدود کنند 0:03:35.739,0:03:37.776 و آنها میتوانند زبانها را ترجمه کنند، 0:03:37.800,0:03:40.374 می توانند تومورها را در تصاویر پزشکی[br]کشف کنند. 0:03:40.398,0:03:42.603 آنها میتوانند در بازیهای[br]شطرنج و گو از آدمها ببرند. 0:03:43.264,0:03:47.768 بیشتر این پیشرفتها از روشی به نام [br]"یادگیری ماشین" آمدهاند. 0:03:48.175,0:03:51.362 یادگیری ماشین با برنامه نویسی سنتی [br]متفاوت هست، 0:03:51.386,0:03:54.971 که به کامپیوتر جزئیات دقیق[br]دستورات پر زحمت را میدهید. 0:03:55.378,0:03:59.560 این بیشتر شبیه اینه که شما یک سیستم[br]گرفتهاید و اطلاعات زیادی به آن میخورانید 0:03:59.584,0:04:01.240 شامل اطلاعات بدون ساختار، 0:04:01.264,0:04:03.542 مانند اطلاعاتی که ما در زندگی دیجیتال خود[br]تولید میکنیم. 0:04:03.566,0:04:06.296 و سیستمی که بوسیله گردش در بین اطلاعات[br]یاد میگیرد. 0:04:06.669,0:04:08.195 و همچنین بحرانی 0:04:08.219,0:04:12.599 آن سیستمهایی که زیر یک پاسخ سیگنال[br]منطقی عمل نمی کنند 0:04:12.623,0:04:15.582 آن ها یک پاسخ ساده تولید نمی کنند[br]این ها بیشتر "احتمال" هستند 0:04:15.606,0:04:19.089 "این یک احتمالی است که بیشتر شبیه[br]آنچه شما دنبال آن هستید " 0:04:20.023,0:04:23.093 حالا، بالاتر این است که: این شیوه[br]واقعا قدرتمند است. 0:04:23.117,0:04:25.193 رییس سیستمهای هوش مصنوعی (AI) گوگل[br]این را نام گذاری کرد: 0:04:25.217,0:04:27.414 "اثر غیر منطقی اطلاعات" 0:04:27.791,0:04:29.144 قسمت بدترش این است که: 0:04:29.738,0:04:32.809 ما واقعا نمیفهمیم [br]سیستم چه یاد میگیرد. 0:04:32.833,0:04:34.420 در حقیقت این قدرت آن است. 0:04:34.946,0:04:38.744 این کمتر شبیهِ دادنِ دستورالعمل[br]به کامپیوتر است، 0:04:39.200,0:04:43.264 این بیشتر شبیه یاد دادن به یک[br]توله ماشین زندهاست 0:04:43.288,0:04:45.659 ما واقعا نمیفهمیم و کنترل نمیکنیم. 0:04:46.362,0:04:47.913 خب این مشکل ماست. 0:04:48.427,0:04:52.689 این یک مشکل است وقتی که سیستم هوش مصنوعی[br]چیزها را اشتباه یاد میگیرد. 0:04:52.713,0:04:56.253 این همچنین یک مشکل است وقتی که [br]این چیزها را درست یاد میگیرد، 0:04:56.277,0:04:59.905 زیرا ما حتی نمی دانیم کدام به کدام است[br]وقتی که این یک مشکل درونی است. 0:04:59.929,0:05:02.268 ما نمیدانیم در حال فکر کردن [br]به چه چیزی است 0:05:03.493,0:05:07.176 یک الگوریتم استخدام را فرض کنید-- 0:05:08.123,0:05:12.434 یک سیستمی که مردم را با استفاده از [br]سیستم یادگیری ماشین استخدام می کند. 0:05:13.052,0:05:16.631 مانند یک سیستمی که بر اساس اطلاعات[br]کارمندان قبلی آموزش دیده شده است 0:05:16.655,0:05:19.246 و دستور دارد که پیدا کند و استخدام کند 0:05:19.270,0:05:22.308 مردمی که بهروری بالایی در شرکت[br]دارند. 0:05:22.814,0:05:23.967 به نظر خوب میاد. 0:05:23.991,0:05:25.990 من یک بار در کنفرانسی حضور داشتم 0:05:26.014,0:05:29.139 که مدیران منابع انسانی و مدیران اجرایی[br]دور هم جمع شده بودند، 0:05:29.163,0:05:30.369 افراد رده بالای شرکتها 0:05:30.393,0:05:31.952 که از این سیستمهای برای استخدام[br]استفاده می کردند. 0:05:31.976,0:05:33.622 آنها خیلی هیجان زده بودند 0:05:33.646,0:05:38.299 آنها فکر می کردند که این استخدام را بیشتر هدفمند [br]و کمتر مغروضانه خواهند بود، 0:05:38.323,0:05:41.323 و به خانم ها و اقلیت [br]یک شانس بهتری میدهد 0:05:41.347,0:05:43.535 بر خلاف غرضورزی مدیران منابع انسانی 0:05:43.559,0:05:46.402 ببینید--[br]استخدام افراد غرض ورزانه است. 0:05:47.099,0:05:48.284 من میدانم. 0:05:48.308,0:05:51.313 منظورم اینه، در اولین شغل من به عنوان[br]برنامه نویس 0:05:51.337,0:05:55.205 مدیر بخش من گاهی اوقات 0:05:55.229,0:05:58.982 در اول صبح یا آخر عصر پیش من میآمد 0:05:59.006,0:06:02.068 و میگفت: "زینب بیا بریم ناهار" 0:06:02.724,0:06:04.891 من به خاطر زمانهای عجیب گیج میشدم 0:06:04.915,0:06:07.044 الان ساعت ۴ است، ناهار؟ 0:06:07.068,0:06:10.162 من شکست میخوردم[br]من همیشه برای ناهار مجانی میرفتم 0:06:10.618,0:06:12.685 بعدها فهمیدم که چه اتفاقی میافتاد 0:06:12.709,0:06:17.255 مدیران بالایی من در انتخابشان برای استخدام [br] 0:06:17.279,0:06:20.392 یک دختر نوجوان که کفش کتانی[br]و جین در محل کار میپوشید 0:06:20.416,0:06:24.346 برای انجام یک کار جدی[br]اشتباه نکرده بودند. 0:06:25.174,0:06:27.376 من خوب کار میکردم،[br]اما به نظرمیآمد که من مناسب نیستم 0:06:27.400,0:06:29.099 سن و جنسیتم نیز اشتباه بود. 0:06:29.123,0:06:32.469 خُب نادیده گرفتن شدن جنسیت و نژاد من 0:06:32.493,0:06:34.358 قطعا چیزی خوبی برای من بود. 0:06:35.031,0:06:38.372 اما با این سیستم ها[br]بغرنجتر و پیچیدهتر شده و دلیلیش اینجاست: 0:06:38.968,0:06:44.759 اخیرا، سیستمهای محاسبهگر میتوانند [br]به همه چیزهای شما 0:06:44.783,0:06:46.655 از طریق خرده اطلاعات[br]دیجیتالی شما پیببرند، 0:06:46.679,0:06:49.012 حتی اگر شما آن چیزها را فاش نکرده باشید. 0:06:49.506,0:06:52.433 آنها به گرایشهای جنسیتان ، 0:06:52.994,0:06:54.300 ویژگیهای شخصیتان، 0:06:54.859,0:06:56.232 دانستههای سیاسیتان پیببرند. 0:06:56.830,0:07:00.515 آنها قدرت پیش بینی با صحت بالایی را دارند. 0:07:01.362,0:07:03.940 به یاد داشته باشید، برای چیزهایی که شما[br]حتی آنها را فاش نکردهاید 0:07:03.964,0:07:05.555 نتیجه گیری و استنتاج است. 0:07:05.579,0:07:08.840 من یک دوستی دارم که سیستم های [br]محاسبه گری را توسعه میدهد 0:07:08.864,0:07:12.505 تا شانس افسردگی بالینی یا بعد از وضع حمل[br]را پیش بینی کند 0:07:12.529,0:07:13.945 با استفاده از اطلاعات رسانه های اجتماعی 0:07:14.676,0:07:16.103 نتیجه ها هیجان انگیز هستند. 0:07:16.492,0:07:19.849 سیستمش احتمال افسردگی را[br]میتوان 0:07:19.873,0:07:23.776 ماههای قبل از شروع علائم [br]بیماری را پیشبینی کند-- 0:07:23.800,0:07:25.173 ماههای قبل. 0:07:25.197,0:07:27.443 هیچ علامتی از بیماری نیست، [br]ولی پیش بینی میشود. 0:07:27.467,0:07:32.279 او امیدوار است بزودی این را برای مداخلات[br](روانشناسی) استفاده کند . عالیه. 0:07:32.911,0:07:34.951 اما حالا این در فضای استخدام قرار دهید. 0:07:36.027,0:07:39.073 بنابراین در این کنفرانس منبع مدیران انسانی 0:07:39.097,0:07:43.806 من به یک مدیر سطح بالا [br]در یک شرکت بزرگ نزدیک شدم 0:07:43.830,0:07:48.408 و به او گفتم: "ببین، چه میشد اگر من برای [br]تو فردی ناشناخته میشدم؟" 0:07:48.432,0:07:54.981 آیا سیستم تو در حال حذف مردم [br]با احتمال بالای افسردگی در آینده، است ؟ 0:07:55.761,0:07:59.137 آن ها الان افسرده نیستند، فقط شاید در [br]آینده به احتمال زیاد دچار افسردگی شوند. 0:07:59.923,0:08:03.329 یا اگر زنانی که احتمال دارد در یکی [br]دو سال آینده باردار شوند 0:08:03.353,0:08:05.939 ولی الان حامله نیستد[br]را کنار گذارده شوند؟ 0:08:06.844,0:08:12.480 اگر این افراد پرخاشکر را استخدام شوند[br]زیرا آن فرهنگ محیط کاریت است 0:08:13.173,0:08:15.864 تو با استفاده از نگاه کردن به[br]تقسیم بندی جنسبت نمی توانی بگویی 0:08:15.888,0:08:17.390 آن ها ممکنه متعادل باشند. 0:08:17.414,0:08:20.971 و چون این یادگیری ماشین است و [br]برنامه نویسی سنتی نیست 0:08:20.995,0:08:25.902 هیچ متغیری وجود ندارد که [br]"بیشترین خطر افسردگی " نام گذاری شود 0:08:25.926,0:08:27.759 "بیشترین خطر حاملگی" 0:08:27.783,0:08:29.517 "مقیاس پرخاشگری مردان" 0:08:29.995,0:08:33.674 نه تنها نمی دانست [br]چگونه سیستم شما، انتخاب می کنه 0:08:33.698,0:08:36.021 شما حتی نمی دانی که[br]در کجا جستجو میکند 0:08:36.045,0:08:37.291 این یک جعبه سیاه است. 0:08:37.315,0:08:40.122 این قدرت پیش گویی دارد[br]اما شما این را نمیفهمی 0:08:40.486,0:08:42.855 من پرسسیدم"حفاظت چیست؟" 0:08:42.879,0:08:46.552 « آیا باید مطمئن شوی که جعبه سیاه تان[br]کار مشکوکی انجام نمیدهد؟» 0:08:48.863,0:08:52.741 او به من به نگاه کرد مثل اینکه من[br]پا روی دُم ده تا توله گذاشتم![br] 0:08:52.765,0:08:54.013 (خنده حاضرین) 0:08:54.037,0:08:56.078 او به من خیره شد و گفت: 0:08:56.556,0:09:00.889 «نمیخوام کلمه دیگری در این باره بشنوم» 0:09:01.458,0:09:03.492 و او برگشت و قدم زنان دور شد. 0:09:04.064,0:09:05.550 به خاطر داشته باشید او بیادب نبود. 0:09:05.574,0:09:11.882 کاملا روشن بود با نگاهش میگفت: نمیدونم،[br]این مشکل من نیست، برو. 0:09:11.906,0:09:13.152 (خنده حاضرین) 0:09:13.862,0:09:17.701 نگاه کنید، یک سیستم ممکن است[br]حتی کمتر جانبدارانه باشد 0:09:17.725,0:09:19.828 تا مدیران انسانی در همان زمینه. 0:09:19.852,0:09:21.998 و این میتونه یک حس مالی ایجاد کنه 0:09:22.573,0:09:24.223 اما این میتونه منجر بشه 0:09:24.247,0:09:28.995 به یک یکنواختی اما یواشکی بستن[br]بازار کار مردم 0:09:29.019,0:09:31.312 که با ریسک بالای افسردگی همراه هستند. 0:09:31.753,0:09:34.349 آیا این نوع اجتماعی است [br]که ما میخواهیم بسازیم؟ 0:09:34.373,0:09:36.658 بدون حتی دانستن اینکه ما این را[br]انجام دادیم 0:09:36.682,0:09:40.646 زیرا ما ساختن تصمیم را تبدیل کردیم[br]به ماشین که ما سرانجامش را نمیفهمیم 0:09:41.265,0:09:42.723 و مسئله دیگر این است: 0:09:43.314,0:09:47.766 این سیستم ها اغلب روی اطلاعات تولید شده[br]توسط کارهای ما آموزش داده میشوند، 0:09:47.790,0:09:49.606 آثار به جای مانده از انسان. 0:09:50.188,0:09:53.996 خب، آنها فقط میتوانند[br]تمایلات ما را منعکس کنند، 0:09:54.020,0:09:57.613 و این سیستمهای میتوانند[br]تمایلات ما را انتخاب کنند 0:09:57.637,0:09:58.950 و آن را تقویت کرده 0:09:58.974,0:10:00.392 و آن را دوباره به ما نشان دهند، 0:10:00.416,0:10:01.878 در حالی که به خودمان میگویم، 0:10:01.902,0:10:05.019 «ما فقط در حال بررسی هستیم.» 0:10:06.314,0:10:08.991 محققان در شرکت گوگل دریافتند، 0:10:10.134,0:10:15.447 زنان نسبت به مردان احتمال کمتری دارد که[br]برای مشاغل با حقوق بالاتر قدام کنند. 0:10:16.463,0:10:18.993 و نامهای آفریقایی-آمریکایی را که جستجو کنید 0:10:19.017,0:10:23.723 احتمال بیشتر دارد که پیشینه جرم نشان دهد، 0:10:23.747,0:10:25.314 حتی وقتی که واقعا جرمی وجود ندارد. 0:10:26.693,0:10:30.242 مانند تمایلات پنهان و الگوریتم جعبه سیاه 0:10:30.266,0:10:34.239 که گاهی محققات آن را تحت پوشش قرار نمی دهند[br]و ما از آن گاهی اطلاع نداریم. 0:10:34.263,0:10:36.924 که می توانیم پرآمدهایی زندگی داشته باشد. 0:10:37.958,0:10:42.117 در ویسکانسین یک متهم به شش سال زندان [br]محکوم شد 0:10:42.141,0:10:43.496 برای فرار از پلیس. 0:10:44.824,0:10:46.010 شما ممکنه این را ندانید، 0:10:46.034,0:10:50.032 اما الگوریتم به طور افزایندهای در آزادی[br]مشروط و صدور حکم در حال استفاده هستند 0:10:50.056,0:10:53.011 او می خواهد بداند:[br]چگونه این نمره محاسبه می شود؟ 0:10:53.795,0:10:55.460 این یک جعبه سیاه تجاری است 0:10:55.484,0:10:59.689 شرکت درخواست اینکه الگوریتم [br]در دادگاه به چالش کشیده بشود را رد کرد. 0:11:00.396,0:11:05.928 اما پروپابلیکا، یک موسسه تحقیقاتی[br]غیرانتفاعی خیلی از الگوریتم ها را 0:11:05.952,0:11:07.968 با اطلاعات عمومی ای که آن ها میتوانند [br]پیدا کنند بررسی میکنند. 0:11:07.992,0:11:10.308 و دریافتند که این یک نتیجه از تمایلات بوده 0:11:10.332,0:11:13.961 و این قدرت پیشبینی اشتباه، [br]نه فقظ شانسی( بلکه به عمد) 0:11:13.985,0:11:18.401 و به طور اشتباه متهمان سیاه را به عنوان[br]مجرمان آینده دوبرابر نرخ مجرمان سفید 0:11:18.425,0:11:22.320 برچست گذاری کرده بود. 0:11:23.891,0:11:25.455 خب، به این مورد دقت کنید: 0:11:26.103,0:11:29.955 این خانم برای برداشتن [br]دخترخواندهاش دیر رسید 0:11:29.979,0:11:32.054 از یک مدرسه در بروارد ایالت فلوریدا، 0:11:32.757,0:11:35.113 با دوستش از خیابان می دوید. 0:11:35.137,0:11:39.236 آن ها یک دوچرخه بچه و یک اسکوتر[br]روی ایوان که قفل نشده بود را نشان دادند 0:11:39.260,0:11:40.892 و احمقانه روی آن پرید 0:11:40.916,0:11:43.515 وقتی آنها در حال سرعت گرفتن بودند[br]یک زن آمد و گفت 0:11:43.539,0:11:45.744 هی! این دوچرخه بچه من است 0:11:45.768,0:11:49.062 آن ها دوچرخه را رها کردن و دور شدند[br]ولی آن ها دستگیر شدند 0:11:49.086,0:11:52.723 او اشتباه کرد و او احمق بود [br]ولی او تنها ۱۸ سال داشت 0:11:52.747,0:11:55.291 او یک تعدادی جرمهای کوچک داشت. 0:11:55.808,0:12:00.993 ضمنا، آن مرد برای سرقت از فروشگاه[br]هوم دیپو دستگیر شده بود-- 0:12:01.017,0:12:03.941 ۸۵ دلار، که ارزشش به اندازه جرم کوچک بود. 0:12:04.766,0:12:09.325 اما او محکومیت دو سرقت مسلحانه داشت. 0:12:09.955,0:12:13.437 اما الگوریتم احتمال بالای جرم برای این زن[br]نشان میداد، و نه برای این مرد. 0:12:14.746,0:12:18.620 دو سال بعد، پروپابلیکا یافت[br]که این نباید در حبس باشد. 0:12:18.644,0:12:21.194 و با سایقهای را که داشت[br]برای او پیدا کردن شغل مشگل بود. 0:12:21.218,0:12:23.294 از طرف دیگر این مرد زندانی شد 0:12:23.318,0:12:27.154 و برای گناه گذشتهاش [br]برای هشت سال زندانی خواهد بود. 0:12:28.088,0:12:31.457 روشن است، ما نیاز داریم تا [br]جعبه سیاهمان را بازبینی و بررسی کنیم 0:12:31.481,0:12:34.096 و نه آن ها را، بلکه این نوع [br]قدرت چک نشده را حسابرسی کنیم 0:12:34.120,0:12:36.999 (تشویق حضار) 0:12:38.087,0:12:42.329 بررسی و باربینی خوب و مهم است [br]اما آنها تمام مشکلات ما را حل نمی کنند. 0:12:42.353,0:12:45.101 الگوریتم قدرت خبری فیسبوک[br]را در نظر بگیرید. 0:12:45.125,0:12:49.968 میدانید، کسی که همه چیز را رتبه بندی میکند[br]و تصمیم میگیرد که چه به شما نشان دهد 0:12:49.992,0:12:52.276 از همه دوستان و همه [br]صفحههایی که شما دنبال میکنید. 0:12:52.898,0:12:55.173 باید به شما عکس بچهی دیگه را نشان دهد؟ 0:12:55.197,0:12:56.393 (خنده) 0:12:56.417,0:12:59.013 یک یادداشت عبوس از یک آشنا؟ 0:12:59.449,0:13:01.305 یک خبر مهم اما قسمتهای سختش؟ 0:13:01.329,0:13:02.811 هیچ جواب درستی وجود ندارد. 0:13:02.835,0:13:05.494 فیس بوک برای مشغولیت بیشتر[br]در سایت بهینه شده : 0:13:05.518,0:13:06.933 لایک، اشتراگ گذاری، کامنت 0:13:08.168,0:13:10.864 در آگوست ۲۰۱۴ 0:13:10.888,0:13:13.550 در شهر فرگوست ایالت میسوری معترضان 0:13:13.574,0:13:17.991 بعد از کشتن یک نوجوان آفریقایی- آمریکایی[br]به وسیله یک پلیس سفید پوست 0:13:18.015,0:13:19.585 زیر رویداد مبهم شورش کردند، 0:13:19.974,0:13:21.981 خبرهای معترضان در همه جا بود 0:13:22.005,0:13:24.690 الگورتیم من فیدهای تویتر را فیلتر نکرد 0:13:24.714,0:13:26.664 اما در فیس بوکم هیچ جا باز نبود. 0:13:27.182,0:13:28.916 آیا اینها دوستان فیسبوکی من بودند؟ 0:13:28.940,0:13:30.972 من الگوریتم فیسبوکم را[br]غیر فعال کردم، 0:13:31.472,0:13:34.320 که سخت بود زیرا فیسبوک[br]خواسته های شما را حفظ میکند 0:13:34.344,0:13:36.380 تا شما را زیر کنترل الگوریتم ها نگه دارد، 0:13:36.404,0:13:38.642 و می بینید که دوستان من در حال [br]صحبت کردن درباره این حادثه بودند. 0:13:38.666,0:13:41.175 این فقط الگوریتمی بود که این را[br]به من نشان من داد. 0:13:41.199,0:13:44.241 من تحقیق کردم و فهمیدم[br]که این یه مشکل شایع بود 0:13:44.265,0:13:48.078 حادثه فرگوست یک الگوریتم دوستانه نبود. 0:13:48.102,0:13:49.273 دوست داشتنی نبود 0:13:49.297,0:13:50.849 چه کسی می خواد تا[br]روی "like" کلیک کنید؟ 0:13:51.500,0:13:53.706 این حتی ساده نیست [br]تا کامنتی روی آن قرار دهید. 0:13:53.730,0:13:55.101 بدون "like" و کامنت 0:13:55.125,0:13:58.417 احتمالا الگوریتم برای افراد[br]کمتری را نشان داده میشد، 0:13:58.441,0:13:59.983 بنابراین ما نتوانستیم این را ببینیم 0:14:00.946,0:14:02.174 در عوض، آن هفته، 0:14:02.198,0:14:04.496 الگوریتم فیس بوک این را برجسته کرده بود: 0:14:04.520,0:14:06.746 این چالش سطل آب یخ است. 0:14:06.770,0:14:10.512 علت ارزش، خالی کردن آب یخ، [br]کمک به موسسه خیریه خوب است 0:14:10.536,0:14:12.440 اما این الگوریتم دوستانه عالی بود. 0:14:13.219,0:14:15.832 که ماشین این تصمیم را برای ما گرفت. 0:14:15.856,0:14:19.353 و خیلی مهم است اما گفتگوی سختی است 0:14:19.377,0:14:20.932 ممکن است خفه شده باشد. 0:14:20.956,0:14:23.652 آیا فیسبوک فقط یک کانال داشت؟ 0:14:24.117,0:14:27.914 خُب، این سیستم ها [br]میتوانند اشتباه باشند 0:14:27.938,0:14:30.674 در راه هایی که شباهت[br]به سیستم انسانی ندارد. 0:14:30.698,0:14:33.620 آیا شما واتسون، سیستم [br]ماشین هوشمند آی بی ام 0:14:33.644,0:14:36.772 که با انسان مسابقه جوپرتری را داد[br]را به خاطر دارید؟ 0:14:37.131,0:14:38.559 واتسون بازیگر خوبی در مسابقه بود. 0:14:38.583,0:14:42.152 اما در آخرین جوپرتی، از واتسون پرسیده شد 0:14:42.659,0:14:45.591 «آیا بزرگترین فرودگاه که برای یک قهرمان[br]جنگ جهانی دوم نام گذاری شد" 0:14:45.615,0:14:47.867 این دومین فرودگاه بزرگ برای [br]مبارزه جنگ جهانی دوم نامگذاری شد.» 0:14:47.891,0:14:49.269 (...) 0:14:49.582,0:14:50.764 شیکاگو. 0:14:50.788,0:14:52.158 دو فرد درست جواب دادند 0:14:52.697,0:14:57.045 واتسون در طرف دیگر پاسخ داد «تورنتو»-- 0:14:57.069,0:14:58.887 برای یک شهر آمریکایی! 0:14:59.596,0:15:02.497 سیستم موثر همچنین یک اشتباه کرد 0:15:02.521,0:15:06.172 که یک فرد هیچ وقت این اشتباه را[br]نخواهد کرد، حتی یک کلاس دومی. 0:15:06.823,0:15:09.932 ماشین هوشمند ما میتواند شکست بخورد 0:15:09.956,0:15:13.056 در جاهایی که نمی تواند[br]الگوی خطای انسان ها را متناسب کند 0:15:13.080,0:15:16.030 در جاهایی که ما انتظار[br]و آمادگی برای آن نخواهیم داشت 0:15:16.054,0:15:19.692 این نکبت بار خواهد بود که کسی[br]که واجد شرایط هست شفلی را نگیرد، 0:15:19.716,0:15:23.443 اما سه برابر آن بدتر اینکه به دلیل خرده رفتارها 0:15:23.467,0:15:24.899 در روال عادی زندگی فرد آن شغل را نگیرد. 0:15:24.923,0:15:26.502 (خنده حضار) 0:15:26.526,0:15:29.312 در ماه می ۲۰۱۰، 0:15:29.336,0:15:33.380 یک خرابی کوتاه مدت ناشی [br]از یک حلقه فیدبک تقویت شد در وال استریت 0:15:33.404,0:15:36.432 در الگوریتم« فروش» وال استریت 0:15:36.456,0:15:40.640 یک تریلیون دلار ارزش را[br]در ۳۶ دقیقه از بین برد. 0:15:41.722,0:15:43.909 من حتی نمیخوام در مورد[br]معنیهای «خطا» 0:15:43.933,0:15:47.522 در زمینه سلاح های کشنده خودکار فکر کنم. 0:15:49.894,0:15:53.684 خب بله، انسانها همیشه تمایلات را میسازند. 0:15:53.708,0:15:55.884 تصمیم گیرندهها و دربانها 0:15:55.908,0:15:59.401 در دادگاه ها و در خبر ها و در جنگ... 0:15:59.425,0:16:02.463 آنها اشتباه می کنند،[br]اما این دقیقا نکته مورد نظر من است. 0:16:02.487,0:16:06.008 ما نمی توانیم از این سوالهای[br]مشگل فرارکنیم. 0:16:06.596,0:16:10.112 ما نمیتوانیم مسئولیت هایمان[br]را در قبال ماشین ها نادیده بگیریم. 0:16:10.676,0:16:14.884 (تشویق) 0:16:17.089,0:16:21.536 هوش مصنوعی نمیتواند به ما یک کارت [br]«خارج شدن از اخلاق به صورت رایگان» بدهد 0:16:22.742,0:16:26.123 دانشمند اطلاعات، فرد بنسون[br]این را "شستشوی ریاضی" مینامد 0:16:26.147,0:16:27.536 ما به این تضاد نیاز داریم. 0:16:27.560,0:16:32.948 ما نیاز داریم تا یک الگوریتم بد گمانی را [br]با بررسی دقیق و موشکافانه رشد دهیم. 0:16:33.380,0:16:36.578 ما نیاز داریم تا مطمئن باشیم[br]که مسولیت الگوریتمی داریم، 0:16:36.602,0:16:39.047 حسابرسی و شفافیت معنایی نیاز داریم. 0:16:39.380,0:16:42.614 ما نیاز داریم تا قبول کنیم که[br]آورده های ریاضی و محاسباتی 0:16:42.638,0:16:45.608 برای ارزش انباشته و به هم ریخته و امور انسانی 0:16:45.632,0:16:48.016 عینیت ندارد. 0:16:48.040,0:16:51.673 بلکه ، پیچیدگی امور انسانی به[br]الگوریتم ها حتما غلبه میکند. 0:16:52.148,0:16:55.635 بله ما می توانیم و ما باید[br]از محاسبات استفاده کنیم 0:16:55.659,0:16:57.673 تا برای داشتن تصمیمات بهتر[br]به خودمان کمک کنیم 0:16:57.697,0:17:03.029 اما ما اعتراف میکنیم [br]به مسئولیت اخلاقی و قضاوت 0:17:03.053,0:17:05.871 و استفااه از الگورتیم هایی با آن چارچوب 0:17:05.895,0:17:10.830 نه به عنوان وسیله ای برای کناره گیری[br]و واگذاری مسئولیت هایمان 0:17:10.854,0:17:13.308 به یک انسان دیگر. 0:17:13.807,0:17:16.416 هوش مصنوعی اینجاست. 0:17:16.440,0:17:19.861 این بدان معناست که ما باید محکمتر 0:17:19.885,0:17:22.032 ارزشها و اخلاق انسانی را نگه داریم. 0:17:22.056,0:17:23.210 متشکرم 0:17:23.234,0:17:28.254 (تشویق)