Return to Video

ماشین‌های هوشمند، انسان‌های اخلاقمند را بیشتر با اهمیت می‌کند

  • 0:01 - 0:05
    خب، من اولین شغلم را به عنوان یک
    برنامه نویس کامپیوتر شروع کردم
  • 0:05 - 0:07
    در اولین سال کالجم
  • 0:07 - 0:08
    در واقع، به عنوان یک نوجوان
  • 0:09 - 0:11
    درست پس از شروع به کار در
  • 0:11 - 0:12
    یک شزکت به عنوان برنامهنویس کامپیوتر ،
  • 0:13 - 0:16
    یک مدیر که در همان جا کار میکرد
    نزد من آمد،
  • 0:16 - 0:18
    و با صدای آرام به من گفت:
  • 0:18 - 0:21
    "او می تونه بگه اگه من دروغ بگم؟"
  • 0:22 - 0:24
    در اتاق هیچ کسی وجود نداشت.
  • 0:25 - 0:29
    "کسی میتونه بگه اگه تو دروغ میگی؟
    و چرا ما در حال پچ پچ کردن هستیم؟"
  • 0:30 - 0:33
    مدیر کامپیوتر در اتاق را نشان داد.
  • 0:33 - 0:36
    "او میتونه بگه اگه من دروغ بگم؟"
  • 0:38 - 0:42
    خب، آن مدیر رابطه نامشروع با منشیاش داشت.
  • 0:42 - 0:43
    (خنده حاضرین)
  • 0:43 - 0:45
    و من هم هنوز یک نوجوان بودم
  • 0:45 - 0:47
    سپس من با صدای بلندی گفتم:
  • 0:47 - 0:51
    "بله، کامپیوتر می تونه بگه
    اگه تو دروغ بگی"
  • 0:51 - 0:53
    (خنده حاضرین)
  • 0:53 - 0:56
    خب، من خندیدم، ولی در واقع،
    خنده به خودم
  • 0:56 - 0:59
    امروزه، سامانههای محاسباتی وجود دارد
  • 0:59 - 1:03
    که حالت احساسی و حتی دروغ رو
    از طریق تحلیل صورت انسان
  • 1:03 - 1:05
    می تونه بفهمه
  • 1:05 - 1:09
    تبلیغ کنندهها و حتی دولتها خیلی
    جالبند.
  • 1:10 - 1:12
    من یه برنامه نویس کامپیوتر
    شده بودم
  • 1:12 - 1:15
    زیرا من یکی از آن بچههای دیوانه
    ریاضی و علم بودم
  • 1:16 - 1:19
    اما در مسیر زندگی من در مورد
    سلاحهای هستهای چیزهایی یادگرفتم،
  • 1:19 - 1:22
    و واقعا در مورد اخلاق علمی نگران شدم.
  • 1:22 - 1:23
    من وحشت زده بودم
  • 1:23 - 1:26
    به هر حال، به دلیل موقعیت خانوادهام
  • 1:26 - 1:29
    نیاز داشتم تا
    در اسرع وقت- کارم را شروع کنم
  • 1:29 - 1:33
    خُب با خودم فکر کردم
    بگذار تا یک رشته تکنیکی را بردارم
  • 1:33 - 1:34
    که شغل راحتی باشه
  • 1:34 - 1:38
    و من با هیچ پرسش سخت اخلاقی
    مواجه نشوم؟
  • 1:39 - 1:41
    پس کامپیوترها را انتخاب کردم.
  • 1:41 - 1:42
    (خنده حاضرین)
  • 1:42 - 1:45
    خب، ها، ها، ها!
    همه خندهها برای من هستند.
  • 1:45 - 1:48
    امروزه، دانشمندان کامپیوتر
    در حال ساخت یک سیستم عامل هستند
  • 1:48 - 1:52
    که آنچه یک میلیارد آدم
    هر روز میبینند روکنترل میکنه
  • 1:53 - 1:57
    آنها خودروهایی را ساختند که میتوانند
    تصمیم بگیرند که چه کسی زیر بگیرند.
  • 1:58 - 2:01
    آن ها حتی در حال ساخت ماشینهایی هستند،
    تسلیحاتی
  • 2:01 - 2:03
    که ممکنه آدم ها رو در جنگ بکشه.
  • 2:03 - 2:06
    همه اینها سقوط اخلاق است.
  • 2:07 - 2:09
    هوشمندی ماشین اینجاست.
  • 2:10 - 2:13
    ما در حال استفاده از محاسباتی
    هستیم که همه تصمیمات ما را مرتب میکنه،
  • 2:13 - 2:15
    همچنین نوعهای مختلف تصمیمها را مرتب میکند.
  • 2:15 - 2:20
    ما سوالاتی را می پرسیم هستیم که
    هیچ جواب معین درستی ندارند،
  • 2:20 - 2:22
    آنها ذهنی هستند
  • 2:22 - 2:24
    و بدون جواب معین
    و پر محتوا هستند.
  • 2:24 - 2:26
    ما پرسشهایی شبیه اینها را میپرسیم:
  • 2:26 - 2:27
    «شرکت کی باید استخدام کند؟»
  • 2:28 - 2:31
    «بکدام بروزرسانی از کدام دوست
    باید نشان داده شود؟»
  • 2:31 - 2:33
    «کدام متهم بیشتر شبیه خلافکارهاست؟»
  • 2:34 - 2:37
    «کدام بخش خبرها یا فیلم باید به مردم
    توصیه بشه؟»
  • 2:37 - 2:40
    ببیند، بله، ما مدتهاست است که در حال
    استفاده از کامپیوترها هستیم
  • 2:40 - 2:42
    اما این بار فرق داره.
  • 2:42 - 2:44
    این یک چرخش تاریخی است،
  • 2:44 - 2:49
    زیرا ما نمیتوانیم محاسبات را
    برای تصمیمهای ذهنی نگه داریم
  • 2:49 - 2:54
    مانند روش محاسباتی
    برای پرواز هواپیما، ساخت پلها
  • 2:54 - 2:56
    و به ماه رفتن.
  • 2:56 - 3:00
    آیا هواپیماها امن هستند؟
    آیا این پل فرو میریزد؟
  • 3:00 - 3:04
    این چنین است، ما منصفانه و براساس معیارهای
    روشن توافق کردیم
  • 3:04 - 3:06
    و ما قوانین طبیعت را برای راهنمایی داریم
  • 3:07 - 3:10
    ما چیزی شبیه مجری ها و معیارها
    برای تصمیم گیری
  • 3:10 - 3:14
    درکارهای انسان آشفته نداریم.
  • 3:14 - 3:18
    برای انجام کارهای پیچیدهتر،
    تا نرم افزارهای ما بیشتر قدرتمند میشوند،
  • 3:18 - 3:22
    اما این می تواند کمتر شفاف
    و بیشتر پیچیده باشد.
  • 3:23 - 3:25
    اخیرا، در دهه گذشته
  • 3:25 - 3:27
    الگوریتم های پیچیده
    با گامهای بلندی ساخته شدهاند.
  • 3:27 - 3:29
    آنها میتوانند صورت انسان را
    بازشناسایی کنند.
  • 3:30 - 3:32
    آنها میتوانند دست خط را تشخیص بدهند.
  • 3:32 - 3:35
    آنها میتوانند تقلب در کارت اعتباری را
    کشف کنند
  • 3:35 - 3:36
    و اسپمها را مسدود کنند
  • 3:36 - 3:38
    و آنها میتوانند زبانها را ترجمه کنند،
  • 3:38 - 3:40
    می توانند تومورها را در تصاویر پزشکی
    کشف کنند.
  • 3:40 - 3:43
    آنها میتوانند در بازیهای
    شطرنج و گو از آدمها ببرند.
  • 3:43 - 3:48
    بیشتر این پیشرفتها از روشی به نام
    "یادگیری ماشین" آمدهاند.
  • 3:48 - 3:51
    یادگیری ماشین با برنامه نویسی سنتی
    متفاوت هست،
  • 3:51 - 3:55
    که به کامپیوتر جزئیات دقیق
    دستورات پر زحمت را میدهید.
  • 3:55 - 4:00
    این بیشتر شبیه اینه که شما یک سیستم
    گرفتهاید و اطلاعات زیادی به آن میخورانید
  • 4:00 - 4:01
    شامل اطلاعات بدون ساختار،
  • 4:01 - 4:04
    مانند اطلاعاتی که ما در زندگی دیجیتال خود
    تولید میکنیم.
  • 4:04 - 4:06
    و سیستمی که بوسیله گردش در بین اطلاعات
    یاد میگیرد.
  • 4:07 - 4:08
    و همچنین بحرانی
  • 4:08 - 4:13
    آن سیستمهایی که زیر یک پاسخ سیگنال
    منطقی عمل نمی کنند
  • 4:13 - 4:16
    آن ها یک پاسخ ساده تولید نمی کنند
    این ها بیشتر "احتمال" هستند
  • 4:16 - 4:19
    "این یک احتمالی است که بیشتر شبیه
    آنچه شما دنبال آن هستید "
  • 4:20 - 4:23
    حالا، بالاتر این است که: این شیوه
    واقعا قدرتمند است.
  • 4:23 - 4:25
    رییس سیستمهای هوش مصنوعی (AI) گوگل
    این را نام گذاری کرد:
  • 4:25 - 4:27
    "اثر غیر منطقی اطلاعات"
  • 4:28 - 4:29
    قسمت بدترش این است که:
  • 4:30 - 4:33
    ما واقعا نمیفهمیم
    سیستم چه یاد میگیرد.
  • 4:33 - 4:34
    در حقیقت این قدرت آن است.
  • 4:35 - 4:39
    این کمتر شبیهِ دادنِ دستورالعمل
    به کامپیوتر است،
  • 4:39 - 4:43
    این بیشتر شبیه یاد دادن به یک
    توله ماشین زندهاست
  • 4:43 - 4:46
    ما واقعا نمیفهمیم و کنترل نمیکنیم.
  • 4:46 - 4:48
    خب این مشکل ماست.
  • 4:48 - 4:53
    این یک مشکل است وقتی که سیستم هوش مصنوعی
    چیزها را اشتباه یاد میگیرد.
  • 4:53 - 4:56
    این همچنین یک مشکل است وقتی که
    این چیزها را درست یاد میگیرد،
  • 4:56 - 5:00
    زیرا ما حتی نمی دانیم کدام به کدام است
    وقتی که این یک مشکل درونی است.
  • 5:00 - 5:02
    ما نمیدانیم در حال فکر کردن
    به چه چیزی است
  • 5:03 - 5:07
    یک الگوریتم استخدام را فرض کنید--
  • 5:08 - 5:12
    یک سیستمی که مردم را با استفاده از
    سیستم یادگیری ماشین استخدام می کند.
  • 5:13 - 5:17
    مانند یک سیستمی که بر اساس اطلاعات
    کارمندان قبلی آموزش دیده شده است
  • 5:17 - 5:19
    و دستور دارد که پیدا کند و استخدام کند
  • 5:19 - 5:22
    مردمی که بهروری بالایی در شرکت
    دارند.
  • 5:23 - 5:24
    به نظر خوب میاد.
  • 5:24 - 5:26
    من یک بار در کنفرانسی حضور داشتم
  • 5:26 - 5:29
    که مدیران منابع انسانی و مدیران اجرایی
    دور هم جمع شده بودند،
  • 5:29 - 5:30
    افراد رده بالای شرکتها
  • 5:30 - 5:32
    که از این سیستمهای برای استخدام
    استفاده می کردند.
  • 5:32 - 5:34
    آنها خیلی هیجان زده بودند
  • 5:34 - 5:38
    آنها فکر می کردند که این استخدام را بیشتر هدفمند
    و کمتر مغروضانه خواهند بود،
  • 5:38 - 5:41
    و به خانم ها و اقلیت
    یک شانس بهتری میدهد
  • 5:41 - 5:44
    بر خلاف غرضورزی مدیران منابع انسانی
  • 5:44 - 5:46
    ببینید--
    استخدام افراد غرض ورزانه است.
  • 5:47 - 5:48
    من میدانم.
  • 5:48 - 5:51
    منظورم اینه، در اولین شغل من به عنوان
    برنامه نویس
  • 5:51 - 5:55
    مدیر بخش من گاهی اوقات
  • 5:55 - 5:59
    در اول صبح یا آخر عصر پیش من میآمد
  • 5:59 - 6:02
    و میگفت: "زینب بیا بریم ناهار"
  • 6:03 - 6:05
    من به خاطر زمانهای عجیب گیج میشدم
  • 6:05 - 6:07
    الان ساعت ۴ است، ناهار؟
  • 6:07 - 6:10
    من شکست میخوردم
    من همیشه برای ناهار مجانی میرفتم
  • 6:11 - 6:13
    بعدها فهمیدم که چه اتفاقی میافتاد
  • 6:13 - 6:17
    مدیران بالایی من در انتخابشان برای استخدام
  • 6:17 - 6:20
    یک دختر نوجوان که کفش کتانی
    و جین در محل کار میپوشید
  • 6:20 - 6:24
    برای انجام یک کار جدی
    اشتباه نکرده بودند.
  • 6:25 - 6:27
    من خوب کار میکردم،
    اما به نظرمیآمد که من مناسب نیستم
  • 6:27 - 6:29
    سن و جنسیتم نیز اشتباه بود.
  • 6:29 - 6:32
    خُب نادیده گرفتن شدن جنسیت و نژاد من
  • 6:32 - 6:34
    قطعا چیزی خوبی برای من بود.
  • 6:35 - 6:38
    اما با این سیستم ها
    بغرنجتر و پیچیدهتر شده و دلیلیش اینجاست:
  • 6:39 - 6:45
    اخیرا، سیستمهای محاسبهگر میتوانند
    به همه چیزهای شما
  • 6:45 - 6:47
    از طریق خرده اطلاعات
    دیجیتالی شما پیببرند،
  • 6:47 - 6:49
    حتی اگر شما آن چیزها را فاش نکرده باشید.
  • 6:50 - 6:52
    آنها به گرایشهای جنسیتان ،
  • 6:53 - 6:54
    ویژگیهای شخصیتان،
  • 6:55 - 6:56
    دانستههای سیاسیتان پیببرند.
  • 6:57 - 7:01
    آنها قدرت پیش بینی با صحت بالایی را دارند.
  • 7:01 - 7:04
    به یاد داشته باشید، برای چیزهایی که شما
    حتی آنها را فاش نکردهاید
  • 7:04 - 7:06
    نتیجه گیری و استنتاج است.
  • 7:06 - 7:09
    من یک دوستی دارم که سیستم های
    محاسبه گری را توسعه میدهد
  • 7:09 - 7:13
    تا شانس افسردگی بالینی یا بعد از وضع حمل
    را پیش بینی کند
  • 7:13 - 7:14
    با استفاده از اطلاعات رسانه های اجتماعی
  • 7:15 - 7:16
    نتیجه ها هیجان انگیز هستند.
  • 7:16 - 7:20
    سیستمش احتمال افسردگی را
    میتوان
  • 7:20 - 7:24
    ماههای قبل از شروع علائم
    بیماری را پیشبینی کند--
  • 7:24 - 7:25
    ماههای قبل.
  • 7:25 - 7:27
    هیچ علامتی از بیماری نیست،
    ولی پیش بینی میشود.
  • 7:27 - 7:32
    او امیدوار است بزودی این را برای مداخلات
    (روانشناسی) استفاده کند . عالیه.
  • 7:33 - 7:35
    اما حالا این در فضای استخدام قرار دهید.
  • 7:36 - 7:39
    بنابراین در این کنفرانس منبع مدیران انسانی
  • 7:39 - 7:44
    من به یک مدیر سطح بالا
    در یک شرکت بزرگ نزدیک شدم
  • 7:44 - 7:48
    و به او گفتم: "ببین، چه میشد اگر من برای
    تو فردی ناشناخته میشدم؟"
  • 7:48 - 7:55
    آیا سیستم تو در حال حذف مردم
    با احتمال بالای افسردگی در آینده، است ؟
  • 7:56 - 7:59
    آن ها الان افسرده نیستند، فقط شاید در
    آینده به احتمال زیاد دچار افسردگی شوند.
  • 8:00 - 8:03
    یا اگر زنانی که احتمال دارد در یکی
    دو سال آینده باردار شوند
  • 8:03 - 8:06
    ولی الان حامله نیستد
    را کنار گذارده شوند؟
  • 8:07 - 8:12
    اگر این افراد پرخاشکر را استخدام شوند
    زیرا آن فرهنگ محیط کاریت است
  • 8:13 - 8:16
    تو با استفاده از نگاه کردن به
    تقسیم بندی جنسبت نمی توانی بگویی
  • 8:16 - 8:17
    آن ها ممکنه متعادل باشند.
  • 8:17 - 8:21
    و چون این یادگیری ماشین است و
    برنامه نویسی سنتی نیست
  • 8:21 - 8:26
    هیچ متغیری وجود ندارد که
    "بیشترین خطر افسردگی " نام گذاری شود
  • 8:26 - 8:28
    "بیشترین خطر حاملگی"
  • 8:28 - 8:30
    "مقیاس پرخاشگری مردان"
  • 8:30 - 8:34
    نه تنها نمی دانست
    چگونه سیستم شما، انتخاب می کنه
  • 8:34 - 8:36
    شما حتی نمی دانی که
    در کجا جستجو میکند
  • 8:36 - 8:37
    این یک جعبه سیاه است.
  • 8:37 - 8:40
    این قدرت پیش گویی دارد
    اما شما این را نمیفهمی
  • 8:40 - 8:43
    من پرسسیدم"حفاظت چیست؟"
  • 8:43 - 8:47
    « آیا باید مطمئن شوی که جعبه سیاه تان
    کار مشکوکی انجام نمیدهد؟»
  • 8:49 - 8:53
    او به من به نگاه کرد مثل اینکه من
    پا روی دُم ده تا توله گذاشتم!
  • 8:53 - 8:54
    (خنده حاضرین)
  • 8:54 - 8:56
    او به من خیره شد و گفت:
  • 8:57 - 9:01
    «نمیخوام کلمه دیگری در این باره بشنوم»
  • 9:01 - 9:03
    و او برگشت و قدم زنان دور شد.
  • 9:04 - 9:06
    به خاطر داشته باشید او بیادب نبود.
  • 9:06 - 9:12
    کاملا روشن بود با نگاهش میگفت: نمیدونم،
    این مشکل من نیست، برو.
  • 9:12 - 9:13
    (خنده حاضرین)
  • 9:14 - 9:18
    نگاه کنید، یک سیستم ممکن است
    حتی کمتر جانبدارانه باشد
  • 9:18 - 9:20
    تا مدیران انسانی در همان زمینه.
  • 9:20 - 9:22
    و این میتونه یک حس مالی ایجاد کنه
  • 9:23 - 9:24
    اما این میتونه منجر بشه
  • 9:24 - 9:29
    به یک یکنواختی اما یواشکی بستن
    بازار کار مردم
  • 9:29 - 9:31
    که با ریسک بالای افسردگی همراه هستند.
  • 9:32 - 9:34
    آیا این نوع اجتماعی است
    که ما میخواهیم بسازیم؟
  • 9:34 - 9:37
    بدون حتی دانستن اینکه ما این را
    انجام دادیم
  • 9:37 - 9:41
    زیرا ما ساختن تصمیم را تبدیل کردیم
    به ماشین که ما سرانجامش را نمیفهمیم
  • 9:41 - 9:43
    و مسئله دیگر این است:
  • 9:43 - 9:48
    این سیستم ها اغلب روی اطلاعات تولید شده
    توسط کارهای ما آموزش داده میشوند،
  • 9:48 - 9:50
    آثار به جای مانده از انسان.
  • 9:50 - 9:54
    خب، آنها فقط میتوانند
    تمایلات ما را منعکس کنند،
  • 9:54 - 9:58
    و این سیستمهای میتوانند
    تمایلات ما را انتخاب کنند
  • 9:58 - 9:59
    و آن را تقویت کرده
  • 9:59 - 10:00
    و آن را دوباره به ما نشان دهند،
  • 10:00 - 10:02
    در حالی که به خودمان میگویم،
  • 10:02 - 10:05
    «ما فقط در حال بررسی هستیم.»
  • 10:06 - 10:09
    محققان در شرکت گوگل دریافتند،
  • 10:10 - 10:15
    زنان نسبت به مردان احتمال کمتری دارد که
    برای مشاغل با حقوق بالاتر قدام کنند.
  • 10:16 - 10:19
    و نامهای آفریقایی-آمریکایی را که جستجو کنید
  • 10:19 - 10:24
    احتمال بیشتر دارد که پیشینه جرم نشان دهد،
  • 10:24 - 10:25
    حتی وقتی که واقعا جرمی وجود ندارد.
  • 10:27 - 10:30
    مانند تمایلات پنهان و الگوریتم جعبه سیاه
  • 10:30 - 10:34
    که گاهی محققات آن را تحت پوشش قرار نمی دهند
    و ما از آن گاهی اطلاع نداریم.
  • 10:34 - 10:37
    که می توانیم پرآمدهایی زندگی داشته باشد.
  • 10:38 - 10:42
    در ویسکانسین یک متهم به شش سال زندان
    محکوم شد
  • 10:42 - 10:43
    برای فرار از پلیس.
  • 10:45 - 10:46
    شما ممکنه این را ندانید،
  • 10:46 - 10:50
    اما الگوریتم به طور افزایندهای در آزادی
    مشروط و صدور حکم در حال استفاده هستند
  • 10:50 - 10:53
    او می خواهد بداند:
    چگونه این نمره محاسبه می شود؟
  • 10:54 - 10:55
    این یک جعبه سیاه تجاری است
  • 10:55 - 11:00
    شرکت درخواست اینکه الگوریتم
    در دادگاه به چالش کشیده بشود را رد کرد.
  • 11:00 - 11:06
    اما پروپابلیکا، یک موسسه تحقیقاتی
    غیرانتفاعی خیلی از الگوریتم ها را
  • 11:06 - 11:08
    با اطلاعات عمومی ای که آن ها میتوانند
    پیدا کنند بررسی میکنند.
  • 11:08 - 11:10
    و دریافتند که این یک نتیجه از تمایلات بوده
  • 11:10 - 11:14
    و این قدرت پیشبینی اشتباه،
    نه فقظ شانسی( بلکه به عمد)
  • 11:14 - 11:18
    و به طور اشتباه متهمان سیاه را به عنوان
    مجرمان آینده دوبرابر نرخ مجرمان سفید
  • 11:18 - 11:22
    برچست گذاری کرده بود.
  • 11:24 - 11:25
    خب، به این مورد دقت کنید:
  • 11:26 - 11:30
    این خانم برای برداشتن
    دخترخواندهاش دیر رسید
  • 11:30 - 11:32
    از یک مدرسه در بروارد ایالت فلوریدا،
  • 11:33 - 11:35
    با دوستش از خیابان می دوید.
  • 11:35 - 11:39
    آن ها یک دوچرخه بچه و یک اسکوتر
    روی ایوان که قفل نشده بود را نشان دادند
  • 11:39 - 11:41
    و احمقانه روی آن پرید
  • 11:41 - 11:44
    وقتی آنها در حال سرعت گرفتن بودند
    یک زن آمد و گفت
  • 11:44 - 11:46
    هی! این دوچرخه بچه من است
  • 11:46 - 11:49
    آن ها دوچرخه را رها کردن و دور شدند
    ولی آن ها دستگیر شدند
  • 11:49 - 11:53
    او اشتباه کرد و او احمق بود
    ولی او تنها ۱۸ سال داشت
  • 11:53 - 11:55
    او یک تعدادی جرمهای کوچک داشت.
  • 11:56 - 12:01
    ضمنا، آن مرد برای سرقت از فروشگاه
    هوم دیپو دستگیر شده بود--
  • 12:01 - 12:04
    ۸۵ دلار، که ارزشش به اندازه جرم کوچک بود.
  • 12:05 - 12:09
    اما او محکومیت دو سرقت مسلحانه داشت.
  • 12:10 - 12:13
    اما الگوریتم احتمال بالای جرم برای این زن
    نشان میداد، و نه برای این مرد.
  • 12:15 - 12:19
    دو سال بعد، پروپابلیکا یافت
    که این نباید در حبس باشد.
  • 12:19 - 12:21
    و با سایقهای را که داشت
    برای او پیدا کردن شغل مشگل بود.
  • 12:21 - 12:23
    از طرف دیگر این مرد زندانی شد
  • 12:23 - 12:27
    و برای گناه گذشتهاش
    برای هشت سال زندانی خواهد بود.
  • 12:28 - 12:31
    روشن است، ما نیاز داریم تا
    جعبه سیاهمان را بازبینی و بررسی کنیم
  • 12:31 - 12:34
    و نه آن ها را، بلکه این نوع
    قدرت چک نشده را حسابرسی کنیم
  • 12:34 - 12:37
    (تشویق حضار)
  • 12:38 - 12:42
    بررسی و باربینی خوب و مهم است
    اما آنها تمام مشکلات ما را حل نمی کنند.
  • 12:42 - 12:45
    الگوریتم قدرت خبری فیسبوک
    را در نظر بگیرید.
  • 12:45 - 12:50
    میدانید، کسی که همه چیز را رتبه بندی میکند
    و تصمیم میگیرد که چه به شما نشان دهد
  • 12:50 - 12:52
    از همه دوستان و همه
    صفحههایی که شما دنبال میکنید.
  • 12:53 - 12:55
    باید به شما عکس بچهی دیگه را نشان دهد؟
  • 12:55 - 12:56
    (خنده)
  • 12:56 - 12:59
    یک یادداشت عبوس از یک آشنا؟
  • 12:59 - 13:01
    یک خبر مهم اما قسمتهای سختش؟
  • 13:01 - 13:03
    هیچ جواب درستی وجود ندارد.
  • 13:03 - 13:05
    فیس بوک برای مشغولیت بیشتر
    در سایت بهینه شده :
  • 13:06 - 13:07
    لایک، اشتراگ گذاری، کامنت
  • 13:08 - 13:11
    در آگوست ۲۰۱۴
  • 13:11 - 13:14
    در شهر فرگوست ایالت میسوری معترضان
  • 13:14 - 13:18
    بعد از کشتن یک نوجوان آفریقایی- آمریکایی
    به وسیله یک پلیس سفید پوست
  • 13:18 - 13:20
    زیر رویداد مبهم شورش کردند،
  • 13:20 - 13:22
    خبرهای معترضان در همه جا بود
  • 13:22 - 13:25
    الگورتیم من فیدهای تویتر را فیلتر نکرد
  • 13:25 - 13:27
    اما در فیس بوکم هیچ جا باز نبود.
  • 13:27 - 13:29
    آیا اینها دوستان فیسبوکی من بودند؟
  • 13:29 - 13:31
    من الگوریتم فیسبوکم را
    غیر فعال کردم،
  • 13:31 - 13:34
    که سخت بود زیرا فیسبوک
    خواسته های شما را حفظ میکند
  • 13:34 - 13:36
    تا شما را زیر کنترل الگوریتم ها نگه دارد،
  • 13:36 - 13:39
    و می بینید که دوستان من در حال
    صحبت کردن درباره این حادثه بودند.
  • 13:39 - 13:41
    این فقط الگوریتمی بود که این را
    به من نشان من داد.
  • 13:41 - 13:44
    من تحقیق کردم و فهمیدم
    که این یه مشکل شایع بود
  • 13:44 - 13:48
    حادثه فرگوست یک الگوریتم دوستانه نبود.
  • 13:48 - 13:49
    دوست داشتنی نبود
  • 13:49 - 13:51
    چه کسی می خواد تا
    روی "like" کلیک کنید؟
  • 13:52 - 13:54
    این حتی ساده نیست
    تا کامنتی روی آن قرار دهید.
  • 13:54 - 13:55
    بدون "like" و کامنت
  • 13:55 - 13:58
    احتمالا الگوریتم برای افراد
    کمتری را نشان داده میشد،
  • 13:58 - 14:00
    بنابراین ما نتوانستیم این را ببینیم
  • 14:01 - 14:02
    در عوض، آن هفته،
  • 14:02 - 14:04
    الگوریتم فیس بوک این را برجسته کرده بود:
  • 14:05 - 14:07
    این چالش سطل آب یخ است.
  • 14:07 - 14:11
    علت ارزش، خالی کردن آب یخ،
    کمک به موسسه خیریه خوب است
  • 14:11 - 14:12
    اما این الگوریتم دوستانه عالی بود.
  • 14:13 - 14:16
    که ماشین این تصمیم را برای ما گرفت.
  • 14:16 - 14:19
    و خیلی مهم است اما گفتگوی سختی است
  • 14:19 - 14:21
    ممکن است خفه شده باشد.
  • 14:21 - 14:24
    آیا فیسبوک فقط یک کانال داشت؟
  • 14:24 - 14:28
    خُب، این سیستم ها
    میتوانند اشتباه باشند
  • 14:28 - 14:31
    در راه هایی که شباهت
    به سیستم انسانی ندارد.
  • 14:31 - 14:34
    آیا شما واتسون، سیستم
    ماشین هوشمند آی بی ام
  • 14:34 - 14:37
    که با انسان مسابقه جوپرتری را داد
    را به خاطر دارید؟
  • 14:37 - 14:39
    واتسون بازیگر خوبی در مسابقه بود.
  • 14:39 - 14:42
    اما در آخرین جوپرتی، از واتسون پرسیده شد
  • 14:43 - 14:46
    «آیا بزرگترین فرودگاه که برای یک قهرمان
    جنگ جهانی دوم نام گذاری شد"
  • 14:46 - 14:48
    این دومین فرودگاه بزرگ برای
    مبارزه جنگ جهانی دوم نامگذاری شد.»
  • 14:48 - 14:49
    (...)
  • 14:50 - 14:51
    شیکاگو.
  • 14:51 - 14:52
    دو فرد درست جواب دادند
  • 14:53 - 14:57
    واتسون در طرف دیگر پاسخ داد «تورنتو»--
  • 14:57 - 14:59
    برای یک شهر آمریکایی!
  • 15:00 - 15:02
    سیستم موثر همچنین یک اشتباه کرد
  • 15:03 - 15:06
    که یک فرد هیچ وقت این اشتباه را
    نخواهد کرد، حتی یک کلاس دومی.
  • 15:07 - 15:10
    ماشین هوشمند ما میتواند شکست بخورد
  • 15:10 - 15:13
    در جاهایی که نمی تواند
    الگوی خطای انسان ها را متناسب کند
  • 15:13 - 15:16
    در جاهایی که ما انتظار
    و آمادگی برای آن نخواهیم داشت
  • 15:16 - 15:20
    این نکبت بار خواهد بود که کسی
    که واجد شرایط هست شفلی را نگیرد،
  • 15:20 - 15:23
    اما سه برابر آن بدتر اینکه به دلیل خرده رفتارها
  • 15:23 - 15:25
    در روال عادی زندگی فرد آن شغل را نگیرد.
  • 15:25 - 15:27
    (خنده حضار)
  • 15:27 - 15:29
    در ماه می ۲۰۱۰،
  • 15:29 - 15:33
    یک خرابی کوتاه مدت ناشی
    از یک حلقه فیدبک تقویت شد در وال استریت
  • 15:33 - 15:36
    در الگوریتم« فروش» وال استریت
  • 15:36 - 15:41
    یک تریلیون دلار ارزش را
    در ۳۶ دقیقه از بین برد.
  • 15:42 - 15:44
    من حتی نمیخوام در مورد
    معنیهای «خطا»
  • 15:44 - 15:48
    در زمینه سلاح های کشنده خودکار فکر کنم.
  • 15:50 - 15:54
    خب بله، انسانها همیشه تمایلات را میسازند.
  • 15:54 - 15:56
    تصمیم گیرندهها و دربانها
  • 15:56 - 15:59
    در دادگاه ها و در خبر ها و در جنگ...
  • 15:59 - 16:02
    آنها اشتباه می کنند،
    اما این دقیقا نکته مورد نظر من است.
  • 16:02 - 16:06
    ما نمی توانیم از این سوالهای
    مشگل فرارکنیم.
  • 16:07 - 16:10
    ما نمیتوانیم مسئولیت هایمان
    را در قبال ماشین ها نادیده بگیریم.
  • 16:11 - 16:15
    (تشویق)
  • 16:17 - 16:22
    هوش مصنوعی نمیتواند به ما یک کارت
    «خارج شدن از اخلاق به صورت رایگان» بدهد
  • 16:23 - 16:26
    دانشمند اطلاعات، فرد بنسون
    این را "شستشوی ریاضی" مینامد
  • 16:26 - 16:28
    ما به این تضاد نیاز داریم.
  • 16:28 - 16:33
    ما نیاز داریم تا یک الگوریتم بد گمانی را
    با بررسی دقیق و موشکافانه رشد دهیم.
  • 16:33 - 16:37
    ما نیاز داریم تا مطمئن باشیم
    که مسولیت الگوریتمی داریم،
  • 16:37 - 16:39
    حسابرسی و شفافیت معنایی نیاز داریم.
  • 16:39 - 16:43
    ما نیاز داریم تا قبول کنیم که
    آورده های ریاضی و محاسباتی
  • 16:43 - 16:46
    برای ارزش انباشته و به هم ریخته و امور انسانی
  • 16:46 - 16:48
    عینیت ندارد.
  • 16:48 - 16:52
    بلکه ، پیچیدگی امور انسانی به
    الگوریتم ها حتما غلبه میکند.
  • 16:52 - 16:56
    بله ما می توانیم و ما باید
    از محاسبات استفاده کنیم
  • 16:56 - 16:58
    تا برای داشتن تصمیمات بهتر
    به خودمان کمک کنیم
  • 16:58 - 17:03
    اما ما اعتراف میکنیم
    به مسئولیت اخلاقی و قضاوت
  • 17:03 - 17:06
    و استفااه از الگورتیم هایی با آن چارچوب
  • 17:06 - 17:11
    نه به عنوان وسیله ای برای کناره گیری
    و واگذاری مسئولیت هایمان
  • 17:11 - 17:13
    به یک انسان دیگر.
  • 17:14 - 17:16
    هوش مصنوعی اینجاست.
  • 17:16 - 17:20
    این بدان معناست که ما باید محکمتر
  • 17:20 - 17:22
    ارزشها و اخلاق انسانی را نگه داریم.
  • 17:22 - 17:23
    متشکرم
  • 17:23 - 17:28
    (تشویق)
Title:
ماشین‌های هوشمند، انسان‌های اخلاقمند را بیشتر با اهمیت می‌کند
Speaker:
زینب توفکسی
Description:

هوشمندی ماشین اینجاست و ما در حال استفاده از آن برای تصمیم‌گیری درمورد موضوعات هستیم. در موارد پیچیده هوش مصنوعی رشد و پیشرفت می‌کنند، اما این رشد برای درک و حتی برای کنترل آن مشگل خواهد بود. در این سخنرانی اخطار آمیر، جامعه شناس تکنولوژی زینپ توفکسی توضیح می‌دهد که در مواردی که ما انتظار نداشتیم و یا آمادگی آن را نداریم چگونه هوشمندی ماشین می‌تواند شکست بخورد. او می‌گوید:"ما نمی‌توانیم مسئولیت هایمان را به ماشین واگذار کنیم. ما باید ارزش‌های انسانی و اخلاق انسانی را محکم نگه داریم."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Persian subtitles

Revisions