ماشینهای هوشمند، انسانهای اخلاقمند را بیشتر با اهمیت میکند
-
0:01 - 0:05خب، من اولین شغلم را به عنوان یک
برنامه نویس کامپیوتر شروع کردم -
0:05 - 0:07در اولین سال کالجم
-
0:07 - 0:08در واقع، به عنوان یک نوجوان
-
0:09 - 0:11درست پس از شروع به کار در
-
0:11 - 0:12یک شزکت به عنوان برنامهنویس کامپیوتر ،
-
0:13 - 0:16یک مدیر که در همان جا کار میکرد
نزد من آمد، -
0:16 - 0:18و با صدای آرام به من گفت:
-
0:18 - 0:21"او می تونه بگه اگه من دروغ بگم؟"
-
0:22 - 0:24در اتاق هیچ کسی وجود نداشت.
-
0:25 - 0:29"کسی میتونه بگه اگه تو دروغ میگی؟
و چرا ما در حال پچ پچ کردن هستیم؟" -
0:30 - 0:33مدیر کامپیوتر در اتاق را نشان داد.
-
0:33 - 0:36"او میتونه بگه اگه من دروغ بگم؟"
-
0:38 - 0:42خب، آن مدیر رابطه نامشروع با منشیاش داشت.
-
0:42 - 0:43(خنده حاضرین)
-
0:43 - 0:45و من هم هنوز یک نوجوان بودم
-
0:45 - 0:47سپس من با صدای بلندی گفتم:
-
0:47 - 0:51"بله، کامپیوتر می تونه بگه
اگه تو دروغ بگی" -
0:51 - 0:53(خنده حاضرین)
-
0:53 - 0:56خب، من خندیدم، ولی در واقع،
خنده به خودم -
0:56 - 0:59امروزه، سامانههای محاسباتی وجود دارد
-
0:59 - 1:03که حالت احساسی و حتی دروغ رو
از طریق تحلیل صورت انسان -
1:03 - 1:05می تونه بفهمه
-
1:05 - 1:09تبلیغ کنندهها و حتی دولتها خیلی
جالبند. -
1:10 - 1:12من یه برنامه نویس کامپیوتر
شده بودم -
1:12 - 1:15زیرا من یکی از آن بچههای دیوانه
ریاضی و علم بودم -
1:16 - 1:19اما در مسیر زندگی من در مورد
سلاحهای هستهای چیزهایی یادگرفتم، -
1:19 - 1:22و واقعا در مورد اخلاق علمی نگران شدم.
-
1:22 - 1:23من وحشت زده بودم
-
1:23 - 1:26به هر حال، به دلیل موقعیت خانوادهام
-
1:26 - 1:29نیاز داشتم تا
در اسرع وقت- کارم را شروع کنم -
1:29 - 1:33خُب با خودم فکر کردم
بگذار تا یک رشته تکنیکی را بردارم -
1:33 - 1:34که شغل راحتی باشه
-
1:34 - 1:38و من با هیچ پرسش سخت اخلاقی
مواجه نشوم؟ -
1:39 - 1:41پس کامپیوترها را انتخاب کردم.
-
1:41 - 1:42(خنده حاضرین)
-
1:42 - 1:45خب، ها، ها، ها!
همه خندهها برای من هستند. -
1:45 - 1:48امروزه، دانشمندان کامپیوتر
در حال ساخت یک سیستم عامل هستند -
1:48 - 1:52که آنچه یک میلیارد آدم
هر روز میبینند روکنترل میکنه -
1:53 - 1:57آنها خودروهایی را ساختند که میتوانند
تصمیم بگیرند که چه کسی زیر بگیرند. -
1:58 - 2:01آن ها حتی در حال ساخت ماشینهایی هستند،
تسلیحاتی -
2:01 - 2:03که ممکنه آدم ها رو در جنگ بکشه.
-
2:03 - 2:06همه اینها سقوط اخلاق است.
-
2:07 - 2:09هوشمندی ماشین اینجاست.
-
2:10 - 2:13ما در حال استفاده از محاسباتی
هستیم که همه تصمیمات ما را مرتب میکنه، -
2:13 - 2:15همچنین نوعهای مختلف تصمیمها را مرتب میکند.
-
2:15 - 2:20ما سوالاتی را می پرسیم هستیم که
هیچ جواب معین درستی ندارند، -
2:20 - 2:22آنها ذهنی هستند
-
2:22 - 2:24و بدون جواب معین
و پر محتوا هستند. -
2:24 - 2:26ما پرسشهایی شبیه اینها را میپرسیم:
-
2:26 - 2:27«شرکت کی باید استخدام کند؟»
-
2:28 - 2:31«بکدام بروزرسانی از کدام دوست
باید نشان داده شود؟» -
2:31 - 2:33«کدام متهم بیشتر شبیه خلافکارهاست؟»
-
2:34 - 2:37«کدام بخش خبرها یا فیلم باید به مردم
توصیه بشه؟» -
2:37 - 2:40ببیند، بله، ما مدتهاست است که در حال
استفاده از کامپیوترها هستیم -
2:40 - 2:42اما این بار فرق داره.
-
2:42 - 2:44این یک چرخش تاریخی است،
-
2:44 - 2:49زیرا ما نمیتوانیم محاسبات را
برای تصمیمهای ذهنی نگه داریم -
2:49 - 2:54مانند روش محاسباتی
برای پرواز هواپیما، ساخت پلها -
2:54 - 2:56و به ماه رفتن.
-
2:56 - 3:00آیا هواپیماها امن هستند؟
آیا این پل فرو میریزد؟ -
3:00 - 3:04این چنین است، ما منصفانه و براساس معیارهای
روشن توافق کردیم -
3:04 - 3:06و ما قوانین طبیعت را برای راهنمایی داریم
-
3:07 - 3:10ما چیزی شبیه مجری ها و معیارها
برای تصمیم گیری -
3:10 - 3:14درکارهای انسان آشفته نداریم.
-
3:14 - 3:18برای انجام کارهای پیچیدهتر،
تا نرم افزارهای ما بیشتر قدرتمند میشوند، -
3:18 - 3:22اما این می تواند کمتر شفاف
و بیشتر پیچیده باشد. -
3:23 - 3:25اخیرا، در دهه گذشته
-
3:25 - 3:27الگوریتم های پیچیده
با گامهای بلندی ساخته شدهاند. -
3:27 - 3:29آنها میتوانند صورت انسان را
بازشناسایی کنند. -
3:30 - 3:32آنها میتوانند دست خط را تشخیص بدهند.
-
3:32 - 3:35آنها میتوانند تقلب در کارت اعتباری را
کشف کنند -
3:35 - 3:36و اسپمها را مسدود کنند
-
3:36 - 3:38و آنها میتوانند زبانها را ترجمه کنند،
-
3:38 - 3:40می توانند تومورها را در تصاویر پزشکی
کشف کنند. -
3:40 - 3:43آنها میتوانند در بازیهای
شطرنج و گو از آدمها ببرند. -
3:43 - 3:48بیشتر این پیشرفتها از روشی به نام
"یادگیری ماشین" آمدهاند. -
3:48 - 3:51یادگیری ماشین با برنامه نویسی سنتی
متفاوت هست، -
3:51 - 3:55که به کامپیوتر جزئیات دقیق
دستورات پر زحمت را میدهید. -
3:55 - 4:00این بیشتر شبیه اینه که شما یک سیستم
گرفتهاید و اطلاعات زیادی به آن میخورانید -
4:00 - 4:01شامل اطلاعات بدون ساختار،
-
4:01 - 4:04مانند اطلاعاتی که ما در زندگی دیجیتال خود
تولید میکنیم. -
4:04 - 4:06و سیستمی که بوسیله گردش در بین اطلاعات
یاد میگیرد. -
4:07 - 4:08و همچنین بحرانی
-
4:08 - 4:13آن سیستمهایی که زیر یک پاسخ سیگنال
منطقی عمل نمی کنند -
4:13 - 4:16آن ها یک پاسخ ساده تولید نمی کنند
این ها بیشتر "احتمال" هستند -
4:16 - 4:19"این یک احتمالی است که بیشتر شبیه
آنچه شما دنبال آن هستید " -
4:20 - 4:23حالا، بالاتر این است که: این شیوه
واقعا قدرتمند است. -
4:23 - 4:25رییس سیستمهای هوش مصنوعی (AI) گوگل
این را نام گذاری کرد: -
4:25 - 4:27"اثر غیر منطقی اطلاعات"
-
4:28 - 4:29قسمت بدترش این است که:
-
4:30 - 4:33ما واقعا نمیفهمیم
سیستم چه یاد میگیرد. -
4:33 - 4:34در حقیقت این قدرت آن است.
-
4:35 - 4:39این کمتر شبیهِ دادنِ دستورالعمل
به کامپیوتر است، -
4:39 - 4:43این بیشتر شبیه یاد دادن به یک
توله ماشین زندهاست -
4:43 - 4:46ما واقعا نمیفهمیم و کنترل نمیکنیم.
-
4:46 - 4:48خب این مشکل ماست.
-
4:48 - 4:53این یک مشکل است وقتی که سیستم هوش مصنوعی
چیزها را اشتباه یاد میگیرد. -
4:53 - 4:56این همچنین یک مشکل است وقتی که
این چیزها را درست یاد میگیرد، -
4:56 - 5:00زیرا ما حتی نمی دانیم کدام به کدام است
وقتی که این یک مشکل درونی است. -
5:00 - 5:02ما نمیدانیم در حال فکر کردن
به چه چیزی است -
5:03 - 5:07یک الگوریتم استخدام را فرض کنید--
-
5:08 - 5:12یک سیستمی که مردم را با استفاده از
سیستم یادگیری ماشین استخدام می کند. -
5:13 - 5:17مانند یک سیستمی که بر اساس اطلاعات
کارمندان قبلی آموزش دیده شده است -
5:17 - 5:19و دستور دارد که پیدا کند و استخدام کند
-
5:19 - 5:22مردمی که بهروری بالایی در شرکت
دارند. -
5:23 - 5:24به نظر خوب میاد.
-
5:24 - 5:26من یک بار در کنفرانسی حضور داشتم
-
5:26 - 5:29که مدیران منابع انسانی و مدیران اجرایی
دور هم جمع شده بودند، -
5:29 - 5:30افراد رده بالای شرکتها
-
5:30 - 5:32که از این سیستمهای برای استخدام
استفاده می کردند. -
5:32 - 5:34آنها خیلی هیجان زده بودند
-
5:34 - 5:38آنها فکر می کردند که این استخدام را بیشتر هدفمند
و کمتر مغروضانه خواهند بود، -
5:38 - 5:41و به خانم ها و اقلیت
یک شانس بهتری میدهد -
5:41 - 5:44بر خلاف غرضورزی مدیران منابع انسانی
-
5:44 - 5:46ببینید--
استخدام افراد غرض ورزانه است. -
5:47 - 5:48من میدانم.
-
5:48 - 5:51منظورم اینه، در اولین شغل من به عنوان
برنامه نویس -
5:51 - 5:55مدیر بخش من گاهی اوقات
-
5:55 - 5:59در اول صبح یا آخر عصر پیش من میآمد
-
5:59 - 6:02و میگفت: "زینب بیا بریم ناهار"
-
6:03 - 6:05من به خاطر زمانهای عجیب گیج میشدم
-
6:05 - 6:07الان ساعت ۴ است، ناهار؟
-
6:07 - 6:10من شکست میخوردم
من همیشه برای ناهار مجانی میرفتم -
6:11 - 6:13بعدها فهمیدم که چه اتفاقی میافتاد
-
6:13 - 6:17مدیران بالایی من در انتخابشان برای استخدام
-
6:17 - 6:20یک دختر نوجوان که کفش کتانی
و جین در محل کار میپوشید -
6:20 - 6:24برای انجام یک کار جدی
اشتباه نکرده بودند. -
6:25 - 6:27من خوب کار میکردم،
اما به نظرمیآمد که من مناسب نیستم -
6:27 - 6:29سن و جنسیتم نیز اشتباه بود.
-
6:29 - 6:32خُب نادیده گرفتن شدن جنسیت و نژاد من
-
6:32 - 6:34قطعا چیزی خوبی برای من بود.
-
6:35 - 6:38اما با این سیستم ها
بغرنجتر و پیچیدهتر شده و دلیلیش اینجاست: -
6:39 - 6:45اخیرا، سیستمهای محاسبهگر میتوانند
به همه چیزهای شما -
6:45 - 6:47از طریق خرده اطلاعات
دیجیتالی شما پیببرند، -
6:47 - 6:49حتی اگر شما آن چیزها را فاش نکرده باشید.
-
6:50 - 6:52آنها به گرایشهای جنسیتان ،
-
6:53 - 6:54ویژگیهای شخصیتان،
-
6:55 - 6:56دانستههای سیاسیتان پیببرند.
-
6:57 - 7:01آنها قدرت پیش بینی با صحت بالایی را دارند.
-
7:01 - 7:04به یاد داشته باشید، برای چیزهایی که شما
حتی آنها را فاش نکردهاید -
7:04 - 7:06نتیجه گیری و استنتاج است.
-
7:06 - 7:09من یک دوستی دارم که سیستم های
محاسبه گری را توسعه میدهد -
7:09 - 7:13تا شانس افسردگی بالینی یا بعد از وضع حمل
را پیش بینی کند -
7:13 - 7:14با استفاده از اطلاعات رسانه های اجتماعی
-
7:15 - 7:16نتیجه ها هیجان انگیز هستند.
-
7:16 - 7:20سیستمش احتمال افسردگی را
میتوان -
7:20 - 7:24ماههای قبل از شروع علائم
بیماری را پیشبینی کند-- -
7:24 - 7:25ماههای قبل.
-
7:25 - 7:27هیچ علامتی از بیماری نیست،
ولی پیش بینی میشود. -
7:27 - 7:32او امیدوار است بزودی این را برای مداخلات
(روانشناسی) استفاده کند . عالیه. -
7:33 - 7:35اما حالا این در فضای استخدام قرار دهید.
-
7:36 - 7:39بنابراین در این کنفرانس منبع مدیران انسانی
-
7:39 - 7:44من به یک مدیر سطح بالا
در یک شرکت بزرگ نزدیک شدم -
7:44 - 7:48و به او گفتم: "ببین، چه میشد اگر من برای
تو فردی ناشناخته میشدم؟" -
7:48 - 7:55آیا سیستم تو در حال حذف مردم
با احتمال بالای افسردگی در آینده، است ؟ -
7:56 - 7:59آن ها الان افسرده نیستند، فقط شاید در
آینده به احتمال زیاد دچار افسردگی شوند. -
8:00 - 8:03یا اگر زنانی که احتمال دارد در یکی
دو سال آینده باردار شوند -
8:03 - 8:06ولی الان حامله نیستد
را کنار گذارده شوند؟ -
8:07 - 8:12اگر این افراد پرخاشکر را استخدام شوند
زیرا آن فرهنگ محیط کاریت است -
8:13 - 8:16تو با استفاده از نگاه کردن به
تقسیم بندی جنسبت نمی توانی بگویی -
8:16 - 8:17آن ها ممکنه متعادل باشند.
-
8:17 - 8:21و چون این یادگیری ماشین است و
برنامه نویسی سنتی نیست -
8:21 - 8:26هیچ متغیری وجود ندارد که
"بیشترین خطر افسردگی " نام گذاری شود -
8:26 - 8:28"بیشترین خطر حاملگی"
-
8:28 - 8:30"مقیاس پرخاشگری مردان"
-
8:30 - 8:34نه تنها نمی دانست
چگونه سیستم شما، انتخاب می کنه -
8:34 - 8:36شما حتی نمی دانی که
در کجا جستجو میکند -
8:36 - 8:37این یک جعبه سیاه است.
-
8:37 - 8:40این قدرت پیش گویی دارد
اما شما این را نمیفهمی -
8:40 - 8:43من پرسسیدم"حفاظت چیست؟"
-
8:43 - 8:47« آیا باید مطمئن شوی که جعبه سیاه تان
کار مشکوکی انجام نمیدهد؟» -
8:49 - 8:53او به من به نگاه کرد مثل اینکه من
پا روی دُم ده تا توله گذاشتم! -
8:53 - 8:54(خنده حاضرین)
-
8:54 - 8:56او به من خیره شد و گفت:
-
8:57 - 9:01«نمیخوام کلمه دیگری در این باره بشنوم»
-
9:01 - 9:03و او برگشت و قدم زنان دور شد.
-
9:04 - 9:06به خاطر داشته باشید او بیادب نبود.
-
9:06 - 9:12کاملا روشن بود با نگاهش میگفت: نمیدونم،
این مشکل من نیست، برو. -
9:12 - 9:13(خنده حاضرین)
-
9:14 - 9:18نگاه کنید، یک سیستم ممکن است
حتی کمتر جانبدارانه باشد -
9:18 - 9:20تا مدیران انسانی در همان زمینه.
-
9:20 - 9:22و این میتونه یک حس مالی ایجاد کنه
-
9:23 - 9:24اما این میتونه منجر بشه
-
9:24 - 9:29به یک یکنواختی اما یواشکی بستن
بازار کار مردم -
9:29 - 9:31که با ریسک بالای افسردگی همراه هستند.
-
9:32 - 9:34آیا این نوع اجتماعی است
که ما میخواهیم بسازیم؟ -
9:34 - 9:37بدون حتی دانستن اینکه ما این را
انجام دادیم -
9:37 - 9:41زیرا ما ساختن تصمیم را تبدیل کردیم
به ماشین که ما سرانجامش را نمیفهمیم -
9:41 - 9:43و مسئله دیگر این است:
-
9:43 - 9:48این سیستم ها اغلب روی اطلاعات تولید شده
توسط کارهای ما آموزش داده میشوند، -
9:48 - 9:50آثار به جای مانده از انسان.
-
9:50 - 9:54خب، آنها فقط میتوانند
تمایلات ما را منعکس کنند، -
9:54 - 9:58و این سیستمهای میتوانند
تمایلات ما را انتخاب کنند -
9:58 - 9:59و آن را تقویت کرده
-
9:59 - 10:00و آن را دوباره به ما نشان دهند،
-
10:00 - 10:02در حالی که به خودمان میگویم،
-
10:02 - 10:05«ما فقط در حال بررسی هستیم.»
-
10:06 - 10:09محققان در شرکت گوگل دریافتند،
-
10:10 - 10:15زنان نسبت به مردان احتمال کمتری دارد که
برای مشاغل با حقوق بالاتر قدام کنند. -
10:16 - 10:19و نامهای آفریقایی-آمریکایی را که جستجو کنید
-
10:19 - 10:24احتمال بیشتر دارد که پیشینه جرم نشان دهد،
-
10:24 - 10:25حتی وقتی که واقعا جرمی وجود ندارد.
-
10:27 - 10:30مانند تمایلات پنهان و الگوریتم جعبه سیاه
-
10:30 - 10:34که گاهی محققات آن را تحت پوشش قرار نمی دهند
و ما از آن گاهی اطلاع نداریم. -
10:34 - 10:37که می توانیم پرآمدهایی زندگی داشته باشد.
-
10:38 - 10:42در ویسکانسین یک متهم به شش سال زندان
محکوم شد -
10:42 - 10:43برای فرار از پلیس.
-
10:45 - 10:46شما ممکنه این را ندانید،
-
10:46 - 10:50اما الگوریتم به طور افزایندهای در آزادی
مشروط و صدور حکم در حال استفاده هستند -
10:50 - 10:53او می خواهد بداند:
چگونه این نمره محاسبه می شود؟ -
10:54 - 10:55این یک جعبه سیاه تجاری است
-
10:55 - 11:00شرکت درخواست اینکه الگوریتم
در دادگاه به چالش کشیده بشود را رد کرد. -
11:00 - 11:06اما پروپابلیکا، یک موسسه تحقیقاتی
غیرانتفاعی خیلی از الگوریتم ها را -
11:06 - 11:08با اطلاعات عمومی ای که آن ها میتوانند
پیدا کنند بررسی میکنند. -
11:08 - 11:10و دریافتند که این یک نتیجه از تمایلات بوده
-
11:10 - 11:14و این قدرت پیشبینی اشتباه،
نه فقظ شانسی( بلکه به عمد) -
11:14 - 11:18و به طور اشتباه متهمان سیاه را به عنوان
مجرمان آینده دوبرابر نرخ مجرمان سفید -
11:18 - 11:22برچست گذاری کرده بود.
-
11:24 - 11:25خب، به این مورد دقت کنید:
-
11:26 - 11:30این خانم برای برداشتن
دخترخواندهاش دیر رسید -
11:30 - 11:32از یک مدرسه در بروارد ایالت فلوریدا،
-
11:33 - 11:35با دوستش از خیابان می دوید.
-
11:35 - 11:39آن ها یک دوچرخه بچه و یک اسکوتر
روی ایوان که قفل نشده بود را نشان دادند -
11:39 - 11:41و احمقانه روی آن پرید
-
11:41 - 11:44وقتی آنها در حال سرعت گرفتن بودند
یک زن آمد و گفت -
11:44 - 11:46هی! این دوچرخه بچه من است
-
11:46 - 11:49آن ها دوچرخه را رها کردن و دور شدند
ولی آن ها دستگیر شدند -
11:49 - 11:53او اشتباه کرد و او احمق بود
ولی او تنها ۱۸ سال داشت -
11:53 - 11:55او یک تعدادی جرمهای کوچک داشت.
-
11:56 - 12:01ضمنا، آن مرد برای سرقت از فروشگاه
هوم دیپو دستگیر شده بود-- -
12:01 - 12:04۸۵ دلار، که ارزشش به اندازه جرم کوچک بود.
-
12:05 - 12:09اما او محکومیت دو سرقت مسلحانه داشت.
-
12:10 - 12:13اما الگوریتم احتمال بالای جرم برای این زن
نشان میداد، و نه برای این مرد. -
12:15 - 12:19دو سال بعد، پروپابلیکا یافت
که این نباید در حبس باشد. -
12:19 - 12:21و با سایقهای را که داشت
برای او پیدا کردن شغل مشگل بود. -
12:21 - 12:23از طرف دیگر این مرد زندانی شد
-
12:23 - 12:27و برای گناه گذشتهاش
برای هشت سال زندانی خواهد بود. -
12:28 - 12:31روشن است، ما نیاز داریم تا
جعبه سیاهمان را بازبینی و بررسی کنیم -
12:31 - 12:34و نه آن ها را، بلکه این نوع
قدرت چک نشده را حسابرسی کنیم -
12:34 - 12:37(تشویق حضار)
-
12:38 - 12:42بررسی و باربینی خوب و مهم است
اما آنها تمام مشکلات ما را حل نمی کنند. -
12:42 - 12:45الگوریتم قدرت خبری فیسبوک
را در نظر بگیرید. -
12:45 - 12:50میدانید، کسی که همه چیز را رتبه بندی میکند
و تصمیم میگیرد که چه به شما نشان دهد -
12:50 - 12:52از همه دوستان و همه
صفحههایی که شما دنبال میکنید. -
12:53 - 12:55باید به شما عکس بچهی دیگه را نشان دهد؟
-
12:55 - 12:56(خنده)
-
12:56 - 12:59یک یادداشت عبوس از یک آشنا؟
-
12:59 - 13:01یک خبر مهم اما قسمتهای سختش؟
-
13:01 - 13:03هیچ جواب درستی وجود ندارد.
-
13:03 - 13:05فیس بوک برای مشغولیت بیشتر
در سایت بهینه شده : -
13:06 - 13:07لایک، اشتراگ گذاری، کامنت
-
13:08 - 13:11در آگوست ۲۰۱۴
-
13:11 - 13:14در شهر فرگوست ایالت میسوری معترضان
-
13:14 - 13:18بعد از کشتن یک نوجوان آفریقایی- آمریکایی
به وسیله یک پلیس سفید پوست -
13:18 - 13:20زیر رویداد مبهم شورش کردند،
-
13:20 - 13:22خبرهای معترضان در همه جا بود
-
13:22 - 13:25الگورتیم من فیدهای تویتر را فیلتر نکرد
-
13:25 - 13:27اما در فیس بوکم هیچ جا باز نبود.
-
13:27 - 13:29آیا اینها دوستان فیسبوکی من بودند؟
-
13:29 - 13:31من الگوریتم فیسبوکم را
غیر فعال کردم، -
13:31 - 13:34که سخت بود زیرا فیسبوک
خواسته های شما را حفظ میکند -
13:34 - 13:36تا شما را زیر کنترل الگوریتم ها نگه دارد،
-
13:36 - 13:39و می بینید که دوستان من در حال
صحبت کردن درباره این حادثه بودند. -
13:39 - 13:41این فقط الگوریتمی بود که این را
به من نشان من داد. -
13:41 - 13:44من تحقیق کردم و فهمیدم
که این یه مشکل شایع بود -
13:44 - 13:48حادثه فرگوست یک الگوریتم دوستانه نبود.
-
13:48 - 13:49دوست داشتنی نبود
-
13:49 - 13:51چه کسی می خواد تا
روی "like" کلیک کنید؟ -
13:52 - 13:54این حتی ساده نیست
تا کامنتی روی آن قرار دهید. -
13:54 - 13:55بدون "like" و کامنت
-
13:55 - 13:58احتمالا الگوریتم برای افراد
کمتری را نشان داده میشد، -
13:58 - 14:00بنابراین ما نتوانستیم این را ببینیم
-
14:01 - 14:02در عوض، آن هفته،
-
14:02 - 14:04الگوریتم فیس بوک این را برجسته کرده بود:
-
14:05 - 14:07این چالش سطل آب یخ است.
-
14:07 - 14:11علت ارزش، خالی کردن آب یخ،
کمک به موسسه خیریه خوب است -
14:11 - 14:12اما این الگوریتم دوستانه عالی بود.
-
14:13 - 14:16که ماشین این تصمیم را برای ما گرفت.
-
14:16 - 14:19و خیلی مهم است اما گفتگوی سختی است
-
14:19 - 14:21ممکن است خفه شده باشد.
-
14:21 - 14:24آیا فیسبوک فقط یک کانال داشت؟
-
14:24 - 14:28خُب، این سیستم ها
میتوانند اشتباه باشند -
14:28 - 14:31در راه هایی که شباهت
به سیستم انسانی ندارد. -
14:31 - 14:34آیا شما واتسون، سیستم
ماشین هوشمند آی بی ام -
14:34 - 14:37که با انسان مسابقه جوپرتری را داد
را به خاطر دارید؟ -
14:37 - 14:39واتسون بازیگر خوبی در مسابقه بود.
-
14:39 - 14:42اما در آخرین جوپرتی، از واتسون پرسیده شد
-
14:43 - 14:46«آیا بزرگترین فرودگاه که برای یک قهرمان
جنگ جهانی دوم نام گذاری شد" -
14:46 - 14:48این دومین فرودگاه بزرگ برای
مبارزه جنگ جهانی دوم نامگذاری شد.» -
14:48 - 14:49(...)
-
14:50 - 14:51شیکاگو.
-
14:51 - 14:52دو فرد درست جواب دادند
-
14:53 - 14:57واتسون در طرف دیگر پاسخ داد «تورنتو»--
-
14:57 - 14:59برای یک شهر آمریکایی!
-
15:00 - 15:02سیستم موثر همچنین یک اشتباه کرد
-
15:03 - 15:06که یک فرد هیچ وقت این اشتباه را
نخواهد کرد، حتی یک کلاس دومی. -
15:07 - 15:10ماشین هوشمند ما میتواند شکست بخورد
-
15:10 - 15:13در جاهایی که نمی تواند
الگوی خطای انسان ها را متناسب کند -
15:13 - 15:16در جاهایی که ما انتظار
و آمادگی برای آن نخواهیم داشت -
15:16 - 15:20این نکبت بار خواهد بود که کسی
که واجد شرایط هست شفلی را نگیرد، -
15:20 - 15:23اما سه برابر آن بدتر اینکه به دلیل خرده رفتارها
-
15:23 - 15:25در روال عادی زندگی فرد آن شغل را نگیرد.
-
15:25 - 15:27(خنده حضار)
-
15:27 - 15:29در ماه می ۲۰۱۰،
-
15:29 - 15:33یک خرابی کوتاه مدت ناشی
از یک حلقه فیدبک تقویت شد در وال استریت -
15:33 - 15:36در الگوریتم« فروش» وال استریت
-
15:36 - 15:41یک تریلیون دلار ارزش را
در ۳۶ دقیقه از بین برد. -
15:42 - 15:44من حتی نمیخوام در مورد
معنیهای «خطا» -
15:44 - 15:48در زمینه سلاح های کشنده خودکار فکر کنم.
-
15:50 - 15:54خب بله، انسانها همیشه تمایلات را میسازند.
-
15:54 - 15:56تصمیم گیرندهها و دربانها
-
15:56 - 15:59در دادگاه ها و در خبر ها و در جنگ...
-
15:59 - 16:02آنها اشتباه می کنند،
اما این دقیقا نکته مورد نظر من است. -
16:02 - 16:06ما نمی توانیم از این سوالهای
مشگل فرارکنیم. -
16:07 - 16:10ما نمیتوانیم مسئولیت هایمان
را در قبال ماشین ها نادیده بگیریم. -
16:11 - 16:15(تشویق)
-
16:17 - 16:22هوش مصنوعی نمیتواند به ما یک کارت
«خارج شدن از اخلاق به صورت رایگان» بدهد -
16:23 - 16:26دانشمند اطلاعات، فرد بنسون
این را "شستشوی ریاضی" مینامد -
16:26 - 16:28ما به این تضاد نیاز داریم.
-
16:28 - 16:33ما نیاز داریم تا یک الگوریتم بد گمانی را
با بررسی دقیق و موشکافانه رشد دهیم. -
16:33 - 16:37ما نیاز داریم تا مطمئن باشیم
که مسولیت الگوریتمی داریم، -
16:37 - 16:39حسابرسی و شفافیت معنایی نیاز داریم.
-
16:39 - 16:43ما نیاز داریم تا قبول کنیم که
آورده های ریاضی و محاسباتی -
16:43 - 16:46برای ارزش انباشته و به هم ریخته و امور انسانی
-
16:46 - 16:48عینیت ندارد.
-
16:48 - 16:52بلکه ، پیچیدگی امور انسانی به
الگوریتم ها حتما غلبه میکند. -
16:52 - 16:56بله ما می توانیم و ما باید
از محاسبات استفاده کنیم -
16:56 - 16:58تا برای داشتن تصمیمات بهتر
به خودمان کمک کنیم -
16:58 - 17:03اما ما اعتراف میکنیم
به مسئولیت اخلاقی و قضاوت -
17:03 - 17:06و استفااه از الگورتیم هایی با آن چارچوب
-
17:06 - 17:11نه به عنوان وسیله ای برای کناره گیری
و واگذاری مسئولیت هایمان -
17:11 - 17:13به یک انسان دیگر.
-
17:14 - 17:16هوش مصنوعی اینجاست.
-
17:16 - 17:20این بدان معناست که ما باید محکمتر
-
17:20 - 17:22ارزشها و اخلاق انسانی را نگه داریم.
-
17:22 - 17:23متشکرم
-
17:23 - 17:28(تشویق)
- Title:
- ماشینهای هوشمند، انسانهای اخلاقمند را بیشتر با اهمیت میکند
- Speaker:
- زینب توفکسی
- Description:
-
هوشمندی ماشین اینجاست و ما در حال استفاده از آن برای تصمیمگیری درمورد موضوعات هستیم. در موارد پیچیده هوش مصنوعی رشد و پیشرفت میکنند، اما این رشد برای درک و حتی برای کنترل آن مشگل خواهد بود. در این سخنرانی اخطار آمیر، جامعه شناس تکنولوژی زینپ توفکسی توضیح میدهد که در مواردی که ما انتظار نداشتیم و یا آمادگی آن را نداریم چگونه هوشمندی ماشین میتواند شکست بخورد. او میگوید:"ما نمیتوانیم مسئولیت هایمان را به ماشین واگذار کنیم. ما باید ارزشهای انسانی و اخلاق انسانی را محکم نگه داریم."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
soheila Jafari approved Persian subtitles for Machine intelligence makes human morals more important | ||
soheila Jafari edited Persian subtitles for Machine intelligence makes human morals more important | ||
soheila Jafari accepted Persian subtitles for Machine intelligence makes human morals more important | ||
soheila Jafari edited Persian subtitles for Machine intelligence makes human morals more important | ||
soheila Jafari edited Persian subtitles for Machine intelligence makes human morals more important | ||
soheila Jafari edited Persian subtitles for Machine intelligence makes human morals more important | ||
soheila Jafari edited Persian subtitles for Machine intelligence makes human morals more important | ||
soheila Jafari edited Persian subtitles for Machine intelligence makes human morals more important |