0:00:00.739,0:00:04.861 لقد بدأت عملي الأول كمبرمجة كمبيوتر 0:00:04.885,0:00:06.841 في أول سنة جامعة لي-- 0:00:06.865,0:00:08.372 بشكل أساسي، كمراهقة. 0:00:08.889,0:00:10.621 بعدما بدأت العمل بوقت قصير، 0:00:10.645,0:00:12.255 بكتابة البرمجيات في الشركة، 0:00:12.799,0:00:16.434 آتى مدير في الشركة إلى حيث كنت أعمل، 0:00:16.458,0:00:17.726 و همس لي، 0:00:18.229,0:00:21.090 "هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟" 0:00:21.806,0:00:23.883 لم يكن هناك أحد آخر في الغرفة. 0:00:25.032,0:00:29.166 "من الذي سيُخبرإذا كنتَ[br]تكذب؟ ولماذا نحن نهمس؟" 0:00:30.266,0:00:33.373 أشار المدير إلى الكمبيوترالموجود في الغرفة. 0:00:33.397,0:00:36.493 "هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟" 0:00:37.613,0:00:41.975 حسناً، المدير كان على علاقة[br]مع موظفة الاستقبال. 0:00:41.999,0:00:43.111 (ضحك) 0:00:43.135,0:00:44.901 وكنت لا أزال مراهقة. 0:00:45.447,0:00:47.466 ولذالك همست له بصوت مرتفع، 0:00:47.490,0:00:51.114 "نعم الكمبيوتر يستطيع أن[br]يُخبر فيما إذا كنتَ تكذب." 0:00:51.138,0:00:52.944 (ضحك) 0:00:52.968,0:00:55.891 حسنا، لقد ضحكت،[br]ولكن في الحقيقة ضحكت على نفسي. 0:00:55.915,0:00:59.183 هذه الأيام، يوجد هنالك أنظمة حسابية 0:00:59.207,0:01:02.755 من الممكن أن نعمل عليها[br]على الحالات العاطفية وحتى الكذب 0:01:02.779,0:01:04.823 من معالجة وجوه الناس. 0:01:05.248,0:01:09.401 العاملون في مجال الإعلان[br]وحتى الحكومات مهتمون جداً. 0:01:10.319,0:01:12.181 لقد أصبحت مبرمجة كمبيوتر 0:01:12.205,0:01:15.318 لأنني كنت واحدة من أولئك[br]الأطفال المحبين للرياضيات والعلوم. 0:01:15.942,0:01:19.050 ولكن في مكان ما من هذا[br]الطريق تعلمت عن الأسلحة النووية، 0:01:19.074,0:01:22.026 وأنا حقاً قلقة حول أخلاقيات العلم. 0:01:22.050,0:01:23.254 كنت مضطربة. 0:01:23.278,0:01:25.919 على أية حال، بسبب ظروف العائلة، 0:01:25.943,0:01:29.241 أنا أيضاً بحاجة أن أبدأ[br]العمل بأسرع ما يمكن. 0:01:29.265,0:01:32.564 لذلك فكرت بنفسي، مهلاً،[br]أدخلي في المجال التقني 0:01:32.588,0:01:34.384 حيث أستطيع أن أحصل على عمل بسهولة 0:01:34.408,0:01:38.426 وحيث ليس علي أن أتعامل[br]مع أسئلة أخلاقية مزعجة. 0:01:39.022,0:01:40.551 لذلك اخترت الحواسيب. 0:01:40.575,0:01:41.679 (ضحك) 0:01:41.703,0:01:45.113 حسناً، ها، ها، ها![br]كل الضحك علي. 0:01:45.137,0:01:47.891 هذه الأيام، علماء الحاسوب [br]يقومون بصياغة البرامج 0:01:47.915,0:01:52.124 والتي تتحكم بما يستطيع أن[br]يشاهده مليار شخص كل يوم. 0:01:53.052,0:01:56.874 إنهم يطورون السيارات التي[br]ممكن أن تقرر مَن تجاوز السرعة. 0:01:57.707,0:02:00.920 إنهم حتى يبنون الألات و الأسلحة، 0:02:00.944,0:02:03.229 التي يُمكن أن تقتل الإنسان في الحرب. 0:02:03.253,0:02:06.024 إنها الأخلاق دائماً في النطاق. 0:02:07.183,0:02:09.241 ذكاء الألة يكون هنا. 0:02:09.783,0:02:13.257 نحن نستخدم الألة لنتخذ كل أنواع القرارات، 0:02:13.321,0:02:15.207 ولكن ايضاً الأنواع الجديدة من القرارات. 0:02:15.231,0:02:20.403 نحن نسأل الحاسب أسئلة [br]ليس له إجابات صحيحة منفردة 0:02:20.427,0:02:21.629 والتي تكون غير موضوعية 0:02:21.653,0:02:23.978 مفتوحة وذات قيمة. 0:02:24.002,0:02:25.760 نحن نسأل أسئلة مثل، 0:02:25.784,0:02:27.434 "من الذي يجب على الشركة توظيفه؟" 0:02:28.096,0:02:30.855 "أي تحديث ومن أي صديق [br]يجب أن تُشاهد؟" 0:02:30.879,0:02:33.145 "أي إنتهاك من المرجح أن يُعاد إدانته؟" 0:02:33.514,0:02:36.568 "أي الأخبار أو الأفلام يجب[br]أن يوصى بها إلى الناس؟" 0:02:36.592,0:02:39.964 انظر، نعم، نحن نستخدم الحاسوب منذ فترة، 0:02:39.988,0:02:41.505 ولكن هذا مُختلف. 0:02:41.529,0:02:43.596 هذا تطور تاريخي، 0:02:43.620,0:02:48.957 لأننا لا نستطيع أن نُركّز الحساب[br]من أجل هكذا قرارات شخصية 0:02:48.981,0:02:54.401 الطريقة التي نستطيع أن نُركّز الحساب[br]لأجل تحليق الطائرات، بناء الجسور، 0:02:54.425,0:02:55.684 الذهاب إلى القمر 0:02:56.449,0:02:59.708 هل الطائرات أكثر أماناً؟[br]هل الجسر تأرجح وانهار؟ 0:02:59.732,0:03:04.230 هناك، نحن اتفقنا عليه،[br]معيار واضح ألى حد ما، 0:03:04.254,0:03:06.493 ونحن لدينا قوانين طبيعية لتُرشِدنا. 0:03:06.517,0:03:09.911 ليس لدينا هكذا مرتكز أو معيار 0:03:09.935,0:03:13.898 للقرارات في العلاقات الإنسانية الفوضوية. 0:03:13.922,0:03:18.159 لنجعل الأشياء أكثر تعقيداً،[br]برمجياتُنا أصبحت أكثر قوة، 0:03:18.183,0:03:21.956 ولكنها أصبحت أيضاً أقل[br]شفافية وأكثر تعقيداً. 0:03:22.542,0:03:24.582 مؤخراً، في العقد الماضي، 0:03:24.606,0:03:27.335 الخوارزميات المعقدة[br]صنعت خطوات عظيمة. 0:03:27.359,0:03:29.349 تستطيع أن تُميز الوجوه البشرية. 0:03:29.985,0:03:32.040 تستطيع أن تحل شيفرة خط اليد. 0:03:32.436,0:03:34.502 تستطيع أن تكشف تزوير البطاقة الإتمانية 0:03:34.526,0:03:35.715 وتمنع البريد المزعج 0:03:35.739,0:03:37.776 وتستطيع الترجمة بين اللغات. 0:03:37.800,0:03:40.374 تستطيع أن تكشف الأمراض في التصوير الطبي. 0:03:40.398,0:03:42.603 تستطيع أن تتغلب على الإنسان في الشطرنج. 0:03:43.264,0:03:47.768 معظم هذا التقدم يأتي من اسلوب[br]يُدعى"تعلم الآلة." 0:03:48.175,0:03:51.362 تعلم الآلة يختلف عن البرمجة التقليدية، 0:03:51.386,0:03:54.971 حيث تُعطي الحاسوب تعليمات[br]دقيقة ومضبوطة ومُفصلة. 0:03:55.378,0:03:59.560 إنه مثل أن تأخذ النظام[br]وتُلقمه الكثير من البيانات، 0:03:59.584,0:04:01.240 بما في ذلك البيانات الغير منظمة، 0:04:01.264,0:04:03.542 مثل النوع الذي أنتجناه في حياتنا الرقمية. 0:04:03.566,0:04:06.296 والنظام المتعلم من خلال[br]الخوض بهذه البيانات. 0:04:06.669,0:04:08.195 و أيضاً، بشكل حاسم، 0:04:08.219,0:04:12.599 هذه الأنظمة لا تعمل تحت[br]منطق الإجابة الفريدة. 0:04:12.623,0:04:15.582 إنها لا تُنتج إجابة بسيطة؛[br]إنها أكثر إحتمالية: 0:04:15.606,0:04:19.089 "من المحتمل أن يكون هذا[br]الشيء هو ما تبحث عنه." 0:04:20.023,0:04:23.093 الآن، الجزء الجيد هو:[br]هذه الطريقة حقاً قوية. 0:04:23.117,0:04:25.193 رئيس أنظمة غوغل دعاه، 0:04:25.217,0:04:27.414 "الفاعلية الغير منطقية للبيانات." 0:04:27.791,0:04:29.144 الجانب السلبي هو، 0:04:29.738,0:04:32.809 لا نستطيع أن[br]نفهم ماذا يُعلم النظام تماماً. 0:04:32.833,0:04:34.420 في الحقيقة، تلك قوته. 0:04:34.946,0:04:38.744 هذا بدرجة أقل مثل إعطاء[br]التعليمات للحاسوب؛ 0:04:39.200,0:04:43.264 إنه بالأكثر مثل تدريب[br]مخلوق آلي مغرور 0:04:43.288,0:04:45.659 لا نستطيع حقاً أن نفهمه أو نتحكم به. 0:04:46.362,0:04:47.913 لذلك هذه هي مُشكلتنا. 0:04:48.427,0:04:52.689 إنها مشكلة عندما يصنع نظام الذكاء[br]الإصطناعي هذا أشياء خاطئة. 0:04:52.713,0:04:56.253 إنها أيضاً مُشكلة عندما نحصل[br]على الأشياء الصحيحة، 0:04:56.277,0:04:59.905 لأننا لا نعرف حتى متى[br]تكون مشكلة غير موضوعية. 0:04:59.929,0:05:02.268 نحن لا نعلم ماذا يُفكر هذه الشيء. 0:05:03.493,0:05:07.176 لذلك، تأمل خوارزمية التوظيف-- 0:05:08.123,0:05:12.434 نظام يستعمل لتوظيف الناس،[br]باستعمال أنظمة تعلّم الآلة. 0:05:13.052,0:05:16.631 هكذا نظام قد تم تمرينه[br]على بيانات العاملين السابقة 0:05:16.655,0:05:19.246 وأَعطي تعليمات ليجد ويوظف 0:05:19.270,0:05:22.308 الناس مثل الموجودين في الشركة[br]من ذوي الكفاءات العالية. 0:05:22.814,0:05:23.967 يبدو جيداً. 0:05:23.991,0:05:25.990 حضرت إجتماعاً ذات مرة 0:05:26.014,0:05:29.139 مع مدراء الموارد البشرية[br]والمدراء التنفيذيين، 0:05:29.163,0:05:30.369 أشخاص على مستوى عال، 0:05:30.393,0:05:31.952 وباستخدام هكذا أنظمة في التوظيف. 0:05:31.976,0:05:33.622 كانوا متحمسين بشكل كبير. 0:05:33.646,0:05:38.299 اعتقدوا أن هذا سيجعل التوظيف[br]أكثر موضوعية وأقل تحيز، 0:05:38.323,0:05:41.323 وإعطاء النساء والأقليات محاولة أفضل 0:05:41.347,0:05:43.535 ضد تحيز مدراء الموارد البشرية. 0:05:43.559,0:05:46.402 انظر-- التوظيف البشري متحيز. 0:05:47.099,0:05:48.284 أنا أعلم. 0:05:48.308,0:05:51.313 أعني، في أحد أعمالي المبكرة كمبرمجة، 0:05:51.337,0:05:55.205 مديرتي المباشرة كانت تأتي أحياناً إلي[br]حيث كُنت أعمل 0:05:55.229,0:05:58.982 باكراً في الصباح أو متأخرة بعد الظهر، 0:05:59.006,0:06:02.068 وكانت تقول، "زينب، دعينا نذهب ألى الغداء!" 0:06:02.724,0:06:04.891 وأكون في حيرة من التوقيت الغريب. 0:06:04.915,0:06:07.044 إنه الساعة الرابعة بعد الظهر. الغداء؟ 0:06:07.068,0:06:10.162 كُنت مُفلسة، وكذلك الغداء مجاني.[br]كنت دائماً أذهب. 0:06:10.618,0:06:12.685 فيما بعد أدركت ماذا كان يحدث. 0:06:12.709,0:06:17.255 مُدرائي المباشرين لم يخبروا[br]المدراء في المستوى الأعلى 0:06:17.279,0:06:20.392 إن المبرمج الذي وظفوه في [br]العمل المُهم كانت فتاة شابة 0:06:20.416,0:06:24.346 والتي ترتدي الجنز والأحذية [br]الرياضية في العمل. 0:06:25.174,0:06:27.376 كُنت أعمل عملاً جيداً،[br]فقط مظهري كان خاطئاً 0:06:27.400,0:06:29.099 لقد كان العمر الخطأ والجنس الخطأ. 0:06:29.123,0:06:32.469 لذلك التوظيف بطريقة الجنس والعرق العمياء 0:06:32.493,0:06:34.358 بالتأكيد تبدو جيدة بالنسبة لي. 0:06:35.031,0:06:38.372 ولكن مع هذه الأنظمة،[br]إنه أكثر تعقيداً، والسبب: 0:06:38.968,0:06:44.759 حالياً، الأنظمة الحسابية تستطيع أن[br]تستدل على كل الأشياء حولك 0:06:44.783,0:06:46.655 من أجزائك الرقمية الصغيرة، 0:06:46.679,0:06:49.012 حتى لو أنك لم تكشف هذه الأشياء. 0:06:49.506,0:06:52.433 تستطيع أن تكشف توجهك الجنسي، 0:06:52.994,0:06:54.300 ميزاتك الشخصية، 0:06:54.859,0:06:56.232 ميولك السياسية. 0:06:56.830,0:07:00.515 لديها قوة تنبئية بمستوى عالي من الدقة. 0:07:01.362,0:07:03.940 تذّكر- حتى بالنسبة للأشياء التي لم تكشفها. 0:07:03.964,0:07:05.555 هذا هو الاستدلال. 0:07:05.579,0:07:08.840 لدي صديق والذي طور هكذا أنظمة حسابية 0:07:08.864,0:07:12.505 ليتنبأ باحتمالية الإكتئاب المرضي أو[br]الإكتئاب ما بعد الولادة 0:07:12.529,0:07:13.945 من بيانات وسائل الإعلام. 0:07:14.676,0:07:16.103 النتائج كانت مؤثرة. 0:07:16.492,0:07:19.849 نظامها يستطيع التنبؤ باحتمالية الإكتئاب 0:07:19.873,0:07:23.776 أشهر قبل بداية أي أعراض -- 0:07:23.800,0:07:25.173 أشهر قبل. 0:07:25.197,0:07:27.443 لا أعراض، يوجد هنا تنبؤ. 0:07:27.467,0:07:32.279 تأمل أنه سيستعمل للتدخل المُبكر. عظيم! 0:07:32.911,0:07:34.951 لكن الآن ضع هذا في حالة التوظيف. 0:07:36.027,0:07:39.073 لذلك في مؤتمر مدراء الموارد البشرية هذا، 0:07:39.097,0:07:43.806 اقتربت من مدير في المستوى الأعلى[br]في شركة كبيرة جداً، 0:07:43.830,0:07:48.408 وقُلت لها،" انظري، ماذا لو، غير معروف لك، 0:07:48.432,0:07:54.981 أن نظامك يُزيل الأشخاص ذوي الاحتمالية [br]المستقبلية الكبيرة من الإكتئاب؟ 0:07:55.761,0:07:59.137 إنهم غير مكتئبين الآن،[br]ربما فقط في المستقبل، أكثر احتمالية. 0:07:59.923,0:08:03.329 ماذا لو يُزل النساء الأكثر [br]احتمالية لأن يكونوا حوامل 0:08:03.353,0:08:05.939 في السنة المقبلة أوالسنتين[br]ولكن غير حوامل الآن؟ 0:08:06.844,0:08:12.480 ماذا لو يوظف الناس العدائيين[br]لأن ذلك هو ثقافة مكان عملك؟" 0:08:13.173,0:08:15.864 لا تستطيع أن تحكي هذا بالنظر[br]إلى التقسيم من حيث الجنس. 0:08:15.888,0:08:17.390 هؤلاء ربما يكونوا متوازنيين. 0:08:17.414,0:08:20.971 وبما أن هذا تعّلم الآلة،[br]وليس تدوين تقليدي، 0:08:20.995,0:08:25.902 لا يوجد هنا متغير يوجد[br]اسمه "خطر أعلى من الإكتئاب،" 0:08:25.926,0:08:27.759 "خطر أعلى من الحمل،" 0:08:27.783,0:08:29.517 "مقياس شخص عدواني." 0:08:29.995,0:08:33.674 ليس فقط أنك لا تعلم ما يختار نظامك، 0:08:33.698,0:08:36.021 أنت لا تعلم أيضاً أين يجب أن تبدأ النظر. 0:08:36.045,0:08:37.291 إنه صندوق أسود. 0:08:37.315,0:08:40.122 إنه يملك قوة تنبؤية،[br]لكنك لا تفهمها. 0:08:40.486,0:08:42.855 سألتها "ما إجراءات الوقاية"، ستملكين 0:08:42.879,0:08:46.552 لتتأكد أن صندوقك الأسود[br]لا يعمل أي شيء مضلل؟" 0:08:48.863,0:08:52.741 نظرت ألي كما لو أنني[br]ضربتها بعشرة ذيول جِراء. 0:08:52.765,0:08:54.013 (ضحك) 0:08:54.037,0:08:56.078 حدقت إلي وقالت، 0:08:56.556,0:09:00.889 " أنا لا أريد أن أسمع كلمة أخرى حول هذا." 0:09:01.458,0:09:03.492 و دارت نفسها وذهبت بعيداً. 0:09:04.064,0:09:05.550 إنتبهوا-- لم تكن وقحة. 0:09:05.574,0:09:11.882 إنه كان واضحاً: الذي لا أعرفه ليس مشكلتي،[br]اذهب بعيداً، الموت يُحدق. 0:09:11.906,0:09:13.152 (ضحك) 0:09:13.862,0:09:17.701 انظر، هكذا نظام ربما يكون أقل تحيزاً 0:09:17.725,0:09:19.828 مِن المدراء البشر في بعض الطرق. 0:09:19.852,0:09:21.998 ويمكن أن يصنع إدراك عملي. 0:09:22.573,0:09:24.223 ولكنه ممكن أن يقود أيضاً 0:09:24.247,0:09:28.995 إلى الثبات ولكن إغلاق خفي لسوق العمل 0:09:29.019,0:09:31.312 للناس بمستوى عالي من الإكتئاب. 0:09:31.753,0:09:34.349 هل هذا هو النوع من المجتمع[br]الذي نريد أن نبنيه، 0:09:34.373,0:09:36.658 بدون حتى أن نعلم أننا فعلنا هذا، 0:09:36.682,0:09:40.646 لأننا حولّنا اتخاذ القرارات[br]إلى ألات لا نفهمها تماماً؟ 0:09:41.265,0:09:42.723 مشكلة أخرى وهي كالتالي: 0:09:43.314,0:09:47.766 هذه الأنظمة غالباً ما تكون دُربت[br]على البيانات أُنتجت من أعمالنا، 0:09:47.790,0:09:49.606 بصمات الإنسان. 0:09:50.188,0:09:53.996 حسناً، ربما هُن فقط يعكسن تحيزنا، 0:09:54.020,0:09:57.613 وهذه الأنظمة ربما قد تختار تحيزنا 0:09:57.637,0:09:58.950 وتبالغ فيه 0:09:58.974,0:10:00.392 وتعود لترينا اياه 0:10:00.416,0:10:01.878 بينما نحن نُخبر أنفسنا، 0:10:01.902,0:10:05.019 "نحن فقط نفعل الهدف، الحساب الحيادي." 0:10:06.314,0:10:08.991 الباحثون وجدوا ذلك على غوغل، 0:10:10.134,0:10:15.447 النساء أقل احتمالية من الرجال لإعلانات [br]العمل بالنسبة للأعمال بالدخل العالي. 0:10:16.463,0:10:18.993 والبحث في الأسماء الأميريكية الإفريقية 0:10:19.017,0:10:23.723 أكثراحتمالية ليجلب إعلانات[br]مُقترحة تاريخ جنائي،[br] 0:10:23.747,0:10:25.314 حتى عندما لا توجد. 0:10:26.693,0:10:30.242 هكذا تحيز مخفي[br]وخوارزميات الصندوق الأسود 0:10:30.266,0:10:34.239 والتي لا يُغطيها الباحثون أحياناً[br]ولكن أحياناً لا نعلم، 0:10:34.263,0:10:36.924 يُمكن أن يكون لديها عواقب[br]تغيير مدى الحياة. 0:10:37.958,0:10:42.117 في ويسكونسن، حُكم على المدعى عليه [br]ست سنوات في السجن 0:10:42.141,0:10:43.496 لأجل تجاهل الشرطة. 0:10:44.824,0:10:46.010 ربما لا تعلم هذا، 0:10:46.034,0:10:50.032 لكن الخوارزميات وبازدياد تُستعمل في[br]اطلاق السراح وقرارات اصدار الأحكام. 0:10:50.056,0:10:53.011 هو أراد أن يعرف:[br]كيف تُحسب هذه النتيجة؟ 0:10:53.795,0:10:55.460 إنه صندوق أسود تجاري. 0:10:55.484,0:10:59.689 رفضت الشركة لأن تكون خوارزميتها[br]مُعترض عليها في المحكمة المفتوحة. 0:11:00.396,0:11:05.928 ولكن شركة التحقيق بروبابليكا الغير ربحية،[br]دققت الخوارزمية 0:11:05.952,0:11:07.968 مع البيانات العامة التي استطاعوا إيجادها، 0:11:07.992,0:11:10.308 ووجدوا أن المُخرجات كانت مُتحيزة 0:11:10.332,0:11:13.961 وقوته التنبؤية كانت مُحزنة،[br]بالكاد أفضل من الفرصة، 0:11:13.985,0:11:18.401 وكان من الخطأ تصنيف المُدعى عليهم[br]السود كمجرمي المستقبل 0:11:18.425,0:11:22.320 كضِعف المُدعى عليهم البيض. 0:11:23.891,0:11:25.455 لذا، تأمل هذه الحالة : 0:11:26.103,0:11:29.955 هذه المرأة كانت مُتأخرة لتقل أختها 0:11:29.979,0:11:32.054 من المدرسة في بلدة بروارد، فلوريدا، 0:11:32.757,0:11:35.113 توقفت في الشارع[br]مع صديقتها. 0:11:35.137,0:11:39.236 واكتشفوا دراجة طفل غير مُقفلة[br]ودراجة على الرواق 0:11:39.260,0:11:40.892 وبكل حماقة قفزوا عليها. 0:11:40.916,0:11:43.515 بينما كانوا يستعجلون،[br]ظهرت امرأة وقالت، 0:11:43.539,0:11:45.744 "مرحبا! تلك دراجة طفلي!" 0:11:45.768,0:11:49.062 فقاموا بتركها ومشوا بعيداً،[br]ولكنهم كانوا قد أُعتقلوا. 0:11:49.086,0:11:52.723 كانت مُخطئة، كانت حمقى، [br]ولكنها كانت بعمر 18 سنة أيضاً. 0:11:52.747,0:11:55.291 لديها العديد من المخالفات الصبيانية. 0:11:55.808,0:12:00.993 في الوقت نفسه، ذلك الرجل كان[br]قد أُعتقل للسرقة مخزن المنزل -- 0:12:01.017,0:12:03.941 ما قيمته 85 دولار من الأغراض،[br]جريمة سخيفة مُشابهة. 0:12:04.766,0:12:09.325 ولكن كان لديه جُرمي سطو مُسلح سابقين. 0:12:09.955,0:12:13.437 ولكن الخوارزمية سجلت المرأة[br]كخطر كبير ولم تُسجله. 0:12:14.746,0:12:18.620 بعد سنتين، وجدت شركة بروبابليكا[br]أن المرأة لم تكن قد ارتكبت مُخالفة. 0:12:18.644,0:12:21.194 كان من الصعب عليها فقط أن[br]تحصل على عمل بسبب سجلها. 0:12:21.218,0:12:23.294 هو، في الجهة المقابلة، ارتكب مخالفة 0:12:23.318,0:12:27.154 وهو يخدم الآن فترة ثماني[br]سنوات سجن بسبب جريمة لاحقة. 0:12:28.088,0:12:31.457 بكل وضوح، نحن بحاجة [br]إلى تدقيق صناديقنا السود 0:12:31.481,0:12:34.096 وأن لا يكون لديها هذا النوع[br]من القوة الغير مفحوصة. 0:12:34.120,0:12:36.999 (تصفيق) 0:12:38.087,0:12:42.329 تدقيق الحسابات عظيم وهام،[br]ولكنهن لا يحللن كل مشاكلنا. 0:12:42.353,0:12:45.101 خذ قوة أخبار فيس بوك لُقمت بالخوارزمية -- 0:12:45.125,0:12:49.968 أنت تعلم، الشخص الذي صنف كل شيء[br]ويقرر ما يُظهر لك 0:12:49.992,0:12:52.276 من كل الأصدقاء والصفحات التي تُتابعها. 0:12:52.898,0:12:55.173 هل يجب أن ترى صورة طفل آخر؟ 0:12:55.197,0:12:56.393 (ضحك) 0:12:56.417,0:12:59.013 ملاحظة مُتجهمة من شخص معروف؟ 0:12:59.449,0:13:01.305 الأخبار المُهمة ولكنها عويصة؟ 0:13:01.329,0:13:02.811 لا يوجد هنا أي اجابة صحيحة. 0:13:02.835,0:13:05.494 يبحث فيس بوك عن أفضل الحلول[br]للتشابك على الموقع: 0:13:05.518,0:13:06.933 اعجابات، مشاركات، تعليقات. 0:13:08.168,0:13:10.864 في شهرآب من 2014، 0:13:10.888,0:13:13.550 اندلعت الاحتجاجات في فيرغوسن، [br]مُقاطعة ميسوري، 0:13:13.574,0:13:17.991 بعد مقتل مراهق أميريكي-افريقي[br]من قبل ضابط شرطة أبيض، 0:13:18.015,0:13:19.585 في ظروف غامضة. 0:13:19.974,0:13:21.981 الأخبار عن الاحتجاجات كانت قد انتهت 0:13:22.005,0:13:24.690 خوارزميتي الحسابية لم تُصفي تلقيم تويتر، 0:13:24.714,0:13:26.664 ولكن هنا على الفيس بوك خاصتي. 0:13:27.182,0:13:28.916 هل كانوا أصدقاء حسابي الفيس بوك؟ 0:13:28.940,0:13:30.972 عَطلتُ خوارزمية فيس بوك الحسابية، 0:13:31.472,0:13:34.320 حيث إنه صعب، لأن فيس بوك[br]دائماً يُريد أن يجعلك 0:13:34.344,0:13:36.380 تبقى تحت سيطرة الخوارزمية، 0:13:36.404,0:13:38.642 وشاهدت أصدقائي كانوا يتكلمون عنه. 0:13:38.666,0:13:41.175 أنه فقط أن الخوارزمية[br]لم تكن تُظهره لي. 0:13:41.199,0:13:44.241 بحثت حول هذا ووجدت[br]أن هذا كان مُشكلة واسعة الانتشار. 0:13:44.265,0:13:48.078 قصة فيرغوسن لم تكن[br]ضمن نظام الخوارزمية بشكل ودّي. 0:13:48.102,0:13:49.273 إنه ليس"جدير بالمحبة." 0:13:49.297,0:13:50.849 مَن سيضغط على "اعجاب؟" 0:13:51.500,0:13:53.706 إنه حتى ليس من السهل أن [br]تُعلق عليه. 0:13:53.730,0:13:55.101 من دون الاعجابات والتعليقات، 0:13:55.125,0:13:58.417 الخوارزمية كانت من المحتمل[br]أن تظهره لعدد أقل من الناس، 0:13:58.441,0:13:59.983 لذلك نحن لا نُريد أن نرى هذا. 0:14:00.946,0:14:02.174 بدلاً من، ذلك الاسبوع، 0:14:02.198,0:14:04.496 خوارزمية فيس بوك ألقت الضوء على هذا، 0:14:04.520,0:14:06.746 حيث إنه تحدي الدلو الجليدي ALS. 0:14:06.770,0:14:10.512 سبب قيّم؛ الماء الجليدي المفرغ،[br]صُنع المعروف، جميل. 0:14:10.536,0:14:12.440 ولكنها كانت خوارزمية[br]صديقة بامتياز. 0:14:13.219,0:14:15.832 الآلة صنعت هذا القرار من أجلنا. 0:14:15.856,0:14:19.353 محادثة مهمة جداً ولكنها صعبة 0:14:19.377,0:14:20.932 ربما تكون قد غُطت بكثافة، 0:14:20.956,0:14:23.652 ربما كان فيس بوك القناة الوحيدة. 0:14:24.117,0:14:27.914 الآن،وأخيراً، هذه الأنظمة[br]يمكن أيضاً أن تكون مخطئة 0:14:27.938,0:14:30.674 في الطُرق التي لا تُماثل الأنظمة الانسانية. 0:14:30.698,0:14:33.620 هل تتذكرون واتسون،[br]نظام الذكاء الآلي لشركة IBM 0:14:33.644,0:14:36.772 والذي أزال الإرباك مع[br]المتنافسين البشر على لعبة Jeopardy؟ 0:14:37.131,0:14:38.559 كان لاعب عظيم. 0:14:38.583,0:14:42.152 ولكن فيما بعد، بالنسبة للعبة الأخيرة،[br]سُأل واتسون هذا السؤال: 0:14:42.659,0:14:45.591 "مطاره الأكبر سُمي لبطل[br]الحرب العالمية الثانية، 0:14:45.615,0:14:47.867 ثاني أكبر مطار لمعركة [br]الحرب العالمية الثانية." 0:14:47.891,0:14:49.269 (دندنة لموسيقا اللعبة الأخيرة) 0:14:49.582,0:14:50.764 شيكاغو. 0:14:50.788,0:14:52.158 الشخصين أجابوا بشكل صحيح. 0:14:52.697,0:14:57.045 واتسون، على الجهة المقابلة،[br]أجاب "تورونتو"-- 0:14:57.069,0:14:58.887 عوضاً عن تصنيف مدينة أمريكية! 0:14:59.596,0:15:02.497 النظام المُثير للاعجاب أيضاً يصنع أخطاء 0:15:02.521,0:15:06.172 التي لا يُمكن أن يصنعها الإنسان،[br]الصنف الثاني سوف لن يصنعها. 0:15:06.823,0:15:09.932 ذكاء ألتُنا الصناعي يُمكن أن يفشل 0:15:09.956,0:15:13.056 في الطرق التي لا تناسب نماذج خطأ الانسان 0:15:13.080,0:15:16.030 في الطرق التي لا نتوقعها[br]ونكون مُحضرين لها. 0:15:16.054,0:15:19.692 سيكون من الحقارة أن لا يحصل[br]الشخص على عمل يكون مؤهل له، 0:15:19.716,0:15:23.443 لكن سيكون استيعاب ثلاثي[br]إذا كان بسبب فائض مُكدس 0:15:23.467,0:15:24.899 في بعض الروتين الفعلي. 0:15:24.923,0:15:26.502 (ضحك) 0:15:26.526,0:15:29.312 في شهر شهر مايو/أيارعام 2010، 0:15:29.336,0:15:33.380 الإنهيار السريع في وول ستريت[br]المُغذى بحلقة ردود الفعل 0:15:33.404,0:15:36.432 في خوارزمية "البيع" الحسابية[br]في وول ستريت 0:15:36.456,0:15:40.640 أزال ما قيمته ترليليون دولار [br]في 36 دقيقة. 0:15:41.722,0:15:43.909 أنا لا أريد حتى أن أعتقد[br]ما يعني"الخطأ" 0:15:43.933,0:15:47.522 في سياق الأسلحة المستقلة المُهلكة. 0:15:49.894,0:15:53.684 لذا نعم، الناس دائماً يصنعون التحيز. 0:15:53.708,0:15:55.884 صانعوا القرارات و حارسوا البوابات، 0:15:55.908,0:15:59.401 في المحاكم، في الأخبار، في الحرب... 0:15:59.425,0:16:02.463 هم يصنعون الأخطاء؛[br]ولكن تلك فكرتي بالضبط. 0:16:02.487,0:16:06.008 نحن لا نستطيع الهرب من[br]هذه الأسئلة الصعبة. 0:16:06.596,0:16:10.112 نحن لا نستطيع التعهد[br]بمسؤلياتنا إلى الآلات. 0:16:10.676,0:16:14.884 (تصفيق) 0:16:17.089,0:16:21.536 الذكاء الاصطناعي لا يعطينا[br]بطاقة "الخروج من الأخلاق بحرية". 0:16:22.742,0:16:26.123 عالم البيانات فريد بيننسون[br]يدعو هذا غسيل الرياضيات. 0:16:26.147,0:16:27.536 نحن نحتاج العكس. 0:16:27.560,0:16:32.948 نريد أن نصقل التشكيك حول الخوارزمية،[br]الفحص الدقيق و الاستقصاء. 0:16:33.380,0:16:36.578 نريد أن نتأكد أنه لدينا مسؤلية[br]حول ما يتعلق بالخوارزمية. 0:16:36.602,0:16:39.047 التدقيق، الشفافية ذات المعنى. 0:16:39.380,0:16:42.614 نريد أن نقبل أن نجلب[br]الرياضيات والحساب 0:16:42.638,0:16:45.608 للأشياء الفوضوية،[br]العلاقات الانسانية المحملة بالقيمة 0:16:45.632,0:16:48.016 لا تجلب الموضوعية؛ 0:16:48.040,0:16:51.673 بالأحرى، العلاقات الانسانية المعقدة[br]تنتهك الخوارزميات. 0:16:52.148,0:16:55.635 نعم، نحن نستطيع ويجب علينا[br]أن نستخدم الحساب 0:16:55.659,0:16:57.673 ليساعدنا على اتخاذ قرارات أفضل. 0:16:57.697,0:17:03.029 ولكن يجب علينا أن نعترف[br]بمسؤليتنا الاخلاقية في الحكم، 0:17:03.053,0:17:05.871 وأن نستخدم الخوارزميات[br]ضمن اطار العمل ذلك، 0:17:05.895,0:17:10.830 ليس بمعنى أن نتنازل و نتعهد[br]بمسؤلياتنا 0:17:10.854,0:17:13.308 لشخص آخر مثلاً[br]إنسان لإنسان. 0:17:13.807,0:17:16.416 الذكاء الآلي هنا. 0:17:16.440,0:17:19.861 والذي يعني أنه يجب علينا[br]ننتظر بشكل محكم أكثر من أي وقت مضى 0:17:19.885,0:17:22.032 للقيم الانسانية والأخلاق الانسانية. 0:17:22.056,0:17:23.210 شكراً لكم. 0:17:23.234,0:17:28.254 (تصفيق)