Return to Video

الذكاء الاصطناعي يجعل الأخلاق الإنسانية أكثر أهمية

  • 0:01 - 0:05
    لقد بدأت عملي الأول كمبرمجة كمبيوتر
  • 0:05 - 0:07
    في أول سنة جامعة لي--
  • 0:07 - 0:08
    بشكل أساسي، كمراهقة.
  • 0:09 - 0:11
    بعدما بدأت العمل بوقت قصير،
  • 0:11 - 0:12
    بكتابة البرمجيات في الشركة،
  • 0:13 - 0:16
    آتى مدير في الشركة إلى حيث كنت أعمل،
  • 0:16 - 0:18
    و همس لي،
  • 0:18 - 0:21
    "هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟"
  • 0:22 - 0:24
    لم يكن هناك أحد آخر في الغرفة.
  • 0:25 - 0:29
    "من الذي سيُخبرإذا كنتَ
    تكذب؟ ولماذا نحن نهمس؟"
  • 0:30 - 0:33
    أشار المدير إلى الكمبيوترالموجود في الغرفة.
  • 0:33 - 0:36
    "هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟"
  • 0:38 - 0:42
    حسناً، المدير كان على علاقة
    مع موظفة الاستقبال.
  • 0:42 - 0:43
    (ضحك)
  • 0:43 - 0:45
    وكنت لا أزال مراهقة.
  • 0:45 - 0:47
    ولذالك همست له بصوت مرتفع،
  • 0:47 - 0:51
    "نعم الكمبيوتر يستطيع أن
    يُخبر فيما إذا كنتَ تكذب."
  • 0:51 - 0:53
    (ضحك)
  • 0:53 - 0:56
    حسنا، لقد ضحكت،
    ولكن في الحقيقة ضحكت على نفسي.
  • 0:56 - 0:59
    هذه الأيام، يوجد هنالك أنظمة حسابية
  • 0:59 - 1:03
    من الممكن أن نعمل عليها
    على الحالات العاطفية وحتى الكذب
  • 1:03 - 1:05
    من معالجة وجوه الناس.
  • 1:05 - 1:09
    العاملون في مجال الإعلان
    وحتى الحكومات مهتمون جداً.
  • 1:10 - 1:12
    لقد أصبحت مبرمجة كمبيوتر
  • 1:12 - 1:15
    لأنني كنت واحدة من أولئك
    الأطفال المحبين للرياضيات والعلوم.
  • 1:16 - 1:19
    ولكن في مكان ما من هذا
    الطريق تعلمت عن الأسلحة النووية،
  • 1:19 - 1:22
    وأنا حقاً قلقة حول أخلاقيات العلم.
  • 1:22 - 1:23
    كنت مضطربة.
  • 1:23 - 1:26
    على أية حال، بسبب ظروف العائلة،
  • 1:26 - 1:29
    أنا أيضاً بحاجة أن أبدأ
    العمل بأسرع ما يمكن.
  • 1:29 - 1:33
    لذلك فكرت بنفسي، مهلاً،
    أدخلي في المجال التقني
  • 1:33 - 1:34
    حيث أستطيع أن أحصل على عمل بسهولة
  • 1:34 - 1:38
    وحيث ليس علي أن أتعامل
    مع أسئلة أخلاقية مزعجة.
  • 1:39 - 1:41
    لذلك اخترت الحواسيب.
  • 1:41 - 1:42
    (ضحك)
  • 1:42 - 1:45
    حسناً، ها، ها، ها!
    كل الضحك علي.
  • 1:45 - 1:48
    هذه الأيام، علماء الحاسوب
    يقومون بصياغة البرامج
  • 1:48 - 1:52
    والتي تتحكم بما يستطيع أن
    يشاهده مليار شخص كل يوم.
  • 1:53 - 1:57
    إنهم يطورون السيارات التي
    ممكن أن تقرر مَن تجاوز السرعة.
  • 1:58 - 2:01
    إنهم حتى يبنون الألات و الأسلحة،
  • 2:01 - 2:03
    التي يُمكن أن تقتل الإنسان في الحرب.
  • 2:03 - 2:06
    إنها الأخلاق دائماً في النطاق.
  • 2:07 - 2:09
    ذكاء الألة يكون هنا.
  • 2:10 - 2:13
    نحن نستخدم الألة لنتخذ كل أنواع القرارات،
  • 2:13 - 2:15
    ولكن ايضاً الأنواع الجديدة من القرارات.
  • 2:15 - 2:20
    نحن نسأل الحاسب أسئلة
    ليس له إجابات صحيحة منفردة
  • 2:20 - 2:22
    والتي تكون غير موضوعية
  • 2:22 - 2:24
    مفتوحة وذات قيمة.
  • 2:24 - 2:26
    نحن نسأل أسئلة مثل،
  • 2:26 - 2:27
    "من الذي يجب على الشركة توظيفه؟"
  • 2:28 - 2:31
    "أي تحديث ومن أي صديق
    يجب أن تُشاهد؟"
  • 2:31 - 2:33
    "أي إنتهاك من المرجح أن يُعاد إدانته؟"
  • 2:34 - 2:37
    "أي الأخبار أو الأفلام يجب
    أن يوصى بها إلى الناس؟"
  • 2:37 - 2:40
    انظر، نعم، نحن نستخدم الحاسوب منذ فترة،
  • 2:40 - 2:42
    ولكن هذا مُختلف.
  • 2:42 - 2:44
    هذا تطور تاريخي،
  • 2:44 - 2:49
    لأننا لا نستطيع أن نُركّز الحساب
    من أجل هكذا قرارات شخصية
  • 2:49 - 2:54
    الطريقة التي نستطيع أن نُركّز الحساب
    لأجل تحليق الطائرات، بناء الجسور،
  • 2:54 - 2:56
    الذهاب إلى القمر
  • 2:56 - 3:00
    هل الطائرات أكثر أماناً؟
    هل الجسر تأرجح وانهار؟
  • 3:00 - 3:04
    هناك، نحن اتفقنا عليه،
    معيار واضح ألى حد ما،
  • 3:04 - 3:06
    ونحن لدينا قوانين طبيعية لتُرشِدنا.
  • 3:07 - 3:10
    ليس لدينا هكذا مرتكز أو معيار
  • 3:10 - 3:14
    للقرارات في العلاقات الإنسانية الفوضوية.
  • 3:14 - 3:18
    لنجعل الأشياء أكثر تعقيداً،
    برمجياتُنا أصبحت أكثر قوة،
  • 3:18 - 3:22
    ولكنها أصبحت أيضاً أقل
    شفافية وأكثر تعقيداً.
  • 3:23 - 3:25
    مؤخراً، في العقد الماضي،
  • 3:25 - 3:27
    الخوارزميات المعقدة
    صنعت خطوات عظيمة.
  • 3:27 - 3:29
    تستطيع أن تُميز الوجوه البشرية.
  • 3:30 - 3:32
    تستطيع أن تحل شيفرة خط اليد.
  • 3:32 - 3:35
    تستطيع أن تكشف تزوير البطاقة الإتمانية
  • 3:35 - 3:36
    وتمنع البريد المزعج
  • 3:36 - 3:38
    وتستطيع الترجمة بين اللغات.
  • 3:38 - 3:40
    تستطيع أن تكشف الأمراض في التصوير الطبي.
  • 3:40 - 3:43
    تستطيع أن تتغلب على الإنسان في الشطرنج.
  • 3:43 - 3:48
    معظم هذا التقدم يأتي من اسلوب
    يُدعى"تعلم الآلة."
  • 3:48 - 3:51
    تعلم الآلة يختلف عن البرمجة التقليدية،
  • 3:51 - 3:55
    حيث تُعطي الحاسوب تعليمات
    دقيقة ومضبوطة ومُفصلة.
  • 3:55 - 4:00
    إنه مثل أن تأخذ النظام
    وتُلقمه الكثير من البيانات،
  • 4:00 - 4:01
    بما في ذلك البيانات الغير منظمة،
  • 4:01 - 4:04
    مثل النوع الذي أنتجناه في حياتنا الرقمية.
  • 4:04 - 4:06
    والنظام المتعلم من خلال
    الخوض بهذه البيانات.
  • 4:07 - 4:08
    و أيضاً، بشكل حاسم،
  • 4:08 - 4:13
    هذه الأنظمة لا تعمل تحت
    منطق الإجابة الفريدة.
  • 4:13 - 4:16
    إنها لا تُنتج إجابة بسيطة؛
    إنها أكثر إحتمالية:
  • 4:16 - 4:19
    "من المحتمل أن يكون هذا
    الشيء هو ما تبحث عنه."
  • 4:20 - 4:23
    الآن، الجزء الجيد هو:
    هذه الطريقة حقاً قوية.
  • 4:23 - 4:25
    رئيس أنظمة غوغل دعاه،
  • 4:25 - 4:27
    "الفاعلية الغير منطقية للبيانات."
  • 4:28 - 4:29
    الجانب السلبي هو،
  • 4:30 - 4:33
    لا نستطيع أن
    نفهم ماذا يُعلم النظام تماماً.
  • 4:33 - 4:34
    في الحقيقة، تلك قوته.
  • 4:35 - 4:39
    هذا بدرجة أقل مثل إعطاء
    التعليمات للحاسوب؛
  • 4:39 - 4:43
    إنه بالأكثر مثل تدريب
    مخلوق آلي مغرور
  • 4:43 - 4:46
    لا نستطيع حقاً أن نفهمه أو نتحكم به.
  • 4:46 - 4:48
    لذلك هذه هي مُشكلتنا.
  • 4:48 - 4:53
    إنها مشكلة عندما يصنع نظام الذكاء
    الإصطناعي هذا أشياء خاطئة.
  • 4:53 - 4:56
    إنها أيضاً مُشكلة عندما نحصل
    على الأشياء الصحيحة،
  • 4:56 - 5:00
    لأننا لا نعرف حتى متى
    تكون مشكلة غير موضوعية.
  • 5:00 - 5:02
    نحن لا نعلم ماذا يُفكر هذه الشيء.
  • 5:03 - 5:07
    لذلك، تأمل خوارزمية التوظيف--
  • 5:08 - 5:12
    نظام يستعمل لتوظيف الناس،
    باستعمال أنظمة تعلّم الآلة.
  • 5:13 - 5:17
    هكذا نظام قد تم تمرينه
    على بيانات العاملين السابقة
  • 5:17 - 5:19
    وأَعطي تعليمات ليجد ويوظف
  • 5:19 - 5:22
    الناس مثل الموجودين في الشركة
    من ذوي الكفاءات العالية.
  • 5:23 - 5:24
    يبدو جيداً.
  • 5:24 - 5:26
    حضرت إجتماعاً ذات مرة
  • 5:26 - 5:29
    مع مدراء الموارد البشرية
    والمدراء التنفيذيين،
  • 5:29 - 5:30
    أشخاص على مستوى عال،
  • 5:30 - 5:32
    وباستخدام هكذا أنظمة في التوظيف.
  • 5:32 - 5:34
    كانوا متحمسين بشكل كبير.
  • 5:34 - 5:38
    اعتقدوا أن هذا سيجعل التوظيف
    أكثر موضوعية وأقل تحيز،
  • 5:38 - 5:41
    وإعطاء النساء والأقليات محاولة أفضل
  • 5:41 - 5:44
    ضد تحيز مدراء الموارد البشرية.
  • 5:44 - 5:46
    انظر-- التوظيف البشري متحيز.
  • 5:47 - 5:48
    أنا أعلم.
  • 5:48 - 5:51
    أعني، في أحد أعمالي المبكرة كمبرمجة،
  • 5:51 - 5:55
    مديرتي المباشرة كانت تأتي أحياناً إلي
    حيث كُنت أعمل
  • 5:55 - 5:59
    باكراً في الصباح أو متأخرة بعد الظهر،
  • 5:59 - 6:02
    وكانت تقول، "زينب، دعينا نذهب ألى الغداء!"
  • 6:03 - 6:05
    وأكون في حيرة من التوقيت الغريب.
  • 6:05 - 6:07
    إنه الساعة الرابعة بعد الظهر. الغداء؟
  • 6:07 - 6:10
    كُنت مُفلسة، وكذلك الغداء مجاني.
    كنت دائماً أذهب.
  • 6:11 - 6:13
    فيما بعد أدركت ماذا كان يحدث.
  • 6:13 - 6:17
    مُدرائي المباشرين لم يخبروا
    المدراء في المستوى الأعلى
  • 6:17 - 6:20
    إن المبرمج الذي وظفوه في
    العمل المُهم كانت فتاة شابة
  • 6:20 - 6:24
    والتي ترتدي الجنز والأحذية
    الرياضية في العمل.
  • 6:25 - 6:27
    كُنت أعمل عملاً جيداً،
    فقط مظهري كان خاطئاً
  • 6:27 - 6:29
    لقد كان العمر الخطأ والجنس الخطأ.
  • 6:29 - 6:32
    لذلك التوظيف بطريقة الجنس والعرق العمياء
  • 6:32 - 6:34
    بالتأكيد تبدو جيدة بالنسبة لي.
  • 6:35 - 6:38
    ولكن مع هذه الأنظمة،
    إنه أكثر تعقيداً، والسبب:
  • 6:39 - 6:45
    حالياً، الأنظمة الحسابية تستطيع أن
    تستدل على كل الأشياء حولك
  • 6:45 - 6:47
    من أجزائك الرقمية الصغيرة،
  • 6:47 - 6:49
    حتى لو أنك لم تكشف هذه الأشياء.
  • 6:50 - 6:52
    تستطيع أن تكشف توجهك الجنسي،
  • 6:53 - 6:54
    ميزاتك الشخصية،
  • 6:55 - 6:56
    ميولك السياسية.
  • 6:57 - 7:01
    لديها قوة تنبئية بمستوى عالي من الدقة.
  • 7:01 - 7:04
    تذّكر- حتى بالنسبة للأشياء التي لم تكشفها.
  • 7:04 - 7:06
    هذا هو الاستدلال.
  • 7:06 - 7:09
    لدي صديق والذي طور هكذا أنظمة حسابية
  • 7:09 - 7:13
    ليتنبأ باحتمالية الإكتئاب المرضي أو
    الإكتئاب ما بعد الولادة
  • 7:13 - 7:14
    من بيانات وسائل الإعلام.
  • 7:15 - 7:16
    النتائج كانت مؤثرة.
  • 7:16 - 7:20
    نظامها يستطيع التنبؤ باحتمالية الإكتئاب
  • 7:20 - 7:24
    أشهر قبل بداية أي أعراض --
  • 7:24 - 7:25
    أشهر قبل.
  • 7:25 - 7:27
    لا أعراض، يوجد هنا تنبؤ.
  • 7:27 - 7:32
    تأمل أنه سيستعمل للتدخل المُبكر. عظيم!
  • 7:33 - 7:35
    لكن الآن ضع هذا في حالة التوظيف.
  • 7:36 - 7:39
    لذلك في مؤتمر مدراء الموارد البشرية هذا،
  • 7:39 - 7:44
    اقتربت من مدير في المستوى الأعلى
    في شركة كبيرة جداً،
  • 7:44 - 7:48
    وقُلت لها،" انظري، ماذا لو، غير معروف لك،
  • 7:48 - 7:55
    أن نظامك يُزيل الأشخاص ذوي الاحتمالية
    المستقبلية الكبيرة من الإكتئاب؟
  • 7:56 - 7:59
    إنهم غير مكتئبين الآن،
    ربما فقط في المستقبل، أكثر احتمالية.
  • 8:00 - 8:03
    ماذا لو يُزل النساء الأكثر
    احتمالية لأن يكونوا حوامل
  • 8:03 - 8:06
    في السنة المقبلة أوالسنتين
    ولكن غير حوامل الآن؟
  • 8:07 - 8:12
    ماذا لو يوظف الناس العدائيين
    لأن ذلك هو ثقافة مكان عملك؟"
  • 8:13 - 8:16
    لا تستطيع أن تحكي هذا بالنظر
    إلى التقسيم من حيث الجنس.
  • 8:16 - 8:17
    هؤلاء ربما يكونوا متوازنيين.
  • 8:17 - 8:21
    وبما أن هذا تعّلم الآلة،
    وليس تدوين تقليدي،
  • 8:21 - 8:26
    لا يوجد هنا متغير يوجد
    اسمه "خطر أعلى من الإكتئاب،"
  • 8:26 - 8:28
    "خطر أعلى من الحمل،"
  • 8:28 - 8:30
    "مقياس شخص عدواني."
  • 8:30 - 8:34
    ليس فقط أنك لا تعلم ما يختار نظامك،
  • 8:34 - 8:36
    أنت لا تعلم أيضاً أين يجب أن تبدأ النظر.
  • 8:36 - 8:37
    إنه صندوق أسود.
  • 8:37 - 8:40
    إنه يملك قوة تنبؤية،
    لكنك لا تفهمها.
  • 8:40 - 8:43
    سألتها "ما إجراءات الوقاية"، ستملكين
  • 8:43 - 8:47
    لتتأكد أن صندوقك الأسود
    لا يعمل أي شيء مضلل؟"
  • 8:49 - 8:53
    نظرت ألي كما لو أنني
    ضربتها بعشرة ذيول جِراء.
  • 8:53 - 8:54
    (ضحك)
  • 8:54 - 8:56
    حدقت إلي وقالت،
  • 8:57 - 9:01
    " أنا لا أريد أن أسمع كلمة أخرى حول هذا."
  • 9:01 - 9:03
    و دارت نفسها وذهبت بعيداً.
  • 9:04 - 9:06
    إنتبهوا-- لم تكن وقحة.
  • 9:06 - 9:12
    إنه كان واضحاً: الذي لا أعرفه ليس مشكلتي،
    اذهب بعيداً، الموت يُحدق.
  • 9:12 - 9:13
    (ضحك)
  • 9:14 - 9:18
    انظر، هكذا نظام ربما يكون أقل تحيزاً
  • 9:18 - 9:20
    مِن المدراء البشر في بعض الطرق.
  • 9:20 - 9:22
    ويمكن أن يصنع إدراك عملي.
  • 9:23 - 9:24
    ولكنه ممكن أن يقود أيضاً
  • 9:24 - 9:29
    إلى الثبات ولكن إغلاق خفي لسوق العمل
  • 9:29 - 9:31
    للناس بمستوى عالي من الإكتئاب.
  • 9:32 - 9:34
    هل هذا هو النوع من المجتمع
    الذي نريد أن نبنيه،
  • 9:34 - 9:37
    بدون حتى أن نعلم أننا فعلنا هذا،
  • 9:37 - 9:41
    لأننا حولّنا اتخاذ القرارات
    إلى ألات لا نفهمها تماماً؟
  • 9:41 - 9:43
    مشكلة أخرى وهي كالتالي:
  • 9:43 - 9:48
    هذه الأنظمة غالباً ما تكون دُربت
    على البيانات أُنتجت من أعمالنا،
  • 9:48 - 9:50
    بصمات الإنسان.
  • 9:50 - 9:54
    حسناً، ربما هُن فقط يعكسن تحيزنا،
  • 9:54 - 9:58
    وهذه الأنظمة ربما قد تختار تحيزنا
  • 9:58 - 9:59
    وتبالغ فيه
  • 9:59 - 10:00
    وتعود لترينا اياه
  • 10:00 - 10:02
    بينما نحن نُخبر أنفسنا،
  • 10:02 - 10:05
    "نحن فقط نفعل الهدف، الحساب الحيادي."
  • 10:06 - 10:09
    الباحثون وجدوا ذلك على غوغل،
  • 10:10 - 10:15
    النساء أقل احتمالية من الرجال لإعلانات
    العمل بالنسبة للأعمال بالدخل العالي.
  • 10:16 - 10:19
    والبحث في الأسماء الأميريكية الإفريقية
  • 10:19 - 10:24
    أكثراحتمالية ليجلب إعلانات
    مُقترحة تاريخ جنائي،
  • 10:24 - 10:25
    حتى عندما لا توجد.
  • 10:27 - 10:30
    هكذا تحيز مخفي
    وخوارزميات الصندوق الأسود
  • 10:30 - 10:34
    والتي لا يُغطيها الباحثون أحياناً
    ولكن أحياناً لا نعلم،
  • 10:34 - 10:37
    يُمكن أن يكون لديها عواقب
    تغيير مدى الحياة.
  • 10:38 - 10:42
    في ويسكونسن، حُكم على المدعى عليه
    ست سنوات في السجن
  • 10:42 - 10:43
    لأجل تجاهل الشرطة.
  • 10:45 - 10:46
    ربما لا تعلم هذا،
  • 10:46 - 10:50
    لكن الخوارزميات وبازدياد تُستعمل في
    اطلاق السراح وقرارات اصدار الأحكام.
  • 10:50 - 10:53
    هو أراد أن يعرف:
    كيف تُحسب هذه النتيجة؟
  • 10:54 - 10:55
    إنه صندوق أسود تجاري.
  • 10:55 - 11:00
    رفضت الشركة لأن تكون خوارزميتها
    مُعترض عليها في المحكمة المفتوحة.
  • 11:00 - 11:06
    ولكن شركة التحقيق بروبابليكا الغير ربحية،
    دققت الخوارزمية
  • 11:06 - 11:08
    مع البيانات العامة التي استطاعوا إيجادها،
  • 11:08 - 11:10
    ووجدوا أن المُخرجات كانت مُتحيزة
  • 11:10 - 11:14
    وقوته التنبؤية كانت مُحزنة،
    بالكاد أفضل من الفرصة،
  • 11:14 - 11:18
    وكان من الخطأ تصنيف المُدعى عليهم
    السود كمجرمي المستقبل
  • 11:18 - 11:22
    كضِعف المُدعى عليهم البيض.
  • 11:24 - 11:25
    لذا، تأمل هذه الحالة :
  • 11:26 - 11:30
    هذه المرأة كانت مُتأخرة لتقل أختها
  • 11:30 - 11:32
    من المدرسة في بلدة بروارد، فلوريدا،
  • 11:33 - 11:35
    توقفت في الشارع
    مع صديقتها.
  • 11:35 - 11:39
    واكتشفوا دراجة طفل غير مُقفلة
    ودراجة على الرواق
  • 11:39 - 11:41
    وبكل حماقة قفزوا عليها.
  • 11:41 - 11:44
    بينما كانوا يستعجلون،
    ظهرت امرأة وقالت،
  • 11:44 - 11:46
    "مرحبا! تلك دراجة طفلي!"
  • 11:46 - 11:49
    فقاموا بتركها ومشوا بعيداً،
    ولكنهم كانوا قد أُعتقلوا.
  • 11:49 - 11:53
    كانت مُخطئة، كانت حمقى،
    ولكنها كانت بعمر 18 سنة أيضاً.
  • 11:53 - 11:55
    لديها العديد من المخالفات الصبيانية.
  • 11:56 - 12:01
    في الوقت نفسه، ذلك الرجل كان
    قد أُعتقل للسرقة مخزن المنزل --
  • 12:01 - 12:04
    ما قيمته 85 دولار من الأغراض،
    جريمة سخيفة مُشابهة.
  • 12:05 - 12:09
    ولكن كان لديه جُرمي سطو مُسلح سابقين.
  • 12:10 - 12:13
    ولكن الخوارزمية سجلت المرأة
    كخطر كبير ولم تُسجله.
  • 12:15 - 12:19
    بعد سنتين، وجدت شركة بروبابليكا
    أن المرأة لم تكن قد ارتكبت مُخالفة.
  • 12:19 - 12:21
    كان من الصعب عليها فقط أن
    تحصل على عمل بسبب سجلها.
  • 12:21 - 12:23
    هو، في الجهة المقابلة، ارتكب مخالفة
  • 12:23 - 12:27
    وهو يخدم الآن فترة ثماني
    سنوات سجن بسبب جريمة لاحقة.
  • 12:28 - 12:31
    بكل وضوح، نحن بحاجة
    إلى تدقيق صناديقنا السود
  • 12:31 - 12:34
    وأن لا يكون لديها هذا النوع
    من القوة الغير مفحوصة.
  • 12:34 - 12:37
    (تصفيق)
  • 12:38 - 12:42
    تدقيق الحسابات عظيم وهام،
    ولكنهن لا يحللن كل مشاكلنا.
  • 12:42 - 12:45
    خذ قوة أخبار فيس بوك لُقمت بالخوارزمية --
  • 12:45 - 12:50
    أنت تعلم، الشخص الذي صنف كل شيء
    ويقرر ما يُظهر لك
  • 12:50 - 12:52
    من كل الأصدقاء والصفحات التي تُتابعها.
  • 12:53 - 12:55
    هل يجب أن ترى صورة طفل آخر؟
  • 12:55 - 12:56
    (ضحك)
  • 12:56 - 12:59
    ملاحظة مُتجهمة من شخص معروف؟
  • 12:59 - 13:01
    الأخبار المُهمة ولكنها عويصة؟
  • 13:01 - 13:03
    لا يوجد هنا أي اجابة صحيحة.
  • 13:03 - 13:05
    يبحث فيس بوك عن أفضل الحلول
    للتشابك على الموقع:
  • 13:06 - 13:07
    اعجابات، مشاركات، تعليقات.
  • 13:08 - 13:11
    في شهرآب من 2014،
  • 13:11 - 13:14
    اندلعت الاحتجاجات في فيرغوسن،
    مُقاطعة ميسوري،
  • 13:14 - 13:18
    بعد مقتل مراهق أميريكي-افريقي
    من قبل ضابط شرطة أبيض،
  • 13:18 - 13:20
    في ظروف غامضة.
  • 13:20 - 13:22
    الأخبار عن الاحتجاجات كانت قد انتهت
  • 13:22 - 13:25
    خوارزميتي الحسابية لم تُصفي تلقيم تويتر،
  • 13:25 - 13:27
    ولكن هنا على الفيس بوك خاصتي.
  • 13:27 - 13:29
    هل كانوا أصدقاء حسابي الفيس بوك؟
  • 13:29 - 13:31
    عَطلتُ خوارزمية فيس بوك الحسابية،
  • 13:31 - 13:34
    حيث إنه صعب، لأن فيس بوك
    دائماً يُريد أن يجعلك
  • 13:34 - 13:36
    تبقى تحت سيطرة الخوارزمية،
  • 13:36 - 13:39
    وشاهدت أصدقائي كانوا يتكلمون عنه.
  • 13:39 - 13:41
    أنه فقط أن الخوارزمية
    لم تكن تُظهره لي.
  • 13:41 - 13:44
    بحثت حول هذا ووجدت
    أن هذا كان مُشكلة واسعة الانتشار.
  • 13:44 - 13:48
    قصة فيرغوسن لم تكن
    ضمن نظام الخوارزمية بشكل ودّي.
  • 13:48 - 13:49
    إنه ليس"جدير بالمحبة."
  • 13:49 - 13:51
    مَن سيضغط على "اعجاب؟"
  • 13:52 - 13:54
    إنه حتى ليس من السهل أن
    تُعلق عليه.
  • 13:54 - 13:55
    من دون الاعجابات والتعليقات،
  • 13:55 - 13:58
    الخوارزمية كانت من المحتمل
    أن تظهره لعدد أقل من الناس،
  • 13:58 - 14:00
    لذلك نحن لا نُريد أن نرى هذا.
  • 14:01 - 14:02
    بدلاً من، ذلك الاسبوع،
  • 14:02 - 14:04
    خوارزمية فيس بوك ألقت الضوء على هذا،
  • 14:05 - 14:07
    حيث إنه تحدي الدلو الجليدي ALS.
  • 14:07 - 14:11
    سبب قيّم؛ الماء الجليدي المفرغ،
    صُنع المعروف، جميل.
  • 14:11 - 14:12
    ولكنها كانت خوارزمية
    صديقة بامتياز.
  • 14:13 - 14:16
    الآلة صنعت هذا القرار من أجلنا.
  • 14:16 - 14:19
    محادثة مهمة جداً ولكنها صعبة
  • 14:19 - 14:21
    ربما تكون قد غُطت بكثافة،
  • 14:21 - 14:24
    ربما كان فيس بوك القناة الوحيدة.
  • 14:24 - 14:28
    الآن،وأخيراً، هذه الأنظمة
    يمكن أيضاً أن تكون مخطئة
  • 14:28 - 14:31
    في الطُرق التي لا تُماثل الأنظمة الانسانية.
  • 14:31 - 14:34
    هل تتذكرون واتسون،
    نظام الذكاء الآلي لشركة IBM
  • 14:34 - 14:37
    والذي أزال الإرباك مع
    المتنافسين البشر على لعبة Jeopardy؟
  • 14:37 - 14:39
    كان لاعب عظيم.
  • 14:39 - 14:42
    ولكن فيما بعد، بالنسبة للعبة الأخيرة،
    سُأل واتسون هذا السؤال:
  • 14:43 - 14:46
    "مطاره الأكبر سُمي لبطل
    الحرب العالمية الثانية،
  • 14:46 - 14:48
    ثاني أكبر مطار لمعركة
    الحرب العالمية الثانية."
  • 14:48 - 14:49
    (دندنة لموسيقا اللعبة الأخيرة)
  • 14:50 - 14:51
    شيكاغو.
  • 14:51 - 14:52
    الشخصين أجابوا بشكل صحيح.
  • 14:53 - 14:57
    واتسون، على الجهة المقابلة،
    أجاب "تورونتو"--
  • 14:57 - 14:59
    عوضاً عن تصنيف مدينة أمريكية!
  • 15:00 - 15:02
    النظام المُثير للاعجاب أيضاً يصنع أخطاء
  • 15:03 - 15:06
    التي لا يُمكن أن يصنعها الإنسان،
    الصنف الثاني سوف لن يصنعها.
  • 15:07 - 15:10
    ذكاء ألتُنا الصناعي يُمكن أن يفشل
  • 15:10 - 15:13
    في الطرق التي لا تناسب نماذج خطأ الانسان
  • 15:13 - 15:16
    في الطرق التي لا نتوقعها
    ونكون مُحضرين لها.
  • 15:16 - 15:20
    سيكون من الحقارة أن لا يحصل
    الشخص على عمل يكون مؤهل له،
  • 15:20 - 15:23
    لكن سيكون استيعاب ثلاثي
    إذا كان بسبب فائض مُكدس
  • 15:23 - 15:25
    في بعض الروتين الفعلي.
  • 15:25 - 15:27
    (ضحك)
  • 15:27 - 15:29
    في شهر شهر مايو/أيارعام 2010،
  • 15:29 - 15:33
    الإنهيار السريع في وول ستريت
    المُغذى بحلقة ردود الفعل
  • 15:33 - 15:36
    في خوارزمية "البيع" الحسابية
    في وول ستريت
  • 15:36 - 15:41
    أزال ما قيمته ترليليون دولار
    في 36 دقيقة.
  • 15:42 - 15:44
    أنا لا أريد حتى أن أعتقد
    ما يعني"الخطأ"
  • 15:44 - 15:48
    في سياق الأسلحة المستقلة المُهلكة.
  • 15:50 - 15:54
    لذا نعم، الناس دائماً يصنعون التحيز.
  • 15:54 - 15:56
    صانعوا القرارات و حارسوا البوابات،
  • 15:56 - 15:59
    في المحاكم، في الأخبار، في الحرب...
  • 15:59 - 16:02
    هم يصنعون الأخطاء؛
    ولكن تلك فكرتي بالضبط.
  • 16:02 - 16:06
    نحن لا نستطيع الهرب من
    هذه الأسئلة الصعبة.
  • 16:07 - 16:10
    نحن لا نستطيع التعهد
    بمسؤلياتنا إلى الآلات.
  • 16:11 - 16:15
    (تصفيق)
  • 16:17 - 16:22
    الذكاء الاصطناعي لا يعطينا
    بطاقة "الخروج من الأخلاق بحرية".
  • 16:23 - 16:26
    عالم البيانات فريد بيننسون
    يدعو هذا غسيل الرياضيات.
  • 16:26 - 16:28
    نحن نحتاج العكس.
  • 16:28 - 16:33
    نريد أن نصقل التشكيك حول الخوارزمية،
    الفحص الدقيق و الاستقصاء.
  • 16:33 - 16:37
    نريد أن نتأكد أنه لدينا مسؤلية
    حول ما يتعلق بالخوارزمية.
  • 16:37 - 16:39
    التدقيق، الشفافية ذات المعنى.
  • 16:39 - 16:43
    نريد أن نقبل أن نجلب
    الرياضيات والحساب
  • 16:43 - 16:46
    للأشياء الفوضوية،
    العلاقات الانسانية المحملة بالقيمة
  • 16:46 - 16:48
    لا تجلب الموضوعية؛
  • 16:48 - 16:52
    بالأحرى، العلاقات الانسانية المعقدة
    تنتهك الخوارزميات.
  • 16:52 - 16:56
    نعم، نحن نستطيع ويجب علينا
    أن نستخدم الحساب
  • 16:56 - 16:58
    ليساعدنا على اتخاذ قرارات أفضل.
  • 16:58 - 17:03
    ولكن يجب علينا أن نعترف
    بمسؤليتنا الاخلاقية في الحكم،
  • 17:03 - 17:06
    وأن نستخدم الخوارزميات
    ضمن اطار العمل ذلك،
  • 17:06 - 17:11
    ليس بمعنى أن نتنازل و نتعهد
    بمسؤلياتنا
  • 17:11 - 17:13
    لشخص آخر مثلاً
    إنسان لإنسان.
  • 17:14 - 17:16
    الذكاء الآلي هنا.
  • 17:16 - 17:20
    والذي يعني أنه يجب علينا
    ننتظر بشكل محكم أكثر من أي وقت مضى
  • 17:20 - 17:22
    للقيم الانسانية والأخلاق الانسانية.
  • 17:22 - 17:23
    شكراً لكم.
  • 17:23 - 17:28
    (تصفيق)
Title:
الذكاء الاصطناعي يجعل الأخلاق الإنسانية أكثر أهمية
Speaker:
زينب توفيكسي
Description:

هنا الذكاء الإصطناعي، ونحن نستعمله لاتخاذ القرارات منذ فترة قصيرة. ولكن الطريقة المعقدة التي ينمو ويتطور بها تجعل من الصعب أن نفهمه وحتى بصعوبة أكبر أن نتحكم به. في هذه المحادثة التحذيرية، العالمة التقنية الاجتماعية زينب توفيكسي تشرح كيف أن الذكاء الصناعي يُمكن أن يفشل في الطرق التي لا تناسب نماذج الأخطاء الانسانية -- وفي الطرق التي سوف لن نتوقعها أو لا نكون متحضرين لها. "نحن لا نستطيع أن نتعهد بمسؤلياتنا للآلات،"كما تقول زينب."والذي يعني أنه يجب علينا ننتظر بشكل محكم أكثر من أي وقت مضى للقيم الانسانية والأخلاق الانسانية."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Arabic subtitles

Revisions