الذكاء الاصطناعي يجعل الأخلاق الإنسانية أكثر أهمية
-
0:01 - 0:05لقد بدأت عملي الأول كمبرمجة كمبيوتر
-
0:05 - 0:07في أول سنة جامعة لي--
-
0:07 - 0:08بشكل أساسي، كمراهقة.
-
0:09 - 0:11بعدما بدأت العمل بوقت قصير،
-
0:11 - 0:12بكتابة البرمجيات في الشركة،
-
0:13 - 0:16آتى مدير في الشركة إلى حيث كنت أعمل،
-
0:16 - 0:18و همس لي،
-
0:18 - 0:21"هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟"
-
0:22 - 0:24لم يكن هناك أحد آخر في الغرفة.
-
0:25 - 0:29"من الذي سيُخبرإذا كنتَ
تكذب؟ ولماذا نحن نهمس؟" -
0:30 - 0:33أشار المدير إلى الكمبيوترالموجود في الغرفة.
-
0:33 - 0:36"هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟"
-
0:38 - 0:42حسناً، المدير كان على علاقة
مع موظفة الاستقبال. -
0:42 - 0:43(ضحك)
-
0:43 - 0:45وكنت لا أزال مراهقة.
-
0:45 - 0:47ولذالك همست له بصوت مرتفع،
-
0:47 - 0:51"نعم الكمبيوتر يستطيع أن
يُخبر فيما إذا كنتَ تكذب." -
0:51 - 0:53(ضحك)
-
0:53 - 0:56حسنا، لقد ضحكت،
ولكن في الحقيقة ضحكت على نفسي. -
0:56 - 0:59هذه الأيام، يوجد هنالك أنظمة حسابية
-
0:59 - 1:03من الممكن أن نعمل عليها
على الحالات العاطفية وحتى الكذب -
1:03 - 1:05من معالجة وجوه الناس.
-
1:05 - 1:09العاملون في مجال الإعلان
وحتى الحكومات مهتمون جداً. -
1:10 - 1:12لقد أصبحت مبرمجة كمبيوتر
-
1:12 - 1:15لأنني كنت واحدة من أولئك
الأطفال المحبين للرياضيات والعلوم. -
1:16 - 1:19ولكن في مكان ما من هذا
الطريق تعلمت عن الأسلحة النووية، -
1:19 - 1:22وأنا حقاً قلقة حول أخلاقيات العلم.
-
1:22 - 1:23كنت مضطربة.
-
1:23 - 1:26على أية حال، بسبب ظروف العائلة،
-
1:26 - 1:29أنا أيضاً بحاجة أن أبدأ
العمل بأسرع ما يمكن. -
1:29 - 1:33لذلك فكرت بنفسي، مهلاً،
أدخلي في المجال التقني -
1:33 - 1:34حيث أستطيع أن أحصل على عمل بسهولة
-
1:34 - 1:38وحيث ليس علي أن أتعامل
مع أسئلة أخلاقية مزعجة. -
1:39 - 1:41لذلك اخترت الحواسيب.
-
1:41 - 1:42(ضحك)
-
1:42 - 1:45حسناً، ها، ها، ها!
كل الضحك علي. -
1:45 - 1:48هذه الأيام، علماء الحاسوب
يقومون بصياغة البرامج -
1:48 - 1:52والتي تتحكم بما يستطيع أن
يشاهده مليار شخص كل يوم. -
1:53 - 1:57إنهم يطورون السيارات التي
ممكن أن تقرر مَن تجاوز السرعة. -
1:58 - 2:01إنهم حتى يبنون الألات و الأسلحة،
-
2:01 - 2:03التي يُمكن أن تقتل الإنسان في الحرب.
-
2:03 - 2:06إنها الأخلاق دائماً في النطاق.
-
2:07 - 2:09ذكاء الألة يكون هنا.
-
2:10 - 2:13نحن نستخدم الألة لنتخذ كل أنواع القرارات،
-
2:13 - 2:15ولكن ايضاً الأنواع الجديدة من القرارات.
-
2:15 - 2:20نحن نسأل الحاسب أسئلة
ليس له إجابات صحيحة منفردة -
2:20 - 2:22والتي تكون غير موضوعية
-
2:22 - 2:24مفتوحة وذات قيمة.
-
2:24 - 2:26نحن نسأل أسئلة مثل،
-
2:26 - 2:27"من الذي يجب على الشركة توظيفه؟"
-
2:28 - 2:31"أي تحديث ومن أي صديق
يجب أن تُشاهد؟" -
2:31 - 2:33"أي إنتهاك من المرجح أن يُعاد إدانته؟"
-
2:34 - 2:37"أي الأخبار أو الأفلام يجب
أن يوصى بها إلى الناس؟" -
2:37 - 2:40انظر، نعم، نحن نستخدم الحاسوب منذ فترة،
-
2:40 - 2:42ولكن هذا مُختلف.
-
2:42 - 2:44هذا تطور تاريخي،
-
2:44 - 2:49لأننا لا نستطيع أن نُركّز الحساب
من أجل هكذا قرارات شخصية -
2:49 - 2:54الطريقة التي نستطيع أن نُركّز الحساب
لأجل تحليق الطائرات، بناء الجسور، -
2:54 - 2:56الذهاب إلى القمر
-
2:56 - 3:00هل الطائرات أكثر أماناً؟
هل الجسر تأرجح وانهار؟ -
3:00 - 3:04هناك، نحن اتفقنا عليه،
معيار واضح ألى حد ما، -
3:04 - 3:06ونحن لدينا قوانين طبيعية لتُرشِدنا.
-
3:07 - 3:10ليس لدينا هكذا مرتكز أو معيار
-
3:10 - 3:14للقرارات في العلاقات الإنسانية الفوضوية.
-
3:14 - 3:18لنجعل الأشياء أكثر تعقيداً،
برمجياتُنا أصبحت أكثر قوة، -
3:18 - 3:22ولكنها أصبحت أيضاً أقل
شفافية وأكثر تعقيداً. -
3:23 - 3:25مؤخراً، في العقد الماضي،
-
3:25 - 3:27الخوارزميات المعقدة
صنعت خطوات عظيمة. -
3:27 - 3:29تستطيع أن تُميز الوجوه البشرية.
-
3:30 - 3:32تستطيع أن تحل شيفرة خط اليد.
-
3:32 - 3:35تستطيع أن تكشف تزوير البطاقة الإتمانية
-
3:35 - 3:36وتمنع البريد المزعج
-
3:36 - 3:38وتستطيع الترجمة بين اللغات.
-
3:38 - 3:40تستطيع أن تكشف الأمراض في التصوير الطبي.
-
3:40 - 3:43تستطيع أن تتغلب على الإنسان في الشطرنج.
-
3:43 - 3:48معظم هذا التقدم يأتي من اسلوب
يُدعى"تعلم الآلة." -
3:48 - 3:51تعلم الآلة يختلف عن البرمجة التقليدية،
-
3:51 - 3:55حيث تُعطي الحاسوب تعليمات
دقيقة ومضبوطة ومُفصلة. -
3:55 - 4:00إنه مثل أن تأخذ النظام
وتُلقمه الكثير من البيانات، -
4:00 - 4:01بما في ذلك البيانات الغير منظمة،
-
4:01 - 4:04مثل النوع الذي أنتجناه في حياتنا الرقمية.
-
4:04 - 4:06والنظام المتعلم من خلال
الخوض بهذه البيانات. -
4:07 - 4:08و أيضاً، بشكل حاسم،
-
4:08 - 4:13هذه الأنظمة لا تعمل تحت
منطق الإجابة الفريدة. -
4:13 - 4:16إنها لا تُنتج إجابة بسيطة؛
إنها أكثر إحتمالية: -
4:16 - 4:19"من المحتمل أن يكون هذا
الشيء هو ما تبحث عنه." -
4:20 - 4:23الآن، الجزء الجيد هو:
هذه الطريقة حقاً قوية. -
4:23 - 4:25رئيس أنظمة غوغل دعاه،
-
4:25 - 4:27"الفاعلية الغير منطقية للبيانات."
-
4:28 - 4:29الجانب السلبي هو،
-
4:30 - 4:33لا نستطيع أن
نفهم ماذا يُعلم النظام تماماً. -
4:33 - 4:34في الحقيقة، تلك قوته.
-
4:35 - 4:39هذا بدرجة أقل مثل إعطاء
التعليمات للحاسوب؛ -
4:39 - 4:43إنه بالأكثر مثل تدريب
مخلوق آلي مغرور -
4:43 - 4:46لا نستطيع حقاً أن نفهمه أو نتحكم به.
-
4:46 - 4:48لذلك هذه هي مُشكلتنا.
-
4:48 - 4:53إنها مشكلة عندما يصنع نظام الذكاء
الإصطناعي هذا أشياء خاطئة. -
4:53 - 4:56إنها أيضاً مُشكلة عندما نحصل
على الأشياء الصحيحة، -
4:56 - 5:00لأننا لا نعرف حتى متى
تكون مشكلة غير موضوعية. -
5:00 - 5:02نحن لا نعلم ماذا يُفكر هذه الشيء.
-
5:03 - 5:07لذلك، تأمل خوارزمية التوظيف--
-
5:08 - 5:12نظام يستعمل لتوظيف الناس،
باستعمال أنظمة تعلّم الآلة. -
5:13 - 5:17هكذا نظام قد تم تمرينه
على بيانات العاملين السابقة -
5:17 - 5:19وأَعطي تعليمات ليجد ويوظف
-
5:19 - 5:22الناس مثل الموجودين في الشركة
من ذوي الكفاءات العالية. -
5:23 - 5:24يبدو جيداً.
-
5:24 - 5:26حضرت إجتماعاً ذات مرة
-
5:26 - 5:29مع مدراء الموارد البشرية
والمدراء التنفيذيين، -
5:29 - 5:30أشخاص على مستوى عال،
-
5:30 - 5:32وباستخدام هكذا أنظمة في التوظيف.
-
5:32 - 5:34كانوا متحمسين بشكل كبير.
-
5:34 - 5:38اعتقدوا أن هذا سيجعل التوظيف
أكثر موضوعية وأقل تحيز، -
5:38 - 5:41وإعطاء النساء والأقليات محاولة أفضل
-
5:41 - 5:44ضد تحيز مدراء الموارد البشرية.
-
5:44 - 5:46انظر-- التوظيف البشري متحيز.
-
5:47 - 5:48أنا أعلم.
-
5:48 - 5:51أعني، في أحد أعمالي المبكرة كمبرمجة،
-
5:51 - 5:55مديرتي المباشرة كانت تأتي أحياناً إلي
حيث كُنت أعمل -
5:55 - 5:59باكراً في الصباح أو متأخرة بعد الظهر،
-
5:59 - 6:02وكانت تقول، "زينب، دعينا نذهب ألى الغداء!"
-
6:03 - 6:05وأكون في حيرة من التوقيت الغريب.
-
6:05 - 6:07إنه الساعة الرابعة بعد الظهر. الغداء؟
-
6:07 - 6:10كُنت مُفلسة، وكذلك الغداء مجاني.
كنت دائماً أذهب. -
6:11 - 6:13فيما بعد أدركت ماذا كان يحدث.
-
6:13 - 6:17مُدرائي المباشرين لم يخبروا
المدراء في المستوى الأعلى -
6:17 - 6:20إن المبرمج الذي وظفوه في
العمل المُهم كانت فتاة شابة -
6:20 - 6:24والتي ترتدي الجنز والأحذية
الرياضية في العمل. -
6:25 - 6:27كُنت أعمل عملاً جيداً،
فقط مظهري كان خاطئاً -
6:27 - 6:29لقد كان العمر الخطأ والجنس الخطأ.
-
6:29 - 6:32لذلك التوظيف بطريقة الجنس والعرق العمياء
-
6:32 - 6:34بالتأكيد تبدو جيدة بالنسبة لي.
-
6:35 - 6:38ولكن مع هذه الأنظمة،
إنه أكثر تعقيداً، والسبب: -
6:39 - 6:45حالياً، الأنظمة الحسابية تستطيع أن
تستدل على كل الأشياء حولك -
6:45 - 6:47من أجزائك الرقمية الصغيرة،
-
6:47 - 6:49حتى لو أنك لم تكشف هذه الأشياء.
-
6:50 - 6:52تستطيع أن تكشف توجهك الجنسي،
-
6:53 - 6:54ميزاتك الشخصية،
-
6:55 - 6:56ميولك السياسية.
-
6:57 - 7:01لديها قوة تنبئية بمستوى عالي من الدقة.
-
7:01 - 7:04تذّكر- حتى بالنسبة للأشياء التي لم تكشفها.
-
7:04 - 7:06هذا هو الاستدلال.
-
7:06 - 7:09لدي صديق والذي طور هكذا أنظمة حسابية
-
7:09 - 7:13ليتنبأ باحتمالية الإكتئاب المرضي أو
الإكتئاب ما بعد الولادة -
7:13 - 7:14من بيانات وسائل الإعلام.
-
7:15 - 7:16النتائج كانت مؤثرة.
-
7:16 - 7:20نظامها يستطيع التنبؤ باحتمالية الإكتئاب
-
7:20 - 7:24أشهر قبل بداية أي أعراض --
-
7:24 - 7:25أشهر قبل.
-
7:25 - 7:27لا أعراض، يوجد هنا تنبؤ.
-
7:27 - 7:32تأمل أنه سيستعمل للتدخل المُبكر. عظيم!
-
7:33 - 7:35لكن الآن ضع هذا في حالة التوظيف.
-
7:36 - 7:39لذلك في مؤتمر مدراء الموارد البشرية هذا،
-
7:39 - 7:44اقتربت من مدير في المستوى الأعلى
في شركة كبيرة جداً، -
7:44 - 7:48وقُلت لها،" انظري، ماذا لو، غير معروف لك،
-
7:48 - 7:55أن نظامك يُزيل الأشخاص ذوي الاحتمالية
المستقبلية الكبيرة من الإكتئاب؟ -
7:56 - 7:59إنهم غير مكتئبين الآن،
ربما فقط في المستقبل، أكثر احتمالية. -
8:00 - 8:03ماذا لو يُزل النساء الأكثر
احتمالية لأن يكونوا حوامل -
8:03 - 8:06في السنة المقبلة أوالسنتين
ولكن غير حوامل الآن؟ -
8:07 - 8:12ماذا لو يوظف الناس العدائيين
لأن ذلك هو ثقافة مكان عملك؟" -
8:13 - 8:16لا تستطيع أن تحكي هذا بالنظر
إلى التقسيم من حيث الجنس. -
8:16 - 8:17هؤلاء ربما يكونوا متوازنيين.
-
8:17 - 8:21وبما أن هذا تعّلم الآلة،
وليس تدوين تقليدي، -
8:21 - 8:26لا يوجد هنا متغير يوجد
اسمه "خطر أعلى من الإكتئاب،" -
8:26 - 8:28"خطر أعلى من الحمل،"
-
8:28 - 8:30"مقياس شخص عدواني."
-
8:30 - 8:34ليس فقط أنك لا تعلم ما يختار نظامك،
-
8:34 - 8:36أنت لا تعلم أيضاً أين يجب أن تبدأ النظر.
-
8:36 - 8:37إنه صندوق أسود.
-
8:37 - 8:40إنه يملك قوة تنبؤية،
لكنك لا تفهمها. -
8:40 - 8:43سألتها "ما إجراءات الوقاية"، ستملكين
-
8:43 - 8:47لتتأكد أن صندوقك الأسود
لا يعمل أي شيء مضلل؟" -
8:49 - 8:53نظرت ألي كما لو أنني
ضربتها بعشرة ذيول جِراء. -
8:53 - 8:54(ضحك)
-
8:54 - 8:56حدقت إلي وقالت،
-
8:57 - 9:01" أنا لا أريد أن أسمع كلمة أخرى حول هذا."
-
9:01 - 9:03و دارت نفسها وذهبت بعيداً.
-
9:04 - 9:06إنتبهوا-- لم تكن وقحة.
-
9:06 - 9:12إنه كان واضحاً: الذي لا أعرفه ليس مشكلتي،
اذهب بعيداً، الموت يُحدق. -
9:12 - 9:13(ضحك)
-
9:14 - 9:18انظر، هكذا نظام ربما يكون أقل تحيزاً
-
9:18 - 9:20مِن المدراء البشر في بعض الطرق.
-
9:20 - 9:22ويمكن أن يصنع إدراك عملي.
-
9:23 - 9:24ولكنه ممكن أن يقود أيضاً
-
9:24 - 9:29إلى الثبات ولكن إغلاق خفي لسوق العمل
-
9:29 - 9:31للناس بمستوى عالي من الإكتئاب.
-
9:32 - 9:34هل هذا هو النوع من المجتمع
الذي نريد أن نبنيه، -
9:34 - 9:37بدون حتى أن نعلم أننا فعلنا هذا،
-
9:37 - 9:41لأننا حولّنا اتخاذ القرارات
إلى ألات لا نفهمها تماماً؟ -
9:41 - 9:43مشكلة أخرى وهي كالتالي:
-
9:43 - 9:48هذه الأنظمة غالباً ما تكون دُربت
على البيانات أُنتجت من أعمالنا، -
9:48 - 9:50بصمات الإنسان.
-
9:50 - 9:54حسناً، ربما هُن فقط يعكسن تحيزنا،
-
9:54 - 9:58وهذه الأنظمة ربما قد تختار تحيزنا
-
9:58 - 9:59وتبالغ فيه
-
9:59 - 10:00وتعود لترينا اياه
-
10:00 - 10:02بينما نحن نُخبر أنفسنا،
-
10:02 - 10:05"نحن فقط نفعل الهدف، الحساب الحيادي."
-
10:06 - 10:09الباحثون وجدوا ذلك على غوغل،
-
10:10 - 10:15النساء أقل احتمالية من الرجال لإعلانات
العمل بالنسبة للأعمال بالدخل العالي. -
10:16 - 10:19والبحث في الأسماء الأميريكية الإفريقية
-
10:19 - 10:24أكثراحتمالية ليجلب إعلانات
مُقترحة تاريخ جنائي، -
10:24 - 10:25حتى عندما لا توجد.
-
10:27 - 10:30هكذا تحيز مخفي
وخوارزميات الصندوق الأسود -
10:30 - 10:34والتي لا يُغطيها الباحثون أحياناً
ولكن أحياناً لا نعلم، -
10:34 - 10:37يُمكن أن يكون لديها عواقب
تغيير مدى الحياة. -
10:38 - 10:42في ويسكونسن، حُكم على المدعى عليه
ست سنوات في السجن -
10:42 - 10:43لأجل تجاهل الشرطة.
-
10:45 - 10:46ربما لا تعلم هذا،
-
10:46 - 10:50لكن الخوارزميات وبازدياد تُستعمل في
اطلاق السراح وقرارات اصدار الأحكام. -
10:50 - 10:53هو أراد أن يعرف:
كيف تُحسب هذه النتيجة؟ -
10:54 - 10:55إنه صندوق أسود تجاري.
-
10:55 - 11:00رفضت الشركة لأن تكون خوارزميتها
مُعترض عليها في المحكمة المفتوحة. -
11:00 - 11:06ولكن شركة التحقيق بروبابليكا الغير ربحية،
دققت الخوارزمية -
11:06 - 11:08مع البيانات العامة التي استطاعوا إيجادها،
-
11:08 - 11:10ووجدوا أن المُخرجات كانت مُتحيزة
-
11:10 - 11:14وقوته التنبؤية كانت مُحزنة،
بالكاد أفضل من الفرصة، -
11:14 - 11:18وكان من الخطأ تصنيف المُدعى عليهم
السود كمجرمي المستقبل -
11:18 - 11:22كضِعف المُدعى عليهم البيض.
-
11:24 - 11:25لذا، تأمل هذه الحالة :
-
11:26 - 11:30هذه المرأة كانت مُتأخرة لتقل أختها
-
11:30 - 11:32من المدرسة في بلدة بروارد، فلوريدا،
-
11:33 - 11:35توقفت في الشارع
مع صديقتها. -
11:35 - 11:39واكتشفوا دراجة طفل غير مُقفلة
ودراجة على الرواق -
11:39 - 11:41وبكل حماقة قفزوا عليها.
-
11:41 - 11:44بينما كانوا يستعجلون،
ظهرت امرأة وقالت، -
11:44 - 11:46"مرحبا! تلك دراجة طفلي!"
-
11:46 - 11:49فقاموا بتركها ومشوا بعيداً،
ولكنهم كانوا قد أُعتقلوا. -
11:49 - 11:53كانت مُخطئة، كانت حمقى،
ولكنها كانت بعمر 18 سنة أيضاً. -
11:53 - 11:55لديها العديد من المخالفات الصبيانية.
-
11:56 - 12:01في الوقت نفسه، ذلك الرجل كان
قد أُعتقل للسرقة مخزن المنزل -- -
12:01 - 12:04ما قيمته 85 دولار من الأغراض،
جريمة سخيفة مُشابهة. -
12:05 - 12:09ولكن كان لديه جُرمي سطو مُسلح سابقين.
-
12:10 - 12:13ولكن الخوارزمية سجلت المرأة
كخطر كبير ولم تُسجله. -
12:15 - 12:19بعد سنتين، وجدت شركة بروبابليكا
أن المرأة لم تكن قد ارتكبت مُخالفة. -
12:19 - 12:21كان من الصعب عليها فقط أن
تحصل على عمل بسبب سجلها. -
12:21 - 12:23هو، في الجهة المقابلة، ارتكب مخالفة
-
12:23 - 12:27وهو يخدم الآن فترة ثماني
سنوات سجن بسبب جريمة لاحقة. -
12:28 - 12:31بكل وضوح، نحن بحاجة
إلى تدقيق صناديقنا السود -
12:31 - 12:34وأن لا يكون لديها هذا النوع
من القوة الغير مفحوصة. -
12:34 - 12:37(تصفيق)
-
12:38 - 12:42تدقيق الحسابات عظيم وهام،
ولكنهن لا يحللن كل مشاكلنا. -
12:42 - 12:45خذ قوة أخبار فيس بوك لُقمت بالخوارزمية --
-
12:45 - 12:50أنت تعلم، الشخص الذي صنف كل شيء
ويقرر ما يُظهر لك -
12:50 - 12:52من كل الأصدقاء والصفحات التي تُتابعها.
-
12:53 - 12:55هل يجب أن ترى صورة طفل آخر؟
-
12:55 - 12:56(ضحك)
-
12:56 - 12:59ملاحظة مُتجهمة من شخص معروف؟
-
12:59 - 13:01الأخبار المُهمة ولكنها عويصة؟
-
13:01 - 13:03لا يوجد هنا أي اجابة صحيحة.
-
13:03 - 13:05يبحث فيس بوك عن أفضل الحلول
للتشابك على الموقع: -
13:06 - 13:07اعجابات، مشاركات، تعليقات.
-
13:08 - 13:11في شهرآب من 2014،
-
13:11 - 13:14اندلعت الاحتجاجات في فيرغوسن،
مُقاطعة ميسوري، -
13:14 - 13:18بعد مقتل مراهق أميريكي-افريقي
من قبل ضابط شرطة أبيض، -
13:18 - 13:20في ظروف غامضة.
-
13:20 - 13:22الأخبار عن الاحتجاجات كانت قد انتهت
-
13:22 - 13:25خوارزميتي الحسابية لم تُصفي تلقيم تويتر،
-
13:25 - 13:27ولكن هنا على الفيس بوك خاصتي.
-
13:27 - 13:29هل كانوا أصدقاء حسابي الفيس بوك؟
-
13:29 - 13:31عَطلتُ خوارزمية فيس بوك الحسابية،
-
13:31 - 13:34حيث إنه صعب، لأن فيس بوك
دائماً يُريد أن يجعلك -
13:34 - 13:36تبقى تحت سيطرة الخوارزمية،
-
13:36 - 13:39وشاهدت أصدقائي كانوا يتكلمون عنه.
-
13:39 - 13:41أنه فقط أن الخوارزمية
لم تكن تُظهره لي. -
13:41 - 13:44بحثت حول هذا ووجدت
أن هذا كان مُشكلة واسعة الانتشار. -
13:44 - 13:48قصة فيرغوسن لم تكن
ضمن نظام الخوارزمية بشكل ودّي. -
13:48 - 13:49إنه ليس"جدير بالمحبة."
-
13:49 - 13:51مَن سيضغط على "اعجاب؟"
-
13:52 - 13:54إنه حتى ليس من السهل أن
تُعلق عليه. -
13:54 - 13:55من دون الاعجابات والتعليقات،
-
13:55 - 13:58الخوارزمية كانت من المحتمل
أن تظهره لعدد أقل من الناس، -
13:58 - 14:00لذلك نحن لا نُريد أن نرى هذا.
-
14:01 - 14:02بدلاً من، ذلك الاسبوع،
-
14:02 - 14:04خوارزمية فيس بوك ألقت الضوء على هذا،
-
14:05 - 14:07حيث إنه تحدي الدلو الجليدي ALS.
-
14:07 - 14:11سبب قيّم؛ الماء الجليدي المفرغ،
صُنع المعروف، جميل. -
14:11 - 14:12ولكنها كانت خوارزمية
صديقة بامتياز. -
14:13 - 14:16الآلة صنعت هذا القرار من أجلنا.
-
14:16 - 14:19محادثة مهمة جداً ولكنها صعبة
-
14:19 - 14:21ربما تكون قد غُطت بكثافة،
-
14:21 - 14:24ربما كان فيس بوك القناة الوحيدة.
-
14:24 - 14:28الآن،وأخيراً، هذه الأنظمة
يمكن أيضاً أن تكون مخطئة -
14:28 - 14:31في الطُرق التي لا تُماثل الأنظمة الانسانية.
-
14:31 - 14:34هل تتذكرون واتسون،
نظام الذكاء الآلي لشركة IBM -
14:34 - 14:37والذي أزال الإرباك مع
المتنافسين البشر على لعبة Jeopardy؟ -
14:37 - 14:39كان لاعب عظيم.
-
14:39 - 14:42ولكن فيما بعد، بالنسبة للعبة الأخيرة،
سُأل واتسون هذا السؤال: -
14:43 - 14:46"مطاره الأكبر سُمي لبطل
الحرب العالمية الثانية، -
14:46 - 14:48ثاني أكبر مطار لمعركة
الحرب العالمية الثانية." -
14:48 - 14:49(دندنة لموسيقا اللعبة الأخيرة)
-
14:50 - 14:51شيكاغو.
-
14:51 - 14:52الشخصين أجابوا بشكل صحيح.
-
14:53 - 14:57واتسون، على الجهة المقابلة،
أجاب "تورونتو"-- -
14:57 - 14:59عوضاً عن تصنيف مدينة أمريكية!
-
15:00 - 15:02النظام المُثير للاعجاب أيضاً يصنع أخطاء
-
15:03 - 15:06التي لا يُمكن أن يصنعها الإنسان،
الصنف الثاني سوف لن يصنعها. -
15:07 - 15:10ذكاء ألتُنا الصناعي يُمكن أن يفشل
-
15:10 - 15:13في الطرق التي لا تناسب نماذج خطأ الانسان
-
15:13 - 15:16في الطرق التي لا نتوقعها
ونكون مُحضرين لها. -
15:16 - 15:20سيكون من الحقارة أن لا يحصل
الشخص على عمل يكون مؤهل له، -
15:20 - 15:23لكن سيكون استيعاب ثلاثي
إذا كان بسبب فائض مُكدس -
15:23 - 15:25في بعض الروتين الفعلي.
-
15:25 - 15:27(ضحك)
-
15:27 - 15:29في شهر شهر مايو/أيارعام 2010،
-
15:29 - 15:33الإنهيار السريع في وول ستريت
المُغذى بحلقة ردود الفعل -
15:33 - 15:36في خوارزمية "البيع" الحسابية
في وول ستريت -
15:36 - 15:41أزال ما قيمته ترليليون دولار
في 36 دقيقة. -
15:42 - 15:44أنا لا أريد حتى أن أعتقد
ما يعني"الخطأ" -
15:44 - 15:48في سياق الأسلحة المستقلة المُهلكة.
-
15:50 - 15:54لذا نعم، الناس دائماً يصنعون التحيز.
-
15:54 - 15:56صانعوا القرارات و حارسوا البوابات،
-
15:56 - 15:59في المحاكم، في الأخبار، في الحرب...
-
15:59 - 16:02هم يصنعون الأخطاء؛
ولكن تلك فكرتي بالضبط. -
16:02 - 16:06نحن لا نستطيع الهرب من
هذه الأسئلة الصعبة. -
16:07 - 16:10نحن لا نستطيع التعهد
بمسؤلياتنا إلى الآلات. -
16:11 - 16:15(تصفيق)
-
16:17 - 16:22الذكاء الاصطناعي لا يعطينا
بطاقة "الخروج من الأخلاق بحرية". -
16:23 - 16:26عالم البيانات فريد بيننسون
يدعو هذا غسيل الرياضيات. -
16:26 - 16:28نحن نحتاج العكس.
-
16:28 - 16:33نريد أن نصقل التشكيك حول الخوارزمية،
الفحص الدقيق و الاستقصاء. -
16:33 - 16:37نريد أن نتأكد أنه لدينا مسؤلية
حول ما يتعلق بالخوارزمية. -
16:37 - 16:39التدقيق، الشفافية ذات المعنى.
-
16:39 - 16:43نريد أن نقبل أن نجلب
الرياضيات والحساب -
16:43 - 16:46للأشياء الفوضوية،
العلاقات الانسانية المحملة بالقيمة -
16:46 - 16:48لا تجلب الموضوعية؛
-
16:48 - 16:52بالأحرى، العلاقات الانسانية المعقدة
تنتهك الخوارزميات. -
16:52 - 16:56نعم، نحن نستطيع ويجب علينا
أن نستخدم الحساب -
16:56 - 16:58ليساعدنا على اتخاذ قرارات أفضل.
-
16:58 - 17:03ولكن يجب علينا أن نعترف
بمسؤليتنا الاخلاقية في الحكم، -
17:03 - 17:06وأن نستخدم الخوارزميات
ضمن اطار العمل ذلك، -
17:06 - 17:11ليس بمعنى أن نتنازل و نتعهد
بمسؤلياتنا -
17:11 - 17:13لشخص آخر مثلاً
إنسان لإنسان. -
17:14 - 17:16الذكاء الآلي هنا.
-
17:16 - 17:20والذي يعني أنه يجب علينا
ننتظر بشكل محكم أكثر من أي وقت مضى -
17:20 - 17:22للقيم الانسانية والأخلاق الانسانية.
-
17:22 - 17:23شكراً لكم.
-
17:23 - 17:28(تصفيق)
- Title:
- الذكاء الاصطناعي يجعل الأخلاق الإنسانية أكثر أهمية
- Speaker:
- زينب توفيكسي
- Description:
-
هنا الذكاء الإصطناعي، ونحن نستعمله لاتخاذ القرارات منذ فترة قصيرة. ولكن الطريقة المعقدة التي ينمو ويتطور بها تجعل من الصعب أن نفهمه وحتى بصعوبة أكبر أن نتحكم به. في هذه المحادثة التحذيرية، العالمة التقنية الاجتماعية زينب توفيكسي تشرح كيف أن الذكاء الصناعي يُمكن أن يفشل في الطرق التي لا تناسب نماذج الأخطاء الانسانية -- وفي الطرق التي سوف لن نتوقعها أو لا نكون متحضرين لها. "نحن لا نستطيع أن نتعهد بمسؤلياتنا للآلات،"كما تقول زينب."والذي يعني أنه يجب علينا ننتظر بشكل محكم أكثر من أي وقت مضى للقيم الانسانية والأخلاق الانسانية."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Retired user approved Arabic subtitles for Machine intelligence makes human morals more important | ||
Retired user edited Arabic subtitles for Machine intelligence makes human morals more important | ||
Retired user edited Arabic subtitles for Machine intelligence makes human morals more important | ||
Ralah Haddad accepted Arabic subtitles for Machine intelligence makes human morals more important | ||
Ralah Haddad edited Arabic subtitles for Machine intelligence makes human morals more important | ||
Ralah Haddad edited Arabic subtitles for Machine intelligence makes human morals more important | ||
Ralah Haddad edited Arabic subtitles for Machine intelligence makes human morals more important | ||
Mutaz Salloum edited Arabic subtitles for Machine intelligence makes human morals more important |