Return to Video

هل بإمكاننا بناء ذكاءٍ اصطناعي دون فقدان التحكم به ؟

  • 0:01 - 0:03
    سأقوم بالتحدث عن فشل الحدس
  • 0:03 - 0:05
    الذي يعاني معظمنا منه.
  • 0:05 - 0:09
    هو في الواقع الفشل في تحرِّي نوع محدد
    من الخطر.
  • 0:09 - 0:11
    سوف أقوم بوصف سيناريو
  • 0:11 - 0:14
    أظنه مخيفاً
  • 0:14 - 0:16
    ومن المرجح أن يحدث،
  • 0:17 - 0:18
    وهذا ليس مزيجاً جيداً،
  • 0:19 - 0:20
    كما سيبدو.
  • 0:20 - 0:23
    ومع ذلك، بدلاً من الخوف، سيشعر معظمكم
  • 0:23 - 0:25
    بأن ما أتحدُّث عنه مثير نوعاً ما.
  • 0:25 - 0:28
    سأقوم بوصف كيف أن المكاسب التي نحصل عليها
  • 0:28 - 0:30
    من الذكاء الاصطناعي
  • 0:30 - 0:32
    يمكن في النهاية أن تدمرنا.
  • 0:32 - 0:35
    وفي الواقع، أظنه من الصعب جداً أن نرى
    كيف أنها لن تدمرنا
  • 0:35 - 0:37
    أو تلهمنا أن ندمر أنفسنا.
  • 0:37 - 0:39
    ومع ذلك إذا كنتم تشبهونني في شيء
  • 0:39 - 0:42
    فستجدون أنه من الممتع التفكير
    بهذه الأشياء.
  • 0:42 - 0:45
    وتلك الإجابة هي جزء من المشكلة.
  • 0:45 - 0:47
    حسناً؟ تلك الإجابة يجب أن تُقلقكم.
  • 0:48 - 0:51
    وإذا كان عليَّ أن أقنعكم في هذه المحادثة
  • 0:51 - 0:54
    أنه من المرجح أننا سوف نعاني من
    مجاعة عالمية
  • 0:54 - 0:57
    إما بسبب تغيُّر المناخ، أو بسبب
    كارثة أخرى،
  • 0:57 - 1:01
    وأن أحفادكم، أو أحفادهم،
  • 1:01 - 1:02
    من المرجح جداً أن يعيشوا، هكذا
  • 1:03 - 1:04
    فلن يخطر ببالكم.
  • 1:05 - 1:07
    "مثير للاهتمام".
  • 1:07 - 1:08
    تعجبني محادثة TED هذه.
  • 1:09 - 1:11
    المجاعة ليست مسلية.
  • 1:12 - 1:15
    الموت عن طريق الخيال العلمي، من ناحية
    أخرى، مسلٍّ،
  • 1:15 - 1:19
    وأحد الأشياء التي تقلقني للغاية بسبب تطور
    الذكاء الاصطناعي عند هذه النقطة
  • 1:19 - 1:23
    هي أننا نبدو وكأننا غير قادرين على إبداء
    استجابة عاطفية ملائمة
  • 1:23 - 1:25
    للأخطار التي تنتظرنا.
  • 1:25 - 1:28
    أنا غير قادر على إبداء هذه الاستجابة،
    وأنا أقوم بهذه المحادثة.
  • 1:30 - 1:33
    يبدو الأمر وكأننا نقف أمام بابين.
  • 1:33 - 1:34
    خلف الباب رقم واحد،
  • 1:34 - 1:37
    نتوقف عن تحقيق التقدُّم في بناء الآليات
    الذكية.
  • 1:37 - 1:41
    معدات حاسوبنا وبرمجياته تتوقف عن التحسن
    لسببٍ ما وحسب.
  • 1:41 - 1:44
    خذوا الآن لحظة للتفكير لماذا قد يحدث ذلك.
  • 1:45 - 1:49
    أعني، بافتراض مدى نفع الذكاء والأتمتة،
  • 1:49 - 1:52
    فإننا سنستمر بتحسين التكنولوجيا الخاصة بنا
    إذا كان بإمكاننا أصلاً.
  • 1:53 - 1:55
    ما الذي قد يمنعنا من فعل هذا؟
  • 1:56 - 1:58
    حربٌ نووية على جميع المقاييس؟
  • 1:59 - 2:01
    وباء عالمي؟
  • 2:02 - 2:04
    اصطدام كويكب؟
  • 2:06 - 2:08
    أن يصبح جاستن بيبر رئيساً
    للولايات المتحدة؟
  • 2:08 - 2:11
    (ضحك)
  • 2:13 - 2:17
    الخلاصة هي، شيءٌ ما عليه تدمير
    الحضارة كما نعرفها.
  • 2:17 - 2:22
    عليكم تخيُّل كم عليه أن يكون سيئاً
  • 2:22 - 2:25
    لكي يمنعنا من تحقيق تحسينات في
    التكنولوجيا الخاصة بنا
  • 2:25 - 2:26
    بشكل دائم،
  • 2:26 - 2:28
    جيلاً بعد جيل.
  • 2:28 - 2:30
    تقريباً بالتعريف، هذا أسوأ شيء
  • 2:30 - 2:32
    يمكن أن يحصل في تاريخ البشرية.
  • 2:33 - 2:34
    لذا البديل الوحيد،
  • 2:34 - 2:36
    وهو الذي يوجد خلف الباب رقم اثنين،
  • 2:36 - 2:39
    هو أن نستمر بتحسين آلاتنا الذكية
  • 2:39 - 2:41
    سنة بعد سنة بعد سنة.
  • 2:42 - 2:45
    وعند نقطة معينة، سنبني آلياتٍ أذكى
    مما نحن عليه،
  • 2:46 - 2:49
    وحالما يصبح لدينا آليات أذكى مننا،
  • 2:49 - 2:51
    سوف تبدأ بتحسين نفسها.
  • 2:51 - 2:53
    وعندها سنواجه ما دعاه عالم
    الرياضيات IJ Good
  • 2:53 - 2:55
    "انفجاراً ذكائياً"
  • 2:55 - 2:57
    وأن العملية يمكن أن تفلت من بين أيدينا.
  • 2:58 - 3:01
    الآن، هذا يتم عمله كرسم كاريكاتيري،
    كما أفعل هنا
  • 3:01 - 3:04
    كخوفٍ من جيوش ميليشيا من الرجال الآليين
  • 3:04 - 3:05
    التي ستهاجمنا.
  • 3:05 - 3:08
    ولكن هذا ليس السيناريو الأكثر احتمالاً.
  • 3:08 - 3:13
    الأمر ليس أن آلياتنا ستصبح حاقدة بشكل عفوي
  • 3:13 - 3:16
    المقلق حقاً هو أننا نبني آليات
  • 3:16 - 3:18
    أكثر كفاءة مما نحن عليه
  • 3:18 - 3:22
    وأن أقل اختلاف بين أهدافها وأهدافنا
  • 3:22 - 3:23
    يمكن أن يدمرنا.
  • 3:24 - 3:26
    فقط فكروا بكيفية علاقتنا بالنمل
  • 3:27 - 3:28
    نحن لا نكرههم.
  • 3:28 - 3:30
    ولا نخرج عن طريقنا لنؤذيهم.
  • 3:30 - 3:33
    في الواقع، أحياناً نتحمل آلاماً لكي
    لا نؤذيهم.
  • 3:33 - 3:35
    نحن نمشي من فوقهم على الرصيف.
  • 3:35 - 3:37
    ولكن عندما يكون لوجودهم
  • 3:37 - 3:39
    تعارض جدِّي مع أحد أهدافنا،
  • 3:39 - 3:42
    لنقل مثلاً عند إنشاء بناء كهذا،
  • 3:42 - 3:44
    نقوم بإبادتهم بدون أي تأنيب ضمير.
  • 3:44 - 3:47
    والقلق من أننا يوماً ما سوف نبني آليات
  • 3:47 - 3:50
    والتي، سواءٌ كانت مدركة أم لا،
  • 3:50 - 3:52
    قد تعاملنا بمثل هذا الاستخفاف.
  • 3:54 - 3:57
    والآن، أنا أشك أن هذا أبعد ما يكون
    عن العديد منكم.
  • 3:57 - 4:04
    وأراهن على أن هنالك منكم من يشك أن الذكاء
    الاصطناعي الخارق الذكاء ممكن،
  • 4:04 - 4:05
    أو حتى محتوم.
  • 4:05 - 4:09
    ولكن مع ذلك يجب عليكم أن تجدوا شيئاً ما
    خاطئاً في أحد الافتراضات التالية.
  • 4:09 - 4:11
    وهنالك ثلاثة منهم.
  • 4:12 - 4:17
    الذكاء هو مسألة معالجة للمعلومات في
    الأنظمة الفيزيائية.
  • 4:17 - 4:20
    في الواقع، هذا أكثر بقليل من مجرد افتراض.
  • 4:20 - 4:23
    نحن قمنا مسبقاً ببناء ذكاء محدود
    في آلياتنا،
  • 4:23 - 4:25
    والعديد من هذه الآليات تقوم بالأداء
  • 4:25 - 4:28
    في مستوى الذكاء البشري الخارق أصلاً.
  • 4:29 - 4:31
    ونعلم أن المادة المجردة
  • 4:31 - 4:34
    بإمكانها أن تعطي زيادة لما يدعى
    "بالذكاء العام"،
  • 4:34 - 4:38
    القدرة على التفكير بمرونة في عدة مجالات،
  • 4:38 - 4:41
    لأن دماغنا قام بتدبر الأمر. صحيح؟
  • 4:41 - 4:45
    أنا أعني، هناك ذرات فقط هنا،
  • 4:45 - 4:49
    وطالما نستمر ببناء أنظمة من الذرات
  • 4:49 - 4:52
    والتي تُبدي سلوكاً متزايداً أكثر
    وأكثر من الذكاء
  • 4:52 - 4:55
    فإننا في النهاية، إلا إذا تمَّت مقاطعتنا،
  • 4:55 - 4:58
    في النهاية سوف نبني ذكاءً عاماً
  • 4:58 - 4:59
    في آلياتنا.
  • 4:59 - 5:03
    من المصيري أن ندرك أن معدل التطور لا يهم،
  • 5:03 - 5:06
    لأن أي تطور هو كافٍ لإيصالنا إلى
    منطقة النهاية.
  • 5:06 - 5:10
    لا نحتاج قانون Moore للاستمرار.
    لا نحتاج التطور الأسي.
  • 5:10 - 5:12
    نحتاج فقط لأن نستمر بالمضي قدماً
  • 5:13 - 5:16
    الافتراض الثاني هو أننا سنستمر
    بالمضي قدماً.
  • 5:17 - 5:20
    سنستمر بتحسين آلياتنا الذكية.
  • 5:21 - 5:25
    وبافتراض أهمية الذكاء --
  • 5:25 - 5:29
    أنا أعني، أن الذكاء هو إما مصدر
    لكل شيءٍ نقدِّره
  • 5:29 - 5:32
    أو أننا نحتاجه لحماية كل شيءٍ نقدُّره.
  • 5:32 - 5:34
    إنه المنبع الأكثر أهمية لدينا.
  • 5:34 - 5:36
    لذلك نحتاج لفعل التالي.
  • 5:36 - 5:39
    لدينا مشاكل نحن بحاجة ماسِّة لحلها.
  • 5:39 - 5:42
    نريد شفاء الأمراض كالزهايمر والسرطان.
  • 5:43 - 5:47
    نريد أن نفهم الأنظمة الاقتصادية.
    نريد تحسين علم المناخ الخاص بنا.
  • 5:47 - 5:49
    لذلك سنفعل ذلك، إذا استطعنا.
  • 5:49 - 5:52
    القطار غادر المحطة بالفعل، ولا
    يوجد مكابح لشدها.
  • 5:54 - 5:59
    وأخيراً، نحن لا نقف عند قمة الذكاء،
  • 5:59 - 6:01
    أو في أي مكان قريب منها، على ما يبدو،
  • 6:02 - 6:04
    وهذا حقاً هو البصيرة المصيرية.
  • 6:04 - 6:06
    هذا ما يجعل موقفنا متزعزعاً للغاية،
  • 6:06 - 6:10
    وهذا ما يجعل حدسنا بما يخص
    الخطورة لا يُعتمد عليه أبداً.
  • 6:11 - 6:14
    والآن، فكروا فقط بأذكى شخص
    عاش في أي وقتٍ مضى.
  • 6:15 - 6:18
    تقريباً على قائمة الجميع القصيرة
    يوجد John von Neumann.
  • 6:18 - 6:21
    أعني، الانطباع الذي تركه von Neumann
    على الناس المحيطين به،
  • 6:21 - 6:25
    وهذا يشمل أعظم علماء الرياضيات
    والفيزياء في عصره،
  • 6:26 - 6:27
    بالكاد تم توثيقه بشكل جيد.
  • 6:27 - 6:31
    إذا كانت نصف القصص فقط عنه نصف صحيحة،
  • 6:31 - 6:32
    فلا يوجد شك
  • 6:33 - 6:35
    أنه أحد أذكى الأشخاص الذين عاشوا
    في أي وقتٍ مضى.
  • 6:35 - 6:38
    لذلك باعتبار طيف الذكاء.
  • 6:38 - 6:40
    هنا لدينا John von Neumann.
  • 6:42 - 6:43
    وهنا لدينا أنتم وأنا.
  • 6:44 - 6:45
    وثم هنا لدينا دجاجة.
  • 6:45 - 6:47
    (ضحك)
  • 6:47 - 6:49
    آسف، دجاجة.
  • 6:49 - 6:50
    (ضحك)
  • 6:50 - 6:54
    لا يوجد سبب يجعلني أجعل هذه المحادثة أكثر
    إحباطاً مما يحتاجه الأمر.
  • 6:54 - 6:55
    (ضحك)
  • 6:56 - 7:00
    يبدو أنه ساحق على الأرجح، ومع ذلك، يمتد
    طيف الذكاء
  • 7:00 - 7:03
    أبعد بكثير مما نتصور حالياً،
  • 7:04 - 7:07
    وإذا قمنا ببناء آلات أذكى مما نحن عليه،
  • 7:07 - 7:09
    فهي على الأرجح ستستكشف الطيف
  • 7:09 - 7:11
    بطرقٍ لا نستطيع تخيلها،
  • 7:11 - 7:14
    وسف تتعدانا بطرقٍ لا يمكننا تخيلها.
  • 7:15 - 7:19
    ومن المهم أن ندرك أن هذا صحيح بخصوص
    تأثير السرعة وحدها.
  • 7:19 - 7:24
    صحيح؟ إذاً تخيلوا إذا بنينا ذكاءً صنعياً
    خارق الذكاء
  • 7:24 - 7:28
    ولم يكن أذكى من فريق الباحثين العادي
    الخاص بكم
  • 7:28 - 7:30
    في ستانفورد أو معهد ماساتشوستس
    للتكنولوجيا.
  • 7:30 - 7:33
    حسناً، الدارات الالكترونية تعمل بشكل أسرع
    بحوالي ملايين المرات
  • 7:33 - 7:34
    من تلك الكيميائية الحيوية،
  • 7:35 - 7:38
    لذا هذه الآلة يجب أن تفكر أسرع بملايين
    المرات
  • 7:38 - 7:39
    من العقول التي قامت ببنائها.
  • 7:40 - 7:41
    لذا إذا تركتها تعمل لمدة أسبوع،
  • 7:41 - 7:46
    فسوف تؤدي ما يعادل 20,000 سنة من
    العمل بمستوى الذكاء البشري،
  • 7:46 - 7:48
    أسبوع بعد أسبوع بعد أسبوع.
  • 7:50 - 7:53
    كيف بإمكاننا حتى أن نفهم،
    أو حتى أن نُقيّد،
  • 7:53 - 7:55
    عقلاً يصنع هذا النوع من التطور؟
  • 7:57 - 7:59
    والأمر الآخر المقلق، بصراحة،
  • 7:59 - 8:04
    هو أن، تخيل أفضل سيناريو.
  • 8:04 - 8:08
    إذاً تخيلوا أننا اكتشفنا تصميماً للذكاء
    الصنعي فائق الذكاء
  • 8:08 - 8:10
    وليس لديه مخاوف سلامة.
  • 8:10 - 8:13
    لدينا التصميم المثالي للمرة الأولى.
  • 8:13 - 8:15
    وكأنه تم تسليمنا نبوءة
  • 8:15 - 8:17
    تتصرَّف تماماً كما ينبغي عليها.
  • 8:17 - 8:21
    هذه الآلة ستكون المثلى لتوفير العمالة.
  • 8:22 - 8:24
    بإمكانها تصميم آلية ستقوم ببناء الآلة
  • 8:24 - 8:26
    التي بإمكانها القيام بأي عمل فيزيائي،
  • 8:26 - 8:27
    تعمل بضوء الشمس،
  • 8:27 - 8:30
    ومهما يكن من أجل كلفة المواد الخام.
  • 8:30 - 8:33
    إذاً نحن نتكلم عن نهاية الكدح البشري.
  • 8:33 - 8:36
    نحن أيضا نتكلم عن نهاية العمل الذكائي.
  • 8:37 - 8:40
    فماذا قد تفعل القرود أمثالنا في هذا الظرف؟
  • 8:40 - 8:44
    حسناً، سنكون متفرغين للعب بالصحن الطائر
    وتبادل الرسائل مع بعضنا.
  • 8:46 - 8:49
    أضف بعض الـLSD
    مع اختيارات اللباس المشكوك بأمرها،
  • 8:49 - 8:51
    وبإمكان العالم كله أن يصبح
    كفيلم Burning Man.
  • 8:51 - 8:53
    (ضحك)
  • 8:54 - 8:56
    حسناً، هذا قد يبدو جيداً جداً،
  • 8:57 - 9:00
    ولكن اسألوا أنفسكم ماذا قد يسبب هذا
  • 9:00 - 9:02
    لاقتصادنا الحالي ووضعنا السياسي؟
  • 9:02 - 9:05
    يبدو أننا سنشهد على الأرجح
  • 9:05 - 9:09
    مستوى من تفاوت الثروات والبطالة
  • 9:09 - 9:11
    الذي لم نشهده أبداً من قبل
  • 9:11 - 9:13
    غياب الرغبة لوضع هذه الثروة الجديدة فوراً
  • 9:13 - 9:15
    في خدمة جميع البشرية،
  • 9:16 - 9:19
    بعض أصحاب التريليونات سوف يُشرِّفون
    أغلفة مجلات أعمالنا
  • 9:19 - 9:22
    بينما يكون باقي العالم متفرغاً لكي
    يتضور جوعاً.
  • 9:22 - 9:25
    وماذا سيفعل الروس أو الصينيون
  • 9:25 - 9:27
    إذا سمعوا أن شركةً ما في Silicon Valley
  • 9:27 - 9:30
    كانت على وشك نشر الذكاء الا
    فائق الذكاء؟
  • 9:30 - 9:33
    هذه الآلة ستكون قادرة على شن حرب،
  • 9:33 - 9:35
    سواء كانت على الأرض أو على الإنترنت،
  • 9:35 - 9:37
    بقوة غير مسبوقة.
  • 9:38 - 9:40
    هذا السيناريو هو الذي يربح كل شيء
  • 9:40 - 9:43
    أن تكون متقدماً بستة أشهر على
    المنافسة في هذه الحالة
  • 9:43 - 9:46
    تعني أن تكون متقدماً بـ500,000 سنة،
  • 9:46 - 9:47
    بأقل حد.
  • 9:47 - 9:52
    وبالتالي يبدو أنه حتى الإشاعات المحضة
    بما يخص النوع من الاكتشافات
  • 9:52 - 9:55
    يمكن أن تجعل فصائلنا تهتاج.
  • 9:55 - 9:58
    والآن، أكثر الأشياء إخافة،
  • 9:58 - 10:00
    من وجهة نظري، في هذه اللحظة،
  • 10:00 - 10:05
    هي النوع من الأشياء التي يقولها باحثو
    الذكاء الاصطناعي عندما
  • 10:05 - 10:06
    يريدون أن يكونوا مُطمئِنين.
  • 10:07 - 10:10
    والسبب الأكثر شيوعاً الذي يُقال لنا
    ألا نقلق بسببه هو الوقت
  • 10:10 - 10:13
    هذا كله سيمر، ألا تعلم.
  • 10:13 - 10:15
    هذا من المحتمل بعد 50 أو 100 سنة.
  • 10:16 - 10:17
    قال أحد الباحثين،
  • 10:17 - 10:19
    "القلق بشأن سلامة
    الذكاء الاصطناعي
  • 10:19 - 10:21
    هو كالقلق بشأن زيادة
    التعداد السكاني على المريخ"
  • 10:22 - 10:24
    هذه نسخة Silicon Valley
  • 10:24 - 10:26
    من "لا تُقلق رأسك الجميل الصغير بهذا".
  • 10:26 - 10:27
    (ضحك)
  • 10:28 - 10:29
    لا يبدو أن أحداً يلاحظ
  • 10:29 - 10:32
    أن الإشارة للحد الزمني
  • 10:32 - 10:35
    ليس له عواقب بتاتاً.
  • 10:35 - 10:38
    إذا كان الذكاء هو مجرد مسألة معالجة
    معلومات،
  • 10:38 - 10:41
    ونحن نستمر بتحسين آلياتنا،
  • 10:41 - 10:44
    فسنقوم بإنتاج شكلٍ ما من الذكاء الفائق.
  • 10:44 - 10:48
    وليس لدينا فكرة كم سيستغرق هذا مننا
  • 10:48 - 10:50
    لخلق الشروط للقيام بذلك بأمان.
  • 10:52 - 10:53
    دعوني أقل ذلك مرة أخرى.
  • 10:54 - 10:57
    ليس لدينا فكرة كم سيستغرق الأمر مننا
  • 10:57 - 11:00
    لخلق الشروط للقيام بذلك بأمان.
  • 11:01 - 11:04
    وإذا لم تلاحظوا،
    لم تعد الخمسون سنة كما كانت عليه.
  • 11:04 - 11:07
    هذه 50 سنة في أشهر.
  • 11:07 - 11:09
    هذه المدة التي امتلكنا فيها الـiPhone
  • 11:09 - 11:12
    هذه المدة التي انعرض فيها
    The Simpsons على التلفاز
  • 11:13 - 11:15
    خمسون سنة هي ليست بالوقت الكثير
  • 11:15 - 11:18
    لمواجهة أحد أكبر التحديات الذي سيواجه
    لفصيلتنا.
  • 11:20 - 11:24
    مرة أخرى، يبدو أننا نفشل في امتلاك
    الاستجابة العاطفية الملائمة
  • 11:24 - 11:26
    لما يوجد لدينا أكثر من سبب للإيمكان
    بأنه قادم
  • 11:26 - 11:30
    عالم الحاسوب Stuart Russell
    لديه تحليل لطيف هنا.
  • 11:30 - 11:35
    هو يقول، تخيلوا أننا استلمنا رسالة من
    حضارة الفضائيين،
  • 11:35 - 11:37
    والتي كانت:
  • 11:37 - 11:39
    "سكان الأرض،
  • 11:39 - 11:41
    سوف نصل إلى كوكبكم خلال 50 سنة.
  • 11:42 - 11:43
    استعدوا."
  • 11:43 - 11:48
    والآن نقوم بالعد التنازلي للأشهر حتى تهبط
    السفينة الأم؟
  • 11:48 - 11:51
    سنشعر بالعجلة أكثر مما نفعل الآن بقليل.
  • 11:53 - 11:55
    يُقال لنا ألا نقلق لسببٍ آخر
  • 11:55 - 11:58
    هو أن هذه الآليات ليس بوسعها
    إلا مشاركتنا منافعها
  • 11:58 - 12:00
    لأنها ستكون حرفياً امتداداً لأنفسنا.
  • 12:00 - 12:02
    ستكون مُطعَّمة مع أدمغتنا،
  • 12:02 - 12:04
    ونحن سنصبح جوهرياً أنظمتها الحوفية.
  • 12:05 - 12:07
    الآن خذوا لحظة للتفكير
  • 12:07 - 12:10
    أن الطريق الوحيد الآمن والحكيم للأمام،
  • 12:10 - 12:11
    الذي يُنصح به،
  • 12:11 - 12:14
    هو زرع هذه التكنولوجيا مباشرةً في أدمغتنا.
  • 12:15 - 12:18
    قد يكون الطريق الوحيد
    الآمن والحكيم للأمام،
  • 12:18 - 12:21
    ولكن عادةً يكون للمرء مخاوف
    عن كون التكنولوجيا
  • 12:21 - 12:25
    مفهومة لحدٍّ ما قبل أن تدخلها داخل رأسك.
  • 12:25 - 12:27
    (ضحك)
  • 12:27 - 12:32
    المشكلة الأعمق أن بناء ذكاء اصطناعي فائق
    الذكاء بمفرده
  • 12:32 - 12:34
    يبدو على الأرجح أنه أسهل
  • 12:34 - 12:36
    من بناء ذكاء اصطناعي فائق
    الذكاء
  • 12:36 - 12:38
    وامتلاك علم الأعصاب الكامل
  • 12:38 - 12:40
    الذي يسمح لنا بمكاملة عقولنا معه بسلاسة.
  • 12:41 - 12:44
    وبافتراض أن الشركات والحكومات
    التي تقوم بهذا العمل
  • 12:44 - 12:48
    على الأرجح ستعي كونها في سباق ضد
    الآخرين جميعاً،
  • 12:48 - 12:51
    وبافتراض أن الفوز في هذا السباق
    هو الفوز بالعالم،
  • 12:51 - 12:53
    بفرض أنك لن تدمره في الشهر التالي،
  • 12:53 - 12:56
    فبالتالي يبدو على الأرجح أنه مهما يكن
    الأسهل فعله
  • 12:56 - 12:57
    سيتم الانتهاء منه أولاً.
  • 12:59 - 13:01
    الآن، لسوء الحظ، لا أمتلك حلاً لهذه
    المشكلة،
  • 13:01 - 13:04
    بمعزل عن توصية أن يفكِّر المزيد مننا به.
  • 13:04 - 13:06
    أظن أننا بحاجة شيء ما مثل "مشروع مانهاتن"
  • 13:06 - 13:08
    لموضوع الذكاء الاصطناعي.
  • 13:09 - 13:11
    ليس لبنائه، لأنني أظننا سنفعل ذلك حتماً،
  • 13:11 - 13:15
    ولكن لفهم كيفية تجنب سباق الأذرع
  • 13:15 - 13:18
    ولبنائه بطريقة منحازة مع اهتماماتنا.
  • 13:18 - 13:20
    عندما تتحدث عن ذكاء اصطناعي فائق
    الذكاء
  • 13:20 - 13:23
    يمكنه إحداث تغيير لنفسه،
  • 13:23 - 13:27
    يبدو أن لدينا فرصة واحدة للقيام بالشروط
    الابتدائية بشكل صحيح،
  • 13:27 - 13:29
    وحتى حينها سنكون بحاجة امتصاص
  • 13:29 - 13:32
    العواقب الاقتصادية والسياسية من القيام
    بها بشكل صحيح.
  • 13:34 - 13:36
    ولكن في اللحظة التي نعترف فيها
  • 13:36 - 13:40
    أن معالجة المعلومات هي مصدر الذكاء،
  • 13:41 - 13:46
    وأن بعض أنظمة الحاسوب الملائمة
    تُعبِّر عن أساس الذكاء،
  • 13:46 - 13:50
    ونعترف أننا سوف نحسِّن هذه الأنظمة
    باستمرار،
  • 13:51 - 13:56
    ونعترف أن أفق الإدراك على الأرجح يتجاوز
  • 13:56 - 13:57
    الذي نعرفه حالياً بكثير،
  • 13:58 - 13:59
    وبالتالي علينا الاعتراف
  • 13:59 - 14:02
    أننا في مرحلة بناء نوع ما من الآلهة.
  • 14:03 - 14:05
    الآن سيكون وقتاً جيداً
  • 14:05 - 14:07
    للتأكد من أنه إله نستطيع العيش معه.
  • 14:08 - 14:10
    شكراً جزيلاً لكم.
  • 14:10 - 14:15
    (تصفيق)
Title:
هل بإمكاننا بناء ذكاءٍ اصطناعي دون فقدان التحكم به ؟
Speaker:
Sam Harris
Description:

خائف من الذكاء الاصطناعي فائق الذكاء؟ يجب عليك ذلك، هكذا يقول عالم الأعصاب والفيلسوف سام هاريس -- وليس بطريقة نظرية وحسب. سنقوم ببناء آليات بشرية خارقة، يقول هاريس، ولكننا لم نتصارع بعد مع المشاكل المرتبطة مع خلق شيءٍ ربما يعاملنا بالطريقة التي نعامل بها النمل.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Arabic subtitles

Revisions