0:00:01.000,0:00:03.216 سأقوم بالتحدث عن فشل الحدس 0:00:03.240,0:00:04.840 الذي يعاني معظمنا منه. 0:00:05.480,0:00:08.520 هو في الواقع الفشل في تحرِّي نوع محدد[br]من الخطر. 0:00:09.360,0:00:11.096 سوف أقوم بوصف سيناريو 0:00:11.120,0:00:14.376 أظنه مخيفاً 0:00:14.400,0:00:16.160 ومن المرجح أن يحدث، 0:00:16.840,0:00:18.496 وهذا ليس مزيجاً جيداً، 0:00:18.520,0:00:20.056 كما سيبدو. 0:00:20.080,0:00:22.536 ومع ذلك، بدلاً من الخوف، سيشعر معظمكم 0:00:22.560,0:00:24.640 بأن ما أتحدُّث عنه مثير نوعاً ما. 0:00:25.200,0:00:28.176 سأقوم بوصف كيف أن المكاسب التي نحصل عليها 0:00:28.200,0:00:29.976 من الذكاء الاصطناعي 0:00:30.000,0:00:31.776 يمكن في النهاية أن تدمرنا. 0:00:31.800,0:00:35.256 وفي الواقع، أظنه من الصعب جداً أن نرى[br]كيف أنها لن تدمرنا 0:00:35.280,0:00:36.960 أو تلهمنا أن ندمر أنفسنا. 0:00:37.400,0:00:39.256 ومع ذلك إذا كنتم تشبهونني في شيء 0:00:39.280,0:00:41.936 فستجدون أنه من الممتع التفكير[br]بهذه الأشياء. 0:00:41.960,0:00:45.336 وتلك الإجابة هي جزء من المشكلة. 0:00:45.360,0:00:47.080 حسناً؟ تلك الإجابة يجب أن تُقلقكم. 0:00:47.920,0:00:50.576 وإذا كان عليَّ أن أقنعكم في هذه المحادثة 0:00:50.600,0:00:54.016 أنه من المرجح أننا سوف نعاني من[br]مجاعة عالمية 0:00:54.040,0:00:57.096 إما بسبب تغيُّر المناخ، أو بسبب[br]كارثة أخرى، 0:00:57.120,0:01:00.536 وأن أحفادكم، أو أحفادهم، 0:01:00.560,0:01:02.360 من المرجح جداً أن يعيشوا، هكذا 0:01:03.200,0:01:04.400 فلن يخطر ببالكم. 0:01:05.440,0:01:06.776 "مثير للاهتمام". 0:01:06.800,0:01:08.000 تعجبني محادثة TED هذه. 0:01:09.200,0:01:10.720 المجاعة ليست مسلية. 0:01:11.800,0:01:15.176 الموت عن طريق الخيال العلمي، من ناحية[br]أخرى، مسلٍّ، 0:01:15.200,0:01:19.176 وأحد الأشياء التي تقلقني للغاية بسبب تطور[br]الذكاء الاصطناعي عند هذه النقطة 0:01:19.200,0:01:23.296 هي أننا نبدو وكأننا غير قادرين على إبداء[br]استجابة عاطفية ملائمة 0:01:23.320,0:01:25.136 للأخطار التي تنتظرنا. 0:01:25.160,0:01:28.360 أنا غير قادر على إبداء هذه الاستجابة،[br]وأنا أقوم بهذه المحادثة. 0:01:30.120,0:01:32.816 يبدو الأمر وكأننا نقف أمام بابين. 0:01:32.840,0:01:34.096 خلف الباب رقم واحد، 0:01:34.120,0:01:37.416 نتوقف عن تحقيق التقدُّم في بناء الآليات[br]الذكية. 0:01:37.440,0:01:41.456 معدات حاسوبنا وبرمجياته تتوقف عن التحسن[br]لسببٍ ما وحسب. 0:01:41.480,0:01:44.480 خذوا الآن لحظة للتفكير لماذا قد يحدث ذلك. 0:01:45.080,0:01:48.736 أعني، بافتراض مدى نفع الذكاء والأتمتة، 0:01:48.760,0:01:52.280 فإننا سنستمر بتحسين التكنولوجيا الخاصة بنا[br]إذا كان بإمكاننا أصلاً. 0:01:53.200,0:01:54.867 ما الذي قد يمنعنا من فعل هذا؟ 0:01:55.800,0:01:57.600 حربٌ نووية على جميع المقاييس؟ 0:01:59.000,0:02:00.560 وباء عالمي؟ 0:02:02.320,0:02:03.640 اصطدام كويكب؟ 0:02:05.640,0:02:08.216 أن يصبح جاستن بيبر رئيساً[br]للولايات المتحدة؟ 0:02:08.240,0:02:10.520 (ضحك) 0:02:12.760,0:02:16.680 الخلاصة هي، شيءٌ ما عليه تدمير[br]الحضارة كما نعرفها. 0:02:17.360,0:02:21.656 عليكم تخيُّل كم عليه أن يكون سيئاً 0:02:21.680,0:02:25.016 لكي يمنعنا من تحقيق تحسينات في[br]التكنولوجيا الخاصة بنا 0:02:25.040,0:02:26.256 بشكل دائم، 0:02:26.280,0:02:28.296 جيلاً بعد جيل. 0:02:28.320,0:02:30.456 تقريباً بالتعريف، هذا أسوأ شيء 0:02:30.480,0:02:32.496 يمكن أن يحصل في تاريخ البشرية. 0:02:32.520,0:02:33.816 لذا البديل الوحيد، 0:02:33.840,0:02:36.176 وهو الذي يوجد خلف الباب رقم اثنين، 0:02:36.200,0:02:39.336 هو أن نستمر بتحسين آلاتنا الذكية 0:02:39.360,0:02:40.960 سنة بعد سنة بعد سنة. 0:02:41.720,0:02:45.360 وعند نقطة معينة، سنبني آلياتٍ أذكى[br]مما نحن عليه، 0:02:46.080,0:02:48.696 وحالما يصبح لدينا آليات أذكى مننا، 0:02:48.720,0:02:50.696 سوف تبدأ بتحسين نفسها. 0:02:50.720,0:02:53.456 وعندها سنواجه ما دعاه عالم [br]الرياضيات IJ Good 0:02:53.480,0:02:55.256 "انفجاراً ذكائياً" 0:02:55.280,0:02:57.280 وأن العملية يمكن أن تفلت من بين أيدينا. 0:02:58.120,0:03:00.936 الآن، هذا يتم عمله كرسم كاريكاتيري، [br]كما أفعل هنا 0:03:00.960,0:03:04.176 كخوفٍ من جيوش ميليشيا من الرجال الآليين 0:03:04.200,0:03:05.456 التي ستهاجمنا. 0:03:05.480,0:03:08.176 ولكن هذا ليس السيناريو الأكثر احتمالاً. 0:03:08.200,0:03:13.056 الأمر ليس أن آلياتنا ستصبح حاقدة بشكل عفوي 0:03:13.080,0:03:15.696 المقلق حقاً هو أننا نبني آليات 0:03:15.720,0:03:17.776 أكثر كفاءة مما نحن عليه 0:03:17.800,0:03:21.576 وأن أقل اختلاف بين أهدافها وأهدافنا 0:03:21.600,0:03:22.800 يمكن أن يدمرنا. 0:03:23.960,0:03:26.040 فقط فكروا بكيفية علاقتنا بالنمل 0:03:26.600,0:03:28.256 نحن لا نكرههم. 0:03:28.280,0:03:30.336 ولا نخرج عن طريقنا لنؤذيهم. 0:03:30.360,0:03:32.736 في الواقع، أحياناً نتحمل آلاماً لكي[br]لا نؤذيهم. 0:03:32.760,0:03:34.776 نحن نمشي من فوقهم على الرصيف. 0:03:34.800,0:03:36.936 ولكن عندما يكون لوجودهم 0:03:36.960,0:03:39.456 تعارض جدِّي مع أحد أهدافنا، 0:03:39.480,0:03:41.957 لنقل مثلاً عند إنشاء بناء كهذا، 0:03:41.981,0:03:43.941 نقوم بإبادتهم بدون أي تأنيب ضمير. 0:03:44.480,0:03:47.416 والقلق من أننا يوماً ما سوف نبني آليات 0:03:47.440,0:03:50.176 والتي، سواءٌ كانت مدركة أم لا، 0:03:50.200,0:03:52.200 قد تعاملنا بمثل هذا الاستخفاف. 0:03:53.760,0:03:56.520 والآن، أنا أشك أن هذا أبعد ما يكون[br]عن العديد منكم. 0:03:57.360,0:04:03.696 وأراهن على أن هنالك منكم من يشك أن الذكاء[br]الاصطناعي الخارق الذكاء ممكن، 0:04:03.720,0:04:05.376 أو حتى محتوم. 0:04:05.400,0:04:09.020 ولكن مع ذلك يجب عليكم أن تجدوا شيئاً ما [br]خاطئاً في أحد الافتراضات التالية. 0:04:09.044,0:04:10.616 وهنالك ثلاثة منهم. 0:04:11.800,0:04:16.519 الذكاء هو مسألة معالجة للمعلومات في[br]الأنظمة الفيزيائية. 0:04:17.320,0:04:19.935 في الواقع، هذا أكثر بقليل من مجرد افتراض. 0:04:19.959,0:04:23.416 نحن قمنا مسبقاً ببناء ذكاء محدود[br]في آلياتنا، 0:04:23.440,0:04:25.456 والعديد من هذه الآليات تقوم بالأداء 0:04:25.480,0:04:28.120 في مستوى الذكاء البشري الخارق أصلاً. 0:04:28.840,0:04:31.416 ونعلم أن المادة المجردة 0:04:31.440,0:04:34.056 بإمكانها أن تعطي زيادة لما يدعى[br]"بالذكاء العام"، 0:04:34.080,0:04:37.736 القدرة على التفكير بمرونة في عدة مجالات، 0:04:37.760,0:04:40.896 لأن دماغنا قام بتدبر الأمر. صحيح؟ 0:04:40.920,0:04:44.856 أنا أعني، هناك ذرات فقط هنا، 0:04:44.880,0:04:49.376 وطالما نستمر ببناء أنظمة من الذرات 0:04:49.400,0:04:52.096 والتي تُبدي سلوكاً متزايداً أكثر[br]وأكثر من الذكاء 0:04:52.120,0:04:54.656 فإننا في النهاية، إلا إذا تمَّت مقاطعتنا، 0:04:54.680,0:04:58.056 في النهاية سوف نبني ذكاءً عاماً 0:04:58.080,0:04:59.376 في آلياتنا. 0:04:59.400,0:05:03.056 من المصيري أن ندرك أن معدل التطور لا يهم، 0:05:03.080,0:05:06.256 لأن أي تطور هو كافٍ لإيصالنا إلى [br]منطقة النهاية. 0:05:06.280,0:05:10.056 لا نحتاج قانون Moore للاستمرار.[br]لا نحتاج التطور الأسي. 0:05:10.080,0:05:11.680 نحتاج فقط لأن نستمر بالمضي قدماً 0:05:13.480,0:05:16.400 الافتراض الثاني هو أننا سنستمر[br]بالمضي قدماً. 0:05:17.000,0:05:19.760 سنستمر بتحسين آلياتنا الذكية. 0:05:21.000,0:05:25.376 وبافتراض أهمية الذكاء -- 0:05:25.400,0:05:28.936 أنا أعني، أن الذكاء هو إما مصدر [br]لكل شيءٍ نقدِّره 0:05:28.960,0:05:31.736 أو أننا نحتاجه لحماية كل شيءٍ نقدُّره. 0:05:31.760,0:05:34.016 إنه المنبع الأكثر أهمية لدينا. 0:05:34.040,0:05:35.576 لذلك نحتاج لفعل التالي. 0:05:35.600,0:05:38.936 لدينا مشاكل نحن بحاجة ماسِّة لحلها. 0:05:38.960,0:05:42.160 نريد شفاء الأمراض كالزهايمر والسرطان. 0:05:42.960,0:05:46.896 نريد أن نفهم الأنظمة الاقتصادية.[br]نريد تحسين علم المناخ الخاص بنا. 0:05:46.920,0:05:49.176 لذلك سنفعل ذلك، إذا استطعنا. 0:05:49.200,0:05:52.486 القطار غادر المحطة بالفعل، ولا[br]يوجد مكابح لشدها. 0:05:53.880,0:05:59.336 وأخيراً، نحن لا نقف عند قمة الذكاء، 0:05:59.360,0:06:01.160 أو في أي مكان قريب منها، على ما يبدو، 0:06:01.640,0:06:03.536 وهذا حقاً هو البصيرة المصيرية. 0:06:03.560,0:06:05.976 هذا ما يجعل موقفنا متزعزعاً للغاية، 0:06:06.000,0:06:10.040 وهذا ما يجعل حدسنا بما يخص[br]الخطورة لا يُعتمد عليه أبداً. 0:06:11.120,0:06:13.840 والآن، فكروا فقط بأذكى شخص[br]عاش في أي وقتٍ مضى. 0:06:14.640,0:06:18.056 تقريباً على قائمة الجميع القصيرة [br]يوجد John von Neumann. 0:06:18.080,0:06:21.416 أعني، الانطباع الذي تركه von Neumann [br]على الناس المحيطين به، 0:06:21.440,0:06:25.496 وهذا يشمل أعظم علماء الرياضيات [br]والفيزياء في عصره، 0:06:25.520,0:06:27.456 بالكاد تم توثيقه بشكل جيد. 0:06:27.480,0:06:31.256 إذا كانت نصف القصص فقط عنه نصف صحيحة، 0:06:31.280,0:06:32.496 فلا يوجد شك 0:06:32.520,0:06:34.976 أنه أحد أذكى الأشخاص الذين عاشوا[br]في أي وقتٍ مضى. 0:06:35.000,0:06:37.520 لذلك باعتبار طيف الذكاء. 0:06:38.320,0:06:39.749 هنا لدينا John von Neumann. 0:06:41.560,0:06:42.894 وهنا لدينا أنتم وأنا. 0:06:44.120,0:06:45.416 وثم هنا لدينا دجاجة. 0:06:45.440,0:06:47.376 (ضحك) 0:06:47.400,0:06:48.616 آسف، دجاجة. 0:06:48.640,0:06:49.896 (ضحك) 0:06:49.920,0:06:53.656 لا يوجد سبب يجعلني أجعل هذه المحادثة أكثر[br]إحباطاً مما يحتاجه الأمر. 0:06:53.680,0:06:55.280 (ضحك) 0:06:56.339,0:06:59.816 يبدو أنه ساحق على الأرجح، ومع ذلك، يمتد[br]طيف الذكاء 0:06:59.840,0:07:02.960 أبعد بكثير مما نتصور حالياً، 0:07:03.880,0:07:07.096 وإذا قمنا ببناء آلات أذكى مما نحن عليه، 0:07:07.120,0:07:09.416 فهي على الأرجح ستستكشف الطيف 0:07:09.440,0:07:11.296 بطرقٍ لا نستطيع تخيلها، 0:07:11.320,0:07:13.840 وسف تتعدانا بطرقٍ لا يمكننا تخيلها. 0:07:15.000,0:07:19.336 ومن المهم أن ندرك أن هذا صحيح بخصوص [br]تأثير السرعة وحدها. 0:07:19.360,0:07:24.416 صحيح؟ إذاً تخيلوا إذا بنينا ذكاءً صنعياً [br]خارق الذكاء 0:07:24.440,0:07:27.896 ولم يكن أذكى من فريق الباحثين العادي[br]الخاص بكم 0:07:27.920,0:07:30.216 في ستانفورد أو معهد ماساتشوستس[br]للتكنولوجيا. 0:07:30.240,0:07:33.216 حسناً، الدارات الالكترونية تعمل بشكل أسرع [br]بحوالي ملايين المرات 0:07:33.240,0:07:34.496 من تلك الكيميائية الحيوية، 0:07:34.520,0:07:37.656 لذا هذه الآلة يجب أن تفكر أسرع بملايين[br]المرات 0:07:37.680,0:07:39.496 من العقول التي قامت ببنائها. 0:07:39.520,0:07:41.176 لذا إذا تركتها تعمل لمدة أسبوع، 0:07:41.200,0:07:45.760 فسوف تؤدي ما يعادل 20,000 سنة من[br]العمل بمستوى الذكاء البشري، 0:07:46.400,0:07:48.360 أسبوع بعد أسبوع بعد أسبوع. 0:07:49.640,0:07:52.736 كيف بإمكاننا حتى أن نفهم،[br]أو حتى أن نُقيّد، 0:07:52.760,0:07:55.040 عقلاً يصنع هذا النوع من التطور؟ 0:07:56.840,0:07:58.976 والأمر الآخر المقلق، بصراحة، 0:07:59.000,0:08:03.976 هو أن، تخيل أفضل سيناريو. 0:08:04.000,0:08:08.176 إذاً تخيلوا أننا اكتشفنا تصميماً للذكاء[br]الصنعي فائق الذكاء 0:08:08.200,0:08:09.576 وليس لديه مخاوف سلامة. 0:08:09.600,0:08:12.856 لدينا التصميم المثالي للمرة الأولى. 0:08:12.880,0:08:15.096 وكأنه تم تسليمنا نبوءة 0:08:15.120,0:08:17.136 تتصرَّف تماماً كما ينبغي عليها. 0:08:17.160,0:08:20.880 هذه الآلة ستكون المثلى لتوفير العمالة. 0:08:21.680,0:08:24.109 بإمكانها تصميم آلية ستقوم ببناء الآلة 0:08:24.133,0:08:25.896 التي بإمكانها القيام بأي عمل فيزيائي، 0:08:25.920,0:08:27.376 تعمل بضوء الشمس، 0:08:27.400,0:08:30.096 ومهما يكن من أجل كلفة المواد الخام. 0:08:30.120,0:08:33.376 إذاً نحن نتكلم عن نهاية الكدح البشري. 0:08:33.400,0:08:36.200 نحن أيضا نتكلم عن نهاية العمل الذكائي. 0:08:37.200,0:08:40.256 فماذا قد تفعل القرود أمثالنا في هذا الظرف؟ 0:08:40.280,0:08:44.360 حسناً، سنكون متفرغين للعب بالصحن الطائر [br]وتبادل الرسائل مع بعضنا. 0:08:45.840,0:08:48.696 أضف بعض الـLSD[br]مع اختيارات اللباس المشكوك بأمرها، 0:08:48.720,0:08:50.896 وبإمكان العالم كله أن يصبح[br]كفيلم Burning Man. 0:08:50.920,0:08:52.560 (ضحك) 0:08:54.320,0:08:56.320 حسناً، هذا قد يبدو جيداً جداً، 0:08:57.280,0:08:59.656 ولكن اسألوا أنفسكم ماذا قد يسبب هذا 0:08:59.680,0:09:02.416 لاقتصادنا الحالي ووضعنا السياسي؟ 0:09:02.440,0:09:04.856 يبدو أننا سنشهد على الأرجح 0:09:04.880,0:09:09.016 مستوى من تفاوت الثروات والبطالة 0:09:09.040,0:09:10.536 الذي لم نشهده أبداً من قبل 0:09:10.560,0:09:13.176 غياب الرغبة لوضع هذه الثروة الجديدة فوراً 0:09:13.200,0:09:14.680 في خدمة جميع البشرية، 0:09:15.640,0:09:19.256 بعض أصحاب التريليونات سوف يُشرِّفون[br]أغلفة مجلات أعمالنا 0:09:19.280,0:09:21.720 بينما يكون باقي العالم متفرغاً لكي [br]يتضور جوعاً. 0:09:22.320,0:09:24.616 وماذا سيفعل الروس أو الصينيون 0:09:24.640,0:09:27.256 إذا سمعوا أن شركةً ما في Silicon Valley 0:09:27.280,0:09:30.016 كانت على وشك نشر الذكاء الا [br]فائق الذكاء؟ 0:09:30.040,0:09:32.896 هذه الآلة ستكون قادرة على شن حرب، 0:09:32.920,0:09:35.136 سواء كانت على الأرض أو على الإنترنت، 0:09:35.160,0:09:36.840 بقوة غير مسبوقة. 0:09:38.120,0:09:39.976 هذا السيناريو هو الذي يربح كل شيء 0:09:40.000,0:09:43.136 أن تكون متقدماً بستة أشهر على[br]المنافسة في هذه الحالة 0:09:43.160,0:09:45.936 تعني أن تكون متقدماً بـ500,000 سنة، 0:09:45.960,0:09:47.456 بأقل حد. 0:09:47.480,0:09:52.216 وبالتالي يبدو أنه حتى الإشاعات المحضة [br]بما يخص النوع من الاكتشافات 0:09:52.240,0:09:54.616 يمكن أن تجعل فصائلنا تهتاج. 0:09:54.640,0:09:57.536 والآن، أكثر الأشياء إخافة، 0:09:57.560,0:10:00.336 من وجهة نظري، في هذه اللحظة، 0:10:00.360,0:10:04.656 هي النوع من الأشياء التي يقولها باحثو[br]الذكاء الاصطناعي عندما 0:10:04.680,0:10:06.240 يريدون أن يكونوا مُطمئِنين. 0:10:07.000,0:10:10.456 والسبب الأكثر شيوعاً الذي يُقال لنا[br]ألا نقلق بسببه هو الوقت 0:10:10.480,0:10:12.536 هذا كله سيمر، ألا تعلم. 0:10:12.560,0:10:15.000 هذا من المحتمل بعد 50 أو 100 سنة. 0:10:15.720,0:10:16.976 قال أحد الباحثين، 0:10:17.000,0:10:18.576 "القلق بشأن سلامة[br]الذكاء الاصطناعي 0:10:18.600,0:10:20.880 هو كالقلق بشأن زيادة[br]التعداد السكاني على المريخ" 0:10:22.116,0:10:23.736 هذه نسخة Silicon Valley 0:10:23.760,0:10:26.136 من "لا تُقلق رأسك الجميل الصغير بهذا". 0:10:26.160,0:10:27.496 (ضحك) 0:10:27.520,0:10:29.416 لا يبدو أن أحداً يلاحظ 0:10:29.440,0:10:32.056 أن الإشارة للحد الزمني 0:10:32.080,0:10:34.656 ليس له عواقب بتاتاً. 0:10:34.680,0:10:37.936 إذا كان الذكاء هو مجرد مسألة معالجة[br]معلومات، 0:10:37.960,0:10:40.616 ونحن نستمر بتحسين آلياتنا، 0:10:40.640,0:10:43.520 فسنقوم بإنتاج شكلٍ ما من الذكاء الفائق. 0:10:44.320,0:10:47.976 وليس لدينا فكرة كم سيستغرق هذا مننا 0:10:48.000,0:10:50.400 لخلق الشروط للقيام بذلك بأمان. 0:10:52.200,0:10:53.496 دعوني أقل ذلك مرة أخرى. 0:10:53.520,0:10:57.336 ليس لدينا فكرة كم سيستغرق الأمر مننا 0:10:57.360,0:10:59.600 لخلق الشروط للقيام بذلك بأمان. 0:11:00.920,0:11:04.376 وإذا لم تلاحظوا،[br]لم تعد الخمسون سنة كما كانت عليه. 0:11:04.400,0:11:06.856 هذه 50 سنة في أشهر. 0:11:06.880,0:11:08.720 هذه المدة التي امتلكنا فيها الـiPhone 0:11:09.440,0:11:12.040 هذه المدة التي انعرض فيها[br]The Simpsons على التلفاز 0:11:12.680,0:11:15.056 خمسون سنة هي ليست بالوقت الكثير 0:11:15.080,0:11:18.240 لمواجهة أحد أكبر التحديات الذي سيواجه[br]لفصيلتنا. 0:11:19.640,0:11:23.656 مرة أخرى، يبدو أننا نفشل في امتلاك[br]الاستجابة العاطفية الملائمة 0:11:23.680,0:11:26.376 لما يوجد لدينا أكثر من سبب للإيمكان[br]بأنه قادم 0:11:26.400,0:11:30.376 عالم الحاسوب Stuart Russell[br]لديه تحليل لطيف هنا. 0:11:30.400,0:11:35.296 هو يقول، تخيلوا أننا استلمنا رسالة من[br]حضارة الفضائيين، 0:11:35.320,0:11:37.016 والتي كانت: 0:11:37.040,0:11:38.576 "سكان الأرض، 0:11:38.600,0:11:40.960 سوف نصل إلى كوكبكم خلال 50 سنة. 0:11:41.800,0:11:43.376 استعدوا." 0:11:43.400,0:11:47.656 والآن نقوم بالعد التنازلي للأشهر حتى تهبط[br]السفينة الأم؟ 0:11:47.680,0:11:50.680 سنشعر بالعجلة أكثر مما نفعل الآن بقليل. 0:11:52.680,0:11:54.536 يُقال لنا ألا نقلق لسببٍ آخر 0:11:54.560,0:11:57.576 هو أن هذه الآليات ليس بوسعها[br]إلا مشاركتنا منافعها 0:11:57.600,0:12:00.216 لأنها ستكون حرفياً امتداداً لأنفسنا. 0:12:00.240,0:12:02.056 ستكون مُطعَّمة مع أدمغتنا، 0:12:02.080,0:12:04.440 ونحن سنصبح جوهرياً أنظمتها الحوفية. 0:12:05.120,0:12:06.536 الآن خذوا لحظة للتفكير 0:12:06.560,0:12:09.736 أن الطريق الوحيد الآمن والحكيم للأمام، 0:12:09.760,0:12:11.096 الذي يُنصح به، 0:12:11.120,0:12:13.920 هو زرع هذه التكنولوجيا مباشرةً في أدمغتنا. 0:12:14.600,0:12:17.976 قد يكون الطريق الوحيد[br]الآمن والحكيم للأمام، 0:12:18.000,0:12:21.056 ولكن عادةً يكون للمرء مخاوف[br]عن كون التكنولوجيا 0:12:21.080,0:12:24.736 مفهومة لحدٍّ ما قبل أن تدخلها داخل رأسك. 0:12:24.760,0:12:26.776 (ضحك) 0:12:26.800,0:12:32.136 المشكلة الأعمق أن بناء ذكاء اصطناعي فائق[br]الذكاء بمفرده 0:12:32.160,0:12:33.896 يبدو على الأرجح أنه أسهل 0:12:33.920,0:12:35.776 من بناء ذكاء اصطناعي فائق[br]الذكاء 0:12:35.800,0:12:37.576 وامتلاك علم الأعصاب الكامل 0:12:37.600,0:12:40.280 الذي يسمح لنا بمكاملة عقولنا معه بسلاسة. 0:12:40.800,0:12:43.976 وبافتراض أن الشركات والحكومات[br]التي تقوم بهذا العمل 0:12:44.000,0:12:47.656 على الأرجح ستعي كونها في سباق ضد [br]الآخرين جميعاً، 0:12:47.680,0:12:50.936 وبافتراض أن الفوز في هذا السباق[br]هو الفوز بالعالم، 0:12:50.960,0:12:53.416 بفرض أنك لن تدمره في الشهر التالي، 0:12:53.440,0:12:56.056 فبالتالي يبدو على الأرجح أنه مهما يكن[br]الأسهل فعله 0:12:56.080,0:12:57.280 سيتم الانتهاء منه أولاً. 0:12:58.560,0:13:01.416 الآن، لسوء الحظ، لا أمتلك حلاً لهذه[br]المشكلة، 0:13:01.440,0:13:04.056 بمعزل عن توصية أن يفكِّر المزيد مننا به. 0:13:04.080,0:13:06.456 أظن أننا بحاجة شيء ما مثل "مشروع مانهاتن" 0:13:06.480,0:13:08.496 لموضوع الذكاء الاصطناعي. 0:13:08.520,0:13:11.256 ليس لبنائه، لأنني أظننا سنفعل ذلك حتماً، 0:13:11.280,0:13:14.616 ولكن لفهم كيفية تجنب سباق الأذرع 0:13:14.640,0:13:18.136 ولبنائه بطريقة منحازة مع اهتماماتنا. 0:13:18.160,0:13:20.296 عندما تتحدث عن ذكاء اصطناعي فائق[br]الذكاء 0:13:20.320,0:13:22.576 يمكنه إحداث تغيير لنفسه، 0:13:22.600,0:13:27.216 يبدو أن لدينا فرصة واحدة للقيام بالشروط [br]الابتدائية بشكل صحيح، 0:13:27.240,0:13:29.296 وحتى حينها سنكون بحاجة امتصاص 0:13:29.320,0:13:32.360 العواقب الاقتصادية والسياسية من القيام[br]بها بشكل صحيح. 0:13:33.760,0:13:35.816 ولكن في اللحظة التي نعترف فيها 0:13:35.840,0:13:39.840 أن معالجة المعلومات هي مصدر الذكاء، 0:13:40.720,0:13:45.520 وأن بعض أنظمة الحاسوب الملائمة[br]تُعبِّر عن أساس الذكاء، 0:13:46.360,0:13:50.120 ونعترف أننا سوف نحسِّن هذه الأنظمة [br]باستمرار، 0:13:51.280,0:13:55.736 ونعترف أن أفق الإدراك على الأرجح يتجاوز 0:13:55.760,0:13:56.960 الذي نعرفه حالياً بكثير، 0:13:58.120,0:13:59.336 وبالتالي علينا الاعتراف 0:13:59.360,0:14:02.000 أننا في مرحلة بناء نوع ما من الآلهة. 0:14:03.400,0:14:04.976 الآن سيكون وقتاً جيداً 0:14:05.000,0:14:06.953 للتأكد من أنه إله نستطيع العيش معه. 0:14:08.120,0:14:09.656 شكراً جزيلاً لكم. 0:14:09.680,0:14:14.773 (تصفيق)