1 00:00:01,041 --> 00:00:04,175 مرحبا أُدعى (جوي)، أَنظُم الشعر على الحاسوب 2 00:00:04,199 --> 00:00:09,192 في مهمة لردع قوة ناشئة غير مرئية، 3 00:00:09,216 --> 00:00:12,072 قوة أسميتها "النظرة المشفرَّة،" 4 00:00:12,096 --> 00:00:15,405 مصطلح أطلقه عن تحيز الخوارزمية. 5 00:00:15,429 --> 00:00:19,729 تحيز الخوارزمية مثل تحيز البشر يؤدي إلى الإجحاف. 6 00:00:19,753 --> 00:00:25,775 برغم ذلك، الخوارزميات مثل الفيروسات يتفشى فيها التحيز على مستوى واسع 7 00:00:25,799 --> 00:00:27,381 بخطى سريعة. 8 00:00:27,943 --> 00:00:32,330 تحيز الخوارزمية قد يُفضِي إلى وقوع حوادث إقصائية 9 00:00:32,354 --> 00:00:34,482 و ممارسات تمييزية. 10 00:00:34,506 --> 00:00:36,567 دعوني أوضح ما أعنيه. 11 00:00:36,980 --> 00:00:39,416 (فيديو): أهلا بالكاميرا. لدي وجه. 12 00:00:40,162 --> 00:00:42,026 هل ترون وجهي؟ 13 00:00:42,051 --> 00:00:43,676 وجه بلا نظارات؟ 14 00:00:43,701 --> 00:00:45,915 تستطيع رؤية وجهها. 15 00:00:46,237 --> 00:00:48,482 ماذا عن وجهي؟ 16 00:00:51,890 --> 00:00:55,640 لدي قناع. هل ترى قناعي؟ 17 00:00:56,474 --> 00:00:58,839 إذن كيف حدث هذا؟ 18 00:00:58,863 --> 00:01:02,004 لمَ أجلس أمام حاسوب 19 00:01:02,028 --> 00:01:03,452 أضع قناعًا أبيض، 20 00:01:03,476 --> 00:01:07,126 أحاول أن تكتشفني كاميرا ويب زهيدة؟ 21 00:01:07,150 --> 00:01:09,441 حسنا عندما لا أقاوم النظرة المشفرة 22 00:01:09,465 --> 00:01:10,985 بصفتي شاعرة أستخدم التشفير، 23 00:01:11,009 --> 00:01:14,281 أنا طالبة دراسات عليا في إم آي تي ميديا لاب، 24 00:01:14,305 --> 00:01:19,222 و هناك لدي الفرصة للعمل على جميع أنواع المشروعات الغريبة، 25 00:01:19,246 --> 00:01:21,273 بما في ذلك ( أسباير ميرور)، 26 00:01:21,297 --> 00:01:26,431 مشروع قمت به لأرسم أقنعة رقْمية على انعكاسي. 27 00:01:26,455 --> 00:01:28,805 لذا في الصباح إذا أردت الشعور بالقوة، 28 00:01:28,829 --> 00:01:30,263 أستطيع أن أضع قناع أسد. 29 00:01:30,287 --> 00:01:33,783 إذا أردت أن أرفع معنوياتي، قد أحصل على اقتباس. 30 00:01:33,807 --> 00:01:36,796 لذا استخدمت برمجة موسعة للتعرف على الوجه 31 00:01:36,820 --> 00:01:38,171 لبناء النظام، 32 00:01:38,195 --> 00:01:43,298 لكني وجدت أنه من الصعب اختباره مالم أضع قناعًا. 33 00:01:44,282 --> 00:01:48,628 لسوء الحظ واجهتني هذه المسألة من قبل. 34 00:01:48,652 --> 00:01:52,955 عندما كنت طالبة في جامعة جورجيا التقنية أدرس علوم الحاسب، 35 00:01:52,979 --> 00:01:55,034 اعتدت العمل على الروبوتات الاجتماعية، 36 00:01:55,058 --> 00:01:58,835 و إحدى مهامي كانت أن أجعل روبوت يلعب بيكابو (لعبة الاختفاء)، 37 00:01:58,859 --> 00:02:00,542 لعبة بسيطة لتناوب الأدوار 38 00:02:00,566 --> 00:02:04,887 حيث يغطي الشخص وجهه عن شريكه ثم يكشفه قائلا، "بيكابو!" 39 00:02:04,911 --> 00:02:09,340 المشكلة أن هذه اللعبة لا تعمل حقيقةً إذا لم أستطع رؤيتك، 40 00:02:09,364 --> 00:02:11,863 و روبوتي لا يستطيع رؤيتي. 41 00:02:11,887 --> 00:02:15,837 لكني استعنت بوجه زميلتي بالسكن لكي أنهي المشروع، 42 00:02:15,861 --> 00:02:17,241 وقدمت المَهًمّة، 43 00:02:17,265 --> 00:02:21,018 ووجدت أن شخصا آخر قد حل هذه المشكلة. 44 00:02:21,669 --> 00:02:23,672 ليس بعد وقت طويل حينها، 45 00:02:23,696 --> 00:02:27,855 كنت في هونغ كونغ لأجل مسابقة في ريادة الأعمال. 46 00:02:28,339 --> 00:02:31,033 قرر المنظمون أن يأخذوا المشاركين 47 00:02:31,057 --> 00:02:33,429 في جولة للشركات الناشئة المحلية. 48 00:02:33,453 --> 00:02:36,168 إحدى هذه الشركات كان لديها روبوت اجتماعي، 49 00:02:36,192 --> 00:02:38,104 و قرروا استخدام عرض توضيحي. 50 00:02:38,128 --> 00:02:41,108 عمل العرض التوضيحي مع الجميع حتى جاء دوري، 51 00:02:41,132 --> 00:02:43,055 ربما تستطيع تخيل الأمر. 52 00:02:43,079 --> 00:02:46,044 لم يتعرف على وجهي. 53 00:02:46,068 --> 00:02:48,579 سألت المطورين عما يحدث، 54 00:02:48,603 --> 00:02:54,136 واتضح أننا استخدمنا نفس البرمجة العامة للتعرف على الوجه. 55 00:02:54,160 --> 00:02:55,810 جبت نصف العالم، 56 00:02:55,834 --> 00:02:59,686 لأعلم أن تحيز الخوارزمية يستطيع الانتقال بسرعة 57 00:02:59,710 --> 00:03:02,880 قدر ما يأخذه الوقت لتحميل بعض الملفات من شبكة الانترنت. 58 00:03:03,745 --> 00:03:06,821 إذن ما الذي يحدث؟ لم لا يتعرف على وجهي؟ 59 00:03:06,845 --> 00:03:10,201 حسنا، علينا أن ننظر إلى كيفية تفعيل حاسة البصر عند الآلات. 60 00:03:10,225 --> 00:03:13,634 يستخدم البصر الحاسوبي تقنيات خاصة بتعلم الآلة 61 00:03:13,658 --> 00:03:15,538 للقيام بالتعرف على الوجه. 62 00:03:15,562 --> 00:03:19,459 إذن يتفعل هذا بإنشاء جهاز تدريب مزود بأمثلة للأوجه. 63 00:03:19,483 --> 00:03:22,301 هذا وجه. هذا وجه. هذا ليس بوجه. 64 00:03:22,325 --> 00:03:26,844 وبمرور الوقت، يتعلم الحاسوب كيف يتعرف على وجوه أخرى. 65 00:03:26,868 --> 00:03:30,857 برغم ذلك، إذا لم تكن أجهزة التدريب متنوعة، 66 00:03:30,881 --> 00:03:34,230 ووجد وجه يختلف كثيرا عن النمط القائم 67 00:03:34,254 --> 00:03:35,903 سيكون أصعب في التعرف عليه، 68 00:03:35,927 --> 00:03:37,890 الأمر الذي حدث معي. 69 00:03:37,914 --> 00:03:40,296 لكن لا تقلقوا -- هناك أخبار جيدة. 70 00:03:40,320 --> 00:03:43,091 أجهزة التدريب لا تحقق إنجازًا من لاشيء. 71 00:03:43,115 --> 00:03:44,903 نستطيع بالفعل أن ننشئهم. 72 00:03:44,927 --> 00:03:49,103 إذن هناك فرصة لإنتاج أجهزة تدريب تمسح الطيف الكامل 73 00:03:49,127 --> 00:03:52,951 التي تعكس صورا تُثري الإنسانية أكثر. 74 00:03:52,975 --> 00:03:55,196 الآن قد رأيتم في أمثلتي 75 00:03:55,220 --> 00:03:56,988 كيف أن الروبوتات الاجتماعية 76 00:03:57,012 --> 00:04:01,623 كشفت لي الإقصاء المنتهج في تحيز الخوارزمية. 77 00:04:01,647 --> 00:04:06,462 لكن قد يؤدي تحيز الخوارزمية إلى الممارسات التمييزية أيضا. 78 00:04:07,437 --> 00:04:08,890 عبر الولايات المتحدة، 79 00:04:08,914 --> 00:04:13,112 بدأت أقسام الشرطة في استخدام برمجة التعرف على الوجه 80 00:04:13,136 --> 00:04:15,595 كسلاح لمكافحة الجريمة. 81 00:04:15,619 --> 00:04:17,632 نشرت كلية حقوق جورج تاون تقريراً 82 00:04:17,656 --> 00:04:24,419 يظهر أن بالغاً من كل اثنين في الولايات المتحدة -- حوالى 117 مليون نسمة -- 83 00:04:24,443 --> 00:04:27,977 توجد بصمة وجهه في شبكات التعرف على الوجه. 84 00:04:28,001 --> 00:04:32,553 تتمكن أقسام الشرطة حالياً من تفحص هذه الشبكات بطريقة غير منظمة، 85 00:04:32,577 --> 00:04:36,863 باستخدام خوارزميات لم يراع فيها الدقة. 86 00:04:36,887 --> 00:04:40,751 حتى الآن لم يثبَت فشل التعرف على الوجه، 87 00:04:40,775 --> 00:04:44,954 ويظل تصنيف الوجوه تحدياً مستمراً. 88 00:04:44,978 --> 00:04:46,740 قد تكون رأيت هذا في فيسبوك. 89 00:04:46,764 --> 00:04:49,752 أضحك كثيرا أنا وأصدقائي عندما نرى الآخرين 90 00:04:49,776 --> 00:04:52,234 غير مصنَّفين في صورنا. 91 00:04:52,258 --> 00:04:57,849 لكن عدم تحديد مجرماً مشتبهاً به ليس أمراً مضحكاً، 92 00:04:57,873 --> 00:05:00,700 ولا انتهاكاً للحريات المدنية. 93 00:05:00,724 --> 00:05:03,929 التعلم الآلي يستخدم في التعرف على الوجه، 94 00:05:03,953 --> 00:05:08,458 لكنه أيضا يتجاوز حدود رؤية الحاسوب. 95 00:05:09,266 --> 00:05:13,282 في كتابها، "أسلحة الدمار الحسابيّ،" 96 00:05:13,306 --> 00:05:19,987 تحدثت عالمة البيانات (كاثي أونيل) عن هذه الأسلحة الصاعدة -- 97 00:05:20,011 --> 00:05:24,364 الخوارزميات الرائجة والغامضة والمدمرة 98 00:05:24,388 --> 00:05:27,352 التي تُستخدم بتزايد في اتخاذ القرارات 99 00:05:27,376 --> 00:05:30,553 التي تؤثر على نواحي أكثر في حياتنا. 100 00:05:30,577 --> 00:05:32,447 إذن من يُوظَّف أو يُطرَد؟ 101 00:05:32,471 --> 00:05:34,583 هل تحصل على ذاك القرض؟ هل تحصل على التأمين؟ 102 00:05:34,607 --> 00:05:38,110 هل قُبلت بالكلية التي أردتها؟ 103 00:05:38,134 --> 00:05:41,643 هل يدفع الجميع نفس السعرعن نفس المنتج 104 00:05:41,667 --> 00:05:44,109 الذي اشتُرِي من نفس المنصة؟ 105 00:05:44,133 --> 00:05:47,892 بدأ مسؤولو تطبيق القانون في استخدام التعلم الآلي 106 00:05:47,916 --> 00:05:50,205 لغرض الفاعلية في حفظ الأمن. 107 00:05:50,229 --> 00:05:53,723 بعض القضاة يحددون درجات الخطر باستخدام الآلة لمعرفة 108 00:05:53,747 --> 00:05:58,149 طول المدة التي سيقضيها الفرد في السجن. 109 00:05:58,173 --> 00:06:00,627 بالتالي علينا أن نفكر مليًّا في هذه القرارات. 110 00:06:00,651 --> 00:06:01,833 هل هي عادلة؟ 111 00:06:01,857 --> 00:06:04,747 و لقد رأينا أن تحيز الخوارزمية 112 00:06:04,771 --> 00:06:08,145 لا يؤدي بالضرورة إلى نتائج عادلة دائما. 113 00:06:08,169 --> 00:06:10,133 ما الذي يمكن فعله حيال هذا؟ 114 00:06:10,157 --> 00:06:13,837 حسنا، نستطيع البدء في إنتاج تشفير أكثر تضميناً 115 00:06:13,861 --> 00:06:16,851 و نوظف ممارسات تشفير شاملة. 116 00:06:16,875 --> 00:06:19,184 إن الناس هم من يبادروا. 117 00:06:19,708 --> 00:06:21,669 لذا من يقوم بالتشفير له أهمية. 118 00:06:21,693 --> 00:06:25,812 هل ننتج مجموعات للطيف الكامل بها أفراد متنوعين 119 00:06:25,836 --> 00:06:28,247 من يستطيع فحص النقاط غير المرئية لبعضهم البعض؟ 120 00:06:28,271 --> 00:06:31,816 على الصعيد الفني، يوجد أهمية لكيفية التشفير. 121 00:06:31,840 --> 00:06:35,491 هل نصنّع بعَدْل بينما نطور النظام؟ 122 00:06:35,515 --> 00:06:38,428 و في النهاية لمً نقوم بالتشفير. 123 00:06:38,785 --> 00:06:43,868 لقد استخدمنا أدوات للإعداد الحاسوبي لكشف الثروة الهائلة. 124 00:06:43,892 --> 00:06:48,339 لدينا الآن الفرصة لكشف جودة أكبر 125 00:06:48,363 --> 00:06:51,293 إذا جعلنا من التغير الاجتماعي أولوية 126 00:06:51,317 --> 00:06:53,487 و ليس كتفكير مؤجَّل. 127 00:06:54,008 --> 00:06:58,530 و هذه الركائز الثلاثة التي ستشعل حركة التشفير. 128 00:06:58,554 --> 00:07:00,206 من يشفر له أهمية، 129 00:07:00,230 --> 00:07:01,773 كيف نشفر مهم 130 00:07:01,797 --> 00:07:03,820 ولمِاذا نشفر مهم أيضا. 131 00:07:03,844 --> 00:07:06,943 إذن لنتحول للتشفير نستطيع البدء بالتفكير في 132 00:07:06,967 --> 00:07:10,131 بناء منصات تستطيع تحديد التحيز 133 00:07:10,155 --> 00:07:13,233 بواسطة جمع خبرات الناس مثل تلك التي شاركتها، 134 00:07:13,257 --> 00:07:16,327 أيضا التدقيق في البرمجة الحالية. 135 00:07:16,351 --> 00:07:20,116 نستطيع أيضا إنشاء أدوات تدريب شاملة أكثر. 136 00:07:20,140 --> 00:07:22,943 تخيل حملة بعنوان" سيلفي للتضمين" 137 00:07:22,967 --> 00:07:26,622 حيث نستطيع جميعا مساعدة المطورين لاختبار و إنتاج 138 00:07:26,646 --> 00:07:28,739 أجهزة تدريب أكثر شمولية. 139 00:07:29,302 --> 00:07:32,130 و نستطيع التفكير بطريقة أكثر وعياً 140 00:07:32,154 --> 00:07:37,545 تجاه التأثير الاجتماعي للتكنولوجيا التي نطورها. 141 00:07:37,569 --> 00:07:39,962 لكي نفعل حركة التشفير، 142 00:07:39,986 --> 00:07:42,833 أطللقت رابطة باسم العدالة الخوارزمية، 143 00:07:42,857 --> 00:07:48,729 حيث يستطيع كل من يهتم بالعدل أن يكافح ضد النظرة المشفرة. 144 00:07:48,753 --> 00:07:52,049 يمكنكم التبليغ عن التحيز على موقع codedgaze.com 145 00:07:52,073 --> 00:07:54,518 وتطالب بالتدقيق وتصبح مُختبِراً 146 00:07:54,542 --> 00:07:57,313 و تنضم للمحادثة الدائرة، 147 00:07:57,337 --> 00:07:59,624 على وسْم #codegaze. 148 00:08:00,742 --> 00:08:03,229 لذا أدعوكم للانضمام إليّ 149 00:08:03,253 --> 00:08:06,972 في إيجاد عالم حيث تعمل فيه التكنولوجيا من أجل الجميع، 150 00:08:06,996 --> 00:08:08,893 ليس البعض منا فحسب، 151 00:08:08,917 --> 00:08:13,505 عالم حيث نقدّر التضمين و نركز على التغير الاجتماعي. 152 00:08:13,529 --> 00:08:14,704 شكرا لكم. 153 00:08:14,728 --> 00:08:18,999 (تصفيق) 154 00:08:20,873 --> 00:08:23,727 لكن لدي سؤال واحد: 155 00:08:23,751 --> 00:08:25,810 هل ستنضمون إلي في الكفاح؟ 156 00:08:25,834 --> 00:08:27,119 (ضحك) 157 00:08:27,143 --> 00:08:30,830 (تصفيق)