عصر ایمان کورکورانه به دادههای عظیم باید به پایان برسد
-
0:01 - 0:03الگوریتمها همه جا هستند.
-
0:04 - 0:07آنها برندهها و بازندهها را
ردهبندی کرده و از هم جدا میکنند -
0:08 - 0:10برندهها استخدام میشوند
-
0:10 - 0:12یا یک پیشنهاد خوب مالی میگیرند.
-
0:12 - 0:15اما بازندهها حتی مصاحبه هم نمیشوند
-
0:16 - 0:17یا هزینه بیشتری برای بیمه میپردازند.
-
0:18 - 0:22ما با فرمولهای مرموزی سنجیده میشویم
که درکشان نمیکنیم. -
0:23 - 0:26که معمولاً سیستمی برای تجدید نظر ندارند.
-
0:27 - 0:29این سوالی را بر میانگیزد:
-
0:29 - 0:31اگر الگوریتمها اشتباه کنند چطور؟
-
0:33 - 0:35برای ایجاد یک الگوریتم دو چیز نیاز دارید:
-
0:35 - 0:37داده، چیزی که در گذشته اتفاق افتاده،
-
0:37 - 0:39و تعریفی برای موفقیت،
-
0:39 - 0:41چیزی که به دنبال آن هستید
و معمولاً انتظارش را دارید. -
0:41 - 0:46شما به الگوریتم با دیدن
و درک کردن آموزش میدهید. -
0:46 - 0:50الگوریتم درک میکند که چه چیزهایی
با موفقیت ارتباط دارند. -
0:50 - 0:52چه موقعیتی به موفقیت منتهی میشود؟
-
0:53 - 0:55در واقع، همه
از الگوریتمها استفاده میکنند. -
0:55 - 0:57فقط آنها را به صورت کد نمینویسند
-
0:57 - 0:59بگذارید مثالی بزنم.
-
0:59 - 1:02من هر روز از یک الگوریتم
برای پخت غذای خانوادهام استفاده میکنم. -
1:02 - 1:04دادههایی که استفاده میکنم
-
1:04 - 1:06شامل مواد موجود در آشپزخانهام،
-
1:06 - 1:08زمانی که دارم،
-
1:08 - 1:09و هدفی که دارم میشود.
-
1:09 - 1:11و من این دادهها را مدیریت میکنم.
-
1:11 - 1:15من آن بستههای کوچک
نودل رامن را غذا به حساب نمیآورم. -
1:15 - 1:17(خنده حضار)
-
1:17 - 1:19تعریف من از موفقیت این است:
-
1:19 - 1:21یک غذا موفق است
اگر فرزندانم سبزیجات بخورند. -
1:22 - 1:25این خیلی متفاوت میشد
اگر پسر بزرگترم مسئول بود. -
1:25 - 1:28از نظر او موفقیت این است
که بتواند زیاد نوتلا بخورد. -
1:29 - 1:31ولی منم که موفقیت را انتخاب میکنم.
-
1:31 - 1:34من مسئولم.
نظر من است که اهمیت دارد. -
1:34 - 1:37این اولین قانون الگوریتمهاست.
-
1:37 - 1:40الگوریتمها سلایقی هستند
که در قالب کد ارائه میشوند. -
1:42 - 1:45این با چیزی که بیشتر مردم در مورد
الگوریتمها فکر میکنند تفاوت دارد. -
1:45 - 1:50آنها فکر میکنند که الگوریتمها
عینی، درست و علمی هستند. -
1:50 - 1:52این یک حقهٔ بازاریابی است.
-
1:53 - 1:55این هم یک حقهٔ بازاریابی است
-
1:55 - 1:59که شما را با الگوریتمها بترسانند،
-
1:59 - 2:02که شما را وادار به اعتماد به الگوریتمها
و ترس از آنها کنند -
2:02 - 2:04به دلیل ترس و اعتماد شما به ریاضیات.
-
2:06 - 2:10باور کورکورانه به کلاندادهها
میتواند عواقب نادرستی داشته باشد. -
2:12 - 2:15این کیری سورس است.
او مدیر یک دبیرستان در بروکلین است. -
2:15 - 2:18در سال ۲۰۱۱، او به من گفت
معلمهای مدرسهاش -
2:18 - 2:20با یک الگوریتم مرموز
و پیچیده امتیازبندی میشوند -
2:20 - 2:22که نام آن
«مدل ارزش افزوده» است. -
2:23 - 2:26من به او گفتم، «خب، فرمول را پیدا کن
و به من نشان بده -
2:26 - 2:27من آن را برایت توضیح میدهم».
-
2:27 - 2:29او گفت: «من سعی کردم
که فرمول را بدست بیاورم، -
2:29 - 2:32اما رابط ادارهی آموزش
به من گفت که ریاضیات است -
2:32 - 2:34و من آن را درک نخواهم کرد.»
-
2:35 - 2:37بدتر هم میشود.
-
2:37 - 2:40روزنامه «نیویورک پست» درخواستی
مربوط به «سند آزادی اطلاعات» منتشر کرد، -
2:40 - 2:43نام تمام معلمها
و تمام نمراتشان را به دست آورد -
2:43 - 2:46و برای خجالتزده کردن معلمان
آنها را منتشر کرد. -
2:47 - 2:51وقتی من خواستم فرمولها
و کد را از همین طریق ببینم، -
2:51 - 2:53به من گفتند نمیتوانم.
-
2:53 - 2:54از این کار منع شدم.
-
2:54 - 2:56بعداً فهمیدم
-
2:56 - 2:58که هیچکس در شهر نیویورک
به آن فرمول دسترسی نداشت. -
2:58 - 3:00هیچکس آن را نمیفهمید.
-
3:02 - 3:05بعداً یک فرد واقعاً باهوش
به نام «گری روبنشتاین» درگیر این موضوع شد. -
3:05 - 3:09او ۶۶۵ معلم که در دادههای
نیویورک پست بودند را یافت -
3:09 - 3:11که هر یک، دو نمره داشتند.
-
3:11 - 3:13اگر یک معلم در دو کلاس هفتم و هشتم
-
3:13 - 3:15تدریس کند ممکن است این اتفاق رخ دهد.
-
3:15 - 3:17او تصمیم گرفت این دادهها را ترسیم کند.
-
3:17 - 3:19هر نقطه نشاندهندهی یک معلم است.
-
3:19 - 3:21(خندهی حضار)
-
3:22 - 3:23این چیست؟
-
3:23 - 3:24(خندهی حضار)
-
3:24 - 3:28هرگز نباید برای ارزیابی افراد
مورد استفاده قرار میگرفت. -
3:28 - 3:30تقریباً یک تولیدکنندهی اعداد تصادفی است.
-
3:30 - 3:33(تشوق حضار)
-
3:33 - 3:34اما استفاده شد.
-
3:34 - 3:35این سارا ویساکی است.
-
3:35 - 3:37او به همراه ۲۰۵ معلم دیگر
-
3:37 - 3:40از ناحیهی مدارس واشنگتون دیسی اخراج شد.
-
3:40 - 3:43علیرغم اینکه توصیهنامههای
خیلی خوبی از طرف مدیر -
3:43 - 3:44و خانوادههای شاگردانش داشت.
-
3:45 - 3:47میدانم بسیاری از شما
چه فکر میکنید، -
3:47 - 3:50خصوصاً دانشمندان داده،
و خبرگان هوش مصنوعی. -
3:50 - 3:54شما فکر میکنید، «من هرگز الگوریتمی
به این ناسازگاری نخواهم ساخت». -
3:55 - 3:57اما الگوریتمها میتوانند اشتباه کنند،
-
3:57 - 4:01حتی آثار مخرب عمیقی داشته باشند،
در صورتی که نیتشان خیر بوده است. -
4:03 - 4:05برخلاف هواپیمایی
که بد طراحی شده است -
4:05 - 4:07و سقوط میکند و همه آن را میبینند،
-
4:07 - 4:09الگوریتمی که بد طراحی شده باشد
-
4:10 - 4:14ممکن است مدت زیادی
به صورت خاموش تخریب کند. -
4:16 - 4:17این راجر ایلز است.
-
4:17 - 4:19(خندهی حضار)
-
4:21 - 4:23او در سال ۱۹۹۶ فاکس نیوز را تأسیس کرد.
-
4:23 - 4:26بیش از ۲۰ زن از آزار جنسی
شکایت کردند. -
4:26 - 4:29آنها میگفتند که اجازه موفقیت
در فاکس نیوز را ندارند. -
4:29 - 4:32او سال گذشته برکنار شد،
اما اخیراً دیده شده -
4:32 - 4:35که مشکلات باقی ماندهاند.
-
4:36 - 4:37این مسئله این سؤال را برمیانگیزد:
-
4:37 - 4:40فاکس نیوز باید چه کند
تا بهبود یابد؟ -
4:41 - 4:44خب، چطور است فرایند استخدم را
-
4:44 - 4:46با یک الگوریتم یادگیری ماشین جایگزین کنیم؟
-
4:46 - 4:48به نظر خوب میآید، نه؟
-
4:48 - 4:49به آن فکر کنید.
-
4:49 - 4:51داده، دادهها چه خواهند بود؟
-
4:51 - 4:56یک انتخاب منطقی سابقه درخواستهای استخدام
در ۲۱ سال گذشتهی فاکس نیوز است. -
4:56 - 4:58منطقی است.
-
4:58 - 4:59تعریف موفقیت چطور؟
-
5:00 - 5:01یک انتخاب منطقی این است که،
-
5:01 - 5:03چه کسی در فاکس نیوز موفق است؟
-
5:03 - 5:07به نظرم کسی که مثلاً،
چهار سال در آنجا مانده باشد -
5:07 - 5:08و حداقل یک بار ارتقاء گرفته باشد.
-
5:09 - 5:10به نظرم منطقی است.
-
5:10 - 5:13سپس الگوریتم را آموزش میدهیم.
-
5:13 - 5:17الگوریتم آموزش داده میشود که بگردد
و بفهمد چه چیزی منجر به موفقیت شده است. -
5:17 - 5:19بر اساس این تعریف
-
5:19 - 5:23که چه جور درخواستهایی در گذشته
منجر به موفقیت شدهاند؟ -
5:24 - 5:26حالا به این فکر کنید که اگر الگوریتم را
-
5:26 - 5:29روی درخواستهای فعلی اجرا کنیم
چه خواهد شد؟ -
5:29 - 5:31زنها حذف میشوند
-
5:32 - 5:36چون شبیه افرادی که در گذشته
موفق بودهاند به نظر نمیرسند. -
5:40 - 5:42الگوریتمها چیزی را عادلانه نمیکنند
-
5:42 - 5:45اگر آنها را خوشبینانه
و کورکورانه به کار ببرید. -
5:45 - 5:47چیزی را عادلانه نمیکنند.
-
5:47 - 5:49آنها تجربیات و الگوهای گذشتهی ما را
-
5:49 - 5:50تکرار میکنند.
-
5:50 - 5:52وضعیت موجود را خودکارسازی میکنند.
-
5:53 - 5:55اگر دنیای ما بینقص بود،
این عالی بود، -
5:56 - 5:57اما اینطور نیست.
-
5:57 - 6:01و اضافه میکنم که اکثر شرکتها
دادخواستهای شرمآوری ندارند، -
6:02 - 6:05اما به دانشمندان داده در این شرکتها
-
6:05 - 6:07گفته میشود که دادهها را دنبال کنند،
-
6:07 - 6:09و روی دقت تمرکز کنند.
-
6:10 - 6:12به این فکر کنید که این به چه معنی است.
-
6:12 - 6:16چون ما همه تعصباتی داریم،
یعنی ممکن است تبعیض جنسی -
6:16 - 6:18یا هر نوع تعصب دیگر را به کد تبدیل کنیم.
-
6:19 - 6:21یک آزمایش فکری،
-
6:21 - 6:22چون آن را دوست دارم:
-
6:24 - 6:27یک جامعه کاملاً تفکیکشده --
-
6:28 - 6:32تفکیکشدهی نژادی، در تمام شهرها،
تمام محلهها -
6:32 - 6:34و پلیسها را برای تشخیص جرم
-
6:34 - 6:36فقط به محلهی اقلیتها میفرستیم.
-
6:36 - 6:39دادههای دستگیریها
خیلی تبعیضآمیز خواهد بود. -
6:40 - 6:43چه خوا هد شد اگر علاوه بر این،
تعدادی دانشمند داده بیابیم -
6:43 - 6:47و به آنها پول بدهیم تا محل وقوع
جرایم بعدی را پیشبینی کنند؟ -
6:47 - 6:49محلهی اقلیتها.
-
6:49 - 6:52و یا پیشبینی کنند مجرمِ بعدی
که خواهد بود؟ -
6:53 - 6:54یک [فردِ] اقلیت.
-
6:56 - 6:59دانشمندان داده به عظمت
و دقتِ مدلِشان -
7:00 - 7:01افتخار خواهند کرد،
-
7:01 - 7:02و حق دارند.
-
7:04 - 7:09آیا این جدی نیست؟
اما ما این تفکیکهای شدید را -
7:09 - 7:10در بسیاری شهرهای بزرگ و کوچک داریم،
-
7:10 - 7:12و شواهدی زیادی از تعصبات پلیسی
-
7:12 - 7:15و دادههای سیستم قضایی،
در دست داریم. -
7:16 - 7:18و در واقع نقاط کانونی را پیشبینی میکنیم،
-
7:18 - 7:20مکانهایی که جرم در آن رخ خواهد داد.
-
7:20 - 7:24در حقیقت، جنایتکاری فردی
را پیشبینی میکنیم. -
7:24 - 7:26میزان جنایتکاری افراد را.
-
7:27 - 7:31سازمان خبری پروپابلیکا
به یکی از الگوریتمهای -
7:31 - 7:33به ظاهر [تشخیصدهندهی] «ریسک تکرار جرم»
-
7:33 - 7:34نگاهی انداخته است.
-
7:34 - 7:37که در فلوریدا حین صدور رأی
قضات استفاده میشود. -
7:38 - 7:42برنابرد، در سمت چپ، مرد سیاهپوست،
امتیاز ۱۰ از ۱۰ گرفته بود. -
7:43 - 7:45دیلان، در سمت راست، ۳ از ۱۰.
-
7:45 - 7:48۱۰ از ۱۰، ریسک زیاد.
۳ از ۱۰، ریسک کم. -
7:49 - 7:51هر دوی آنها به خاطر حمل
مواد مخدر دستگیر شده بودند. -
7:51 - 7:53هر دوی آنها سابقهدار بودند،
-
7:53 - 7:55اما دیلان سابقهی تبهکاری داشت
-
7:55 - 7:57ولی برنارد نداشت.
-
7:58 - 8:01این مسئله به این خاطر اهمیت دارد
که هر چه امتیاز شما بالاتر باشد، -
8:01 - 8:04احتمال اینکه محکومیت طولانیتری
بگیرید افزایش مییابد. -
8:06 - 8:08قضیه چیست؟
-
8:09 - 8:10دادهشویی.
-
8:11 - 8:15فرایندی که طی آن فناوریگرایان
حقایق زشت را در جعبههای سیاه -
8:15 - 8:17پنهان میکنند.
-
8:17 - 8:19و آن را «عینی» میخوانند؛
-
8:19 - 8:21آنرا «شایستهسالاری» خطاب میکنند.
-
8:23 - 8:26در حالی که این الگوریتمها مخفی،
مهم و ویرانگر هستند، -
8:26 - 8:28من برای آنها نامی در نظر گرفتهام:
-
8:28 - 8:30«سلاح کشتار ریاضی.»
-
8:30 - 8:32(خنده حضار)
-
8:32 - 8:35(تشویق حضار)
-
8:35 - 8:37اینها همه جا هستند،
و این یک اشتباه نیست. -
8:38 - 8:41این شرکتهای خصوصی
الگوریتمهایی خصوصی -
8:41 - 8:43برای اهداف شخصی میسازند.
-
8:43 - 8:46حتی همانهایی که دربارهشان صحبت کردم
برای معلمان و پلیس عمومی، -
8:46 - 8:49آنها هم توسط شرکتهای خصوصی
ساخته شده بودند -
8:49 - 8:51و به مؤسسات دولتی فروخته شده بودند.
-
8:51 - 8:52به آن «سس مخصوص» خودشان میگویند
-
8:52 - 8:55برای همین نمیتوانند دربارهی آن
به ما توضیح دهند. -
8:55 - 8:57قدرت خصوصی هم هست.
-
8:58 - 9:03آنها به خاطر داشتن
حق محرمانگی سود میبرند. -
9:05 - 9:08ممکن است فکر کنید،
چون این چیزها خصوصی هستند -
9:08 - 9:09و رقابت وجود دارد،
-
9:09 - 9:12شاید بازار آزاد
این مسئله را حل کند. -
9:12 - 9:13اینطور نخواهد شد.
-
9:13 - 9:16پول زیادی از بیعدالتی
به دست میآید. -
9:17 - 9:20علاوه بر این، ما
عاملهای اقتصادیِ منطقیای نیستیم. -
9:21 - 9:22همهی ما تعصباتی داریم.
-
9:23 - 9:26ما همه نژادپرست و متعصبیم
به طرقی که دوست داشتیم نباشیم، -
9:26 - 9:28به طرقی که حتی نمیدانیم.
-
9:29 - 9:32هر چند در مجموع این را میدانیم
-
9:32 - 9:36چون جامعهشناسان
مدام این را با آزمایشهایی که میکنند، -
9:36 - 9:37ثابت کردهاند.
-
9:37 - 9:40آنها تعدادی درخواست
استخدام را ارسال میکنند -
9:40 - 9:43که به یک اندازه واجد شرایطند
اما برخی نامهای سفیدپوستی -
9:43 - 9:44و برخی نامهای سیاهپوستی دارند،
-
9:44 - 9:47و نتیجه همواره ناامیدکننده است، همیشه.
-
9:48 - 9:49بنابراین این ما هستیم که تعصب داریم،
-
9:49 - 9:53و این تعصبات را
با دادههایی که جمعآوری میکنیم -
9:53 - 9:55به الگوریتمها تزریق میکنیم.
-
9:55 - 9:57مثلاً من تصمیمی گرفتم
به ریمن نودل فکر نکنم -
9:57 - 9:59به نظرم نامربوط بود.
-
9:59 - 10:05اما با اعتماد به دادههایی
که از تجربیات گذشته یاد میگیرند -
10:05 - 10:07و با انتخاب تعریف موفقیت،
-
10:07 - 10:11چطور میتوانیم از الگوریتمها
انتظار داشته باشیم جان سالم به در ببرند؟ -
10:11 - 10:13نمیتوانیم. باید آنها را بررسی کنیم.
-
10:14 - 10:16باید عدالت را در آنها بررسی کنیم.
-
10:16 - 10:19خبر خوب اینکه،
میتوانیم عدالت را در آنان بررسی کنیم. -
10:19 - 10:22میتوان الگوریتمها را بازجویی کرد.
-
10:22 - 10:24و آنها هر بار به ما
حقیقت را خواهند گفت. -
10:24 - 10:27و میتوانیم آنها را درست کنیم.
میتوانیم آنها را بهتر کنیم. -
10:27 - 10:29من به این حسابرسی الگوریتمی میگویم،
-
10:29 - 10:31و آن را به شما توضیح میدهم.
-
10:31 - 10:33نخست، بررسی درستی دادهها.
-
10:34 - 10:37برای الگوریتم ریسک تکرار جنایت
که دربارهاش صحبت کردم، -
10:38 - 10:41بررسی درستی داده به این معنی است
که باید با این حقیقت کنار بیاییم -
10:41 - 10:45که در ایالات متحده، سیاهپوستان
و سفیدپوستان به میزان یکسانی گُل میکشند -
10:45 - 10:47اما سیاهپوستان به مراتب
بیشتر دستگیر میشوند -
10:47 - 10:50چهار تا پنچ برابر بیشتر
وابسته به منطقه. -
10:51 - 10:54این تعصب در سایر ردههای جرم چطور است،
-
10:54 - 10:56و چطور آن را در نظر بگیریم؟
-
10:56 - 10:59دوم، باید دربارهی تعریف موفقیت فکر کنیم،
-
10:59 - 11:01آن را حسابرسی کنیم.
-
11:01 - 11:03الگوریتم استخدام را به خاطر دارید؟
دربارهی آن صحبت کردیم. -
11:03 - 11:07فردی که چهارسال بماند
و یک بار ارتقاء گرفته باشد؟ -
11:07 - 11:08خب، این یک کارمند موفق است.
-
11:08 - 11:12اما علاوه بر این کارمندی است
که در فرهنگش مورد حمایت قرار گرفته است. -
11:12 - 11:14بنابراین، آن هم میتواند متعصبانه باشد.
-
11:14 - 11:16باید این دو را از هم جدا کنیم.
-
11:16 - 11:18برای مثال باید
-
11:18 - 11:20به مصاحبهی ارکستر ناپیدا بنگریم.
-
11:20 - 11:23در این مصاحبه افراد مصاحبهگر
در پسِ یک پرده هستند. -
11:23 - 11:25آنچه میخواهم به آن فکر کنم
-
11:25 - 11:28این است که افرادی که گوش میدهند
متوجه شدهاند چه چیزی مهم است -
11:28 - 11:30و چه چیزی مهم نیست،
-
11:30 - 11:32و به خاطر آن
حواسشان پرت نمیشود. -
11:33 - 11:36زمانی که مصاحبهی ارکستر ناپیدا شروع شد،
-
11:36 - 11:39تعداد زنان در ارکسترها
پنچ برابر شد. -
11:40 - 11:42سپس، باید دقت را در نظر بگیریم.
-
11:43 - 11:47اینجاست که مدل ارزش افزوده
برای معلمان بلافاصله در هم میشکند. -
11:48 - 11:50البته هیچ الگوریتمی بینقص نیست،
-
11:51 - 11:54بنابراین باید خطای
تمام الگوریتمها را در نظر بگیریم. -
11:55 - 11:59این خطاها تا چه حد پر تکرارند،
و این مدل برای چه کسانی بد عمل میکند؟ -
12:00 - 12:02هزینهی این خطا چقدر است؟
-
12:02 - 12:05و در نهایت، باید
-
12:06 - 12:09آثار بلند مدت الگوریتمها را
در نظر بگیریم. -
12:09 - 12:11حلقههای بازخوردی که تشدید کنندهاند.
-
12:12 - 12:13به نظر انتزاعی میرسد،
-
12:13 - 12:16اما تصور کنید اگر مهندسان فیسبوک
پیش از آنکه تصمیم بگیرند -
12:16 - 12:20فقط چیزهایی را به ما نشان بدهند
که دوستانمان فرستادهاند، -
12:20 - 12:22این مسئله را در نظر نگرفته بودند.
-
12:22 - 12:25دو پیام دیگر هم دارم،
یکی برای دانشمندان داده. -
12:25 - 12:29دانشمندان داده: ما نباید
داوران حقیقت باشیم. -
12:30 - 12:33ما باید مترجمان گفتگوهای اخلاقی باشیم
-
12:33 - 12:35که در جامعهی بزرگتر رخ میدهد.
-
12:36 - 12:38(تشویق حضار)
-
12:38 - 12:39و بقیهی شما،
-
12:40 - 12:41کسانی که دانشمند داده نیستند:
-
12:41 - 12:43این یک امتحان ریاضی نیست.
-
12:44 - 12:45این یک جنگ سیاسی است.
-
12:47 - 12:50ما باید مسئولیتپذیری را
از اربابانِ الگوریتمیمان مطالبه کنیم. -
12:52 - 12:54(تشویق حضار)
-
12:54 - 12:58عصر ایمان کورکورانه
به دادههای عظیم باید پایان بیابد. -
12:58 - 12:59خیلی متشکرم.
-
12:59 - 13:04(تشویق حضار)
- Title:
- عصر ایمان کورکورانه به دادههای عظیم باید به پایان برسد
- Speaker:
- کثی اونیل
- Description:
-
الگوریتمها تعیین میکنند چه کسی وام میگیرد، چه کسی مصاحبه میشود، چه کسی بیمه میشود و خیلی کارهای دیگر. اما الگوریتمها به صورت خودکار چیزی را عادلانه نمیکنند. کثی اونیل، ریاضیدان و دانشمند داده، اصطلاحی را برای الگوریتمهای مخفی، مهم و مضر ابداع کرد: «سلاح کشتار ریاضی.» دربارهی برنامهی پنهان در پس فرمولها بیشتر بدانید.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
sadegh zabihi approved Persian subtitles for The era of blind faith in big data must end | ||
sadegh zabihi accepted Persian subtitles for The era of blind faith in big data must end | ||
sadegh zabihi edited Persian subtitles for The era of blind faith in big data must end | ||
S. Morteza Hashemi edited Persian subtitles for The era of blind faith in big data must end | ||
S. Morteza Hashemi edited Persian subtitles for The era of blind faith in big data must end | ||
S. Morteza Hashemi edited Persian subtitles for The era of blind faith in big data must end | ||
S. Morteza Hashemi edited Persian subtitles for The era of blind faith in big data must end | ||
Ali Mousavi edited Persian subtitles for The era of blind faith in big data must end |