Return to Video

دادۀ بزرگ، دادۀ بهتری است

  • 0:01 - 0:05
    شیرینی پایِ مورد علاقۀ آمریکایی ها چیه؟
  • 0:05 - 0:08
    حضار: سیبه.
    کنث کوکی اِر: البته که سیبه!
  • 0:08 - 0:10
    از کجا می دونیم؟
  • 0:10 - 0:12
    به خاطر داده ها.
  • 0:13 - 0:15
    از مشاهدۀ فروش فروشگاه ها.
  • 0:15 - 0:18
    از مشاهدۀ فروش پای های ۳۰ سانتی متریِ منجمد
    در فروشگاه ها
  • 0:18 - 0:21
    و بدون هیچ مسابقه ای، سیب برنده س.
  • 0:21 - 0:24
    اکثریت فروش متعلق به سیبه.
  • 0:27 - 0:30
    فروشگاه ها شروع کردن به فروش پای کوچک تر،
  • 0:30 - 0:32
    پای ۱۱ سانتی متری،
  • 0:32 - 0:36
    و ناگهان سیب به مکان چهارم یا پنجم تنزل کرد.
  • 0:36 - 0:39
    چرا؟ چه اتفاقی افتاد؟
  • 0:39 - 0:42
    بهش فکر کنید.
  • 0:42 - 0:46
    وقتی شما پای ۳۰ سانتی متری می خرید،
  • 0:46 - 0:48
    همه ی خانواده باید موافق باشند،
  • 0:48 - 0:52
    و سیب، انتخابِ دوم همه ست.
  • 0:52 - 0:54
    (خنده ی حضار)
  • 0:54 - 0:57
    اما وقتی پای یک نفره ی ۱۱ سانتی متری می خرید،
  • 0:57 - 1:01
    می تونید اونی رو که دوست دارید بخرید.
  • 1:01 - 1:05
    می تونید انتخاب اول تون رو بخرید.
  • 1:05 - 1:07
    داده های بیشتری دارید.
  • 1:07 - 1:08
    می تونید چیزی رو ببینید
  • 1:08 - 1:11
    که وقتی مقدار کم تری از اون رو داشتید
  • 1:11 - 1:12
    نمی دیدید.
  • 1:13 - 1:16
    نکته اینجاست که داده های بیشتر
  • 1:16 - 1:18
    فقط دیدِ وسیع تر نمی دن،
  • 1:18 - 1:20
    داده های بیشترِ آنچه بهش نگاه می کردیم؛
  • 1:20 - 1:23
    داده های بیشتر به ما اجازه می دهند
    تازه ها رو ببینیم.
  • 1:23 - 1:27
    اجازه می دهند بهتر ببینیم.
  • 1:27 - 1:30
    اجازه می دهند متفاوت ببینیم.
  • 1:30 - 1:33
    در این مورد به ما اجازه می دهند
  • 1:33 - 1:36
    پای مورد علاقه ی آمریکایی ها رو ببینیم:
  • 1:36 - 1:39
    که سیب نیست!
  • 1:39 - 1:42
    احتمالاً همۀ شما واژۀ دادۀ بزرگ رو شنیدید.
  • 1:42 - 1:45
    در واقع حالتون از شنیدن این واژه
  • 1:45 - 1:46
    به هم می خوره.
  • 1:46 - 1:49
    واقعیته که اعتیاد زیادی به این واژه وجود داره،
  • 1:49 - 1:52
    و این خیلی ناراحت کننده ست،
  • 1:52 - 1:55
    چون دادۀ بزرگ، ابزار بسیار مهمیه
  • 1:55 - 1:58
    برای پیشرفت جامعه.
  • 1:59 - 2:02
    در گذشته، ما به داده های کوچک نگاه می کردیم
  • 2:02 - 2:04
    و فکر می کردیم چطور می شه
  • 2:04 - 2:05
    دنیا رو درک کرد،
  • 2:05 - 2:07
    و حالا ما کلی از اون داریم،
  • 2:07 - 2:10
    خیلی بیشتر از آنچه در گذشته داشتیم.
  • 2:11 - 2:13
    چیزی که متوجه می شیم اینه که
  • 2:13 - 2:15
    وقتی مقدار زیادی داده داریم،
    اساساً قادر به انجام کارهایی هستیم
  • 2:15 - 2:18
    که با داشتن داده های کم نمی تونستیم.
  • 2:18 - 2:21
    دادۀ بزرگ مهمه، و دادۀ بزرگ جدیده،
  • 2:21 - 2:22
    و وقتی بهش فکر می کنید،
  • 2:22 - 2:25
    تنها راهِ رویارویی این سیاره
  • 2:25 - 2:26
    با چالش های جهانیش،
  • 2:26 - 2:30
    تغذیۀ مردم، تامین بهداشت شون،
  • 2:30 - 2:33
    تامین انرژی، الکتریسیته،
  • 2:33 - 2:34
    اطمینان از جزغاله نشدن شون
  • 2:34 - 2:36
    به خاطر گرم شدن کرۀ زمین؛
  • 2:36 - 2:40
    به دلیل استفادۀ موثر از داده هاست.
  • 2:40 - 2:44
    خُب نکتۀ جدید در مورد دادۀ بزرگ چیه؟
    نکتۀ قابل توجه؟
  • 2:44 - 2:47
    خُب... برای پاسخ به این سوال
    به این فکر کنید که
  • 2:47 - 2:49
    اطلاعات چه شکلی بوده،
  • 2:49 - 2:51
    در گذشته و به صورت فیزیکی.
  • 2:52 - 2:55
    در سال ۱۹۰۸، بر روی جزیرۀ کِرِت،
  • 2:55 - 3:00
    باستان شناسان لوحی رُسی کشف کردند.
  • 3:00 - 3:04
    عمر آن را ۲۰۰۰ سال قبل از میلاد تخمین زدند،
    یعنی ۴۰۰۰ سال.
  • 3:04 - 3:06
    نوشته هایی روی این لوح هست،
  • 3:06 - 3:07
    اما اِشرافی به معانیش نداریم.
  • 3:07 - 3:09
    کاملاً یک رازه. اما نکته اینه که
  • 3:09 - 3:11
    اطلاعات به این شکل بودند
  • 3:11 - 3:13
    ۴۰۰۰ سال پیش.
  • 3:13 - 3:16
    جامعه اطلاعات رو به این شکل
  • 3:16 - 3:18
    نگهداری و منتقل می کرد.
  • 3:19 - 3:23
    امروز، جامعه آنقدرها پیشرفت نکرده.
  • 3:24 - 3:27
    ما هنوز اطلاعات رو در لوح ها ذخیره می کنیم.
  • 3:27 - 3:30
    اما امروز ما می تونیم بیشتر اطلاعات ذخیره کنیم،
  • 3:30 - 3:31
    بیشتر از گذشته.
  • 3:31 - 3:34
    جستجوش راحت تر شده، و کپی کردنش...
  • 3:34 - 3:38
    پردازش و به اشتراک گذاشتنش.
  • 3:38 - 3:41
    ما می تونیم دوباره از این اطلاعات استفاده کنیم
  • 3:41 - 3:44
    برای مصارفی که وقتی مشغول جمع آوری داده ها بودیم
  • 3:44 - 3:46
    حتا تصورش رو هم نمی کردیم.
  • 3:46 - 3:48
    به همین منوال، داده تغییر کرد
  • 3:48 - 3:51
    از سکون به جریان،
  • 3:51 - 3:55
    از چیزی راکد و بی حرکت،
  • 3:56 - 3:59
    به چیزی سیال و متحرک.
  • 3:59 - 4:03
    اگر بخواهید، متوجه سیالیت اطلاعات می شید.
  • 4:04 - 4:06
    لوح مکشوفه از کِرِت
  • 4:06 - 4:10
    چهار هزار ساله ست، و سنگین،
  • 4:10 - 4:12
    ظرفیت زیادی نداره،
  • 4:12 - 4:15
    و این اطلاعات متغییر نیست.
  • 4:15 - 4:19
    از سوی دیگر، کل فایل هایی که
  • 4:19 - 4:21
    اِدوارد اِسنودِن
  • 4:21 - 4:24
    از آژانس امنیت ملی آمریکا به سرقت برد
  • 4:24 - 4:26
    روی یک حافظۀ فلش
  • 4:26 - 4:29
    به اندازۀ ناخن بود.
  • 4:29 - 4:33
    و به سرعت نور تکثیر می شه.
  • 4:35 - 4:38
    داده های بیشتر... بیشتر.
  • 4:39 - 4:41
    یکی از دلایل وجود خیل اطلاعات امروز
  • 4:41 - 4:43
    جمع آوری چیزهایی ست
  • 4:43 - 4:46
    که ما همیشه اطلاعات را روی آنها جمع می کردیم؛
  • 4:46 - 4:49
    دلیل دیگر این که ما چیزهایی جمع آوری می کنیم
  • 4:49 - 4:51
    که همیشه جنبۀ اطلاعاتی داشته اند
  • 4:51 - 4:54
    اما هرگز به قالب داده تبدیل نشده اند
  • 4:54 - 4:56
    و ما آنها را به داده تبدیل می کنیم.
  • 4:56 - 5:00
    برای مثال به موقعیت چغرافیایی فکر کنید.
  • 5:00 - 5:02
    مثلاً مارتین لوثِر.
  • 5:02 - 5:03
    اگر بخواهیم بدونیم سال ۱۵۰۰
  • 5:03 - 5:06
    مارتین لوثر کجا بوده،
  • 5:06 - 5:08
    باید همیشه دنبالش می کردیم،
  • 5:08 - 5:10
    شاید با یک قلم پر و یک دوات،
  • 5:10 - 5:12
    تا ثبتش کنیم.
  • 5:12 - 5:14
    اما فکر کنید امروز چگونه است.
  • 5:14 - 5:16
    می دونید در جایی،
  • 5:16 - 5:19
    احتمالاً در پایگاه دادۀ یک شرکت مخابراتی،
  • 5:19 - 5:22
    صفحه گسترده یا حداقل پایگاه داده ای وجود دارد
  • 5:22 - 5:24
    که اطلاعات را ذخیره می کند
  • 5:24 - 5:26
    همۀ مکان هایی که آنجا بوده اید.
  • 5:26 - 5:27
    اگر تلفن همراه داشته باشید،
  • 5:27 - 5:30
    و تلفن شما جی.پی.اس داشته باشد،
    یا حتا نداشته باشد،
  • 5:30 - 5:33
    اطلاعات شما را ذخیره می کند.
  • 5:33 - 5:37
    به این ترتیب، موقعیت جغرافیایی به داده بدل می شه.
  • 5:37 - 5:41
    حالا برای مثال به موردِ حالت بدن فکر کنید.
  • 5:41 - 5:42
    جوری که الان نشسته اید.
  • 5:42 - 5:45
    جوری که شما نشستید،
  • 5:45 - 5:47
    جوری که شما نشستید، جوری که شما نشستید،
  • 5:47 - 5:49
    کاملاً متفاوته، و مربوط به طول پاهاتون
  • 5:49 - 5:51
    و پشت، و خطوط پشت،
  • 5:51 - 5:54
    و اگه الان حسگر وصل بود، شاید ۱۰۰ تا
  • 5:54 - 5:56
    به صندلی هاتون،
  • 5:56 - 5:59
    می تونستم نموداری مختص شما ایجاد کنم.
  • 5:59 - 6:04
    چیزی شبیه اثر انگشت! ولی اثر انگشت شما نیست.
  • 6:04 - 6:07
    خُب این کار چه فایده ای برامون داره؟
  • 6:07 - 6:09
    محققان در توکیو، از اون به عنوان
  • 6:09 - 6:14
    یک دستگاه ضد سرقت خودرو استفاده می کنند.
  • 6:14 - 6:16
    به این شکل که دزد پشت فرمون می شینه،
  • 6:16 - 6:19
    سعی می کنه خودرو رو بدزده، و خودرو
  • 6:19 - 6:21
    تشخیص می ده که راننده، ذیصلاح نیست.
  • 6:21 - 6:23
    و ممکنه موتور خاموش شه، تا شما
  • 6:23 - 6:26
    کلمۀ عبور رو جایی روی داشبورد وارد کنید
  • 6:26 - 6:31
    و بگین: "هی! من مجوز رانندگی دارم". عالیه!
  • 6:31 - 6:33
    چی می شه اگر تمام خودروهای داخل اروپا
  • 6:33 - 6:35
    از این فناوری برخوردار باشند؟
  • 6:35 - 6:38
    چه کاری می تونستیم انجام بدیم؟
  • 6:38 - 6:40
    اگر داده ها رو جمع کنیم،
  • 6:40 - 6:44
    شاید بتونیم علامت های ثبت شده رو ببینیم
  • 6:44 - 6:47
    بهترین راه تشخیص این که
  • 6:47 - 6:53
    در ۵ ثانیۀ آینده، یک تصادف اتفاق می افته.
  • 6:53 - 6:55
    و نکتۀ بعدی که ازش بهره می گیریم،
  • 6:55 - 6:57
    خستگیِ راننده است،
  • 6:57 - 7:00
    خدمات به این شکل ارائه می شه که مثلاً
  • 7:00 - 7:03
    وقتی ماشین متوجه این حالت راننده می شه،
  • 7:03 - 7:07
    آلارم داخلی رو به صورت خودکار فعال می کنه
  • 7:07 - 7:09
    که مثلاً فرمون رو می لرزونه، یا
    یه بوق می زنه
  • 7:09 - 7:11
    که بگه: "هی! بیدار شو،
  • 7:11 - 7:12
    بیشتر به جاده توجه کن"
  • 7:13 - 7:15
    این ها مصداق هایی از توانایی هامون هستند،
  • 7:15 - 7:17
    وقتی جنبه های بیشتری از زندگی رو
    به داده بدل می کنیم.
  • 7:18 - 7:21
    حالا ارزش دادۀ بزرگ چیه؟
  • 7:21 - 7:23
    خب... بهش فکر کنید.
  • 7:23 - 7:25
    اطلاعات بیشتری دارید.
  • 7:25 - 7:29
    می تونید کارهایی انجام بدبد که قبلاً نمی تونستید.
  • 7:29 - 7:30
    یکی از تاثیرگذارترین جاهایی که
  • 7:30 - 7:32
    این مفهوم کاربردیه
  • 7:32 - 7:35
    زمینۀ یادگیریه ماشینه.
  • 7:35 - 7:39
    یادگیریه ماشین، شاخه ای از هوش مصنوعی ست،
  • 7:39 - 7:42
    که خود شاخه ای از علوم رایانه ست.
  • 7:42 - 7:43
    ایدۀ کلی به این شکله که
  • 7:43 - 7:46
    به جای آموزش رایانه برای کاری،
  • 7:46 - 7:48
    ما خیلی ساده، داده ها رو کنار مشکل میگذاریم
  • 7:48 - 7:51
    و به رایانه می گیم، خودت حلش کن.
  • 7:51 - 7:53
    دانستن منشا این مسئله،
  • 7:53 - 7:56
    به درکش کمک می کنه.
  • 7:57 - 7:59
    در سال ۱۹۵۰، یک دانشمند رایانه در آی.بی.ام
  • 7:59 - 8:03
    به نام آرتور ساموئل به چکِرز علاقه داشت
  • 8:03 - 8:04
    و برنامه ای برایش نوشت
  • 8:04 - 8:07
    تا بتونه مقابل رایانه بازی کنه.
  • 8:07 - 8:10
    او بازی کرد. و او برد.
  • 8:10 - 8:12
    بازی کرد. برد.
  • 8:12 - 8:15
    بازی کرد. برد.
  • 8:15 - 8:17
    چون رایانه، تنها حرکت های
  • 8:17 - 8:19
    قانونی رو می دونست.
  • 8:19 - 8:21
    آرتور ساموئل چیز دیگه می دونست.
  • 8:21 - 8:26
    آرتور ساموئل استراتژی می دونست.
  • 8:26 - 8:28
    پس یه برنامۀ تکمیلی در کنارش نوشت
  • 8:28 - 8:30
    که پشت زمینه کار کنه،
  • 8:30 - 8:32
    و این احتمال رو بسنجه
  • 8:32 - 8:34
    که بعد از هر حرکت
  • 8:34 - 8:37
    ترکیب مهره های صفحه، به سمت برد می ره
  • 8:37 - 8:40
    یا باخت.
  • 8:40 - 8:43
    او با رایانه بازی می کنه. و می بره.
  • 8:43 - 8:45
    بازی می کنه. و می بره.
  • 8:45 - 8:49
    بازی می کنه. و می بره.
  • 8:49 - 8:51
    و سپس آرتور ساموئل رایانه رو تنها می گذاره
  • 8:51 - 8:54
    تا با خودش بازی کنه.
  • 8:54 - 8:57
    بازی می کنه. و دادۀ بیشتر جمع می کنه.
  • 8:57 - 9:01
    دادۀ بیشتر جمع می کنه. و دقت
    پیش بینی رو بالا می بره.
  • 9:01 - 9:03
    بعد آرتور ساموئل برمی گرده به رایانه
  • 9:03 - 9:06
    و بازی می کنه، می بازه.
  • 9:06 - 9:08
    و بازی می کنه، و می بازه،
  • 9:08 - 9:10
    و بازی می کنه، و می بازه،
  • 9:10 - 9:13
    و آرتور ساموئل ماشینی ابداع می کنه
  • 9:13 - 9:19
    که از اون در توانایی ای که یادش داده بود،
    سبقت می گیره.
  • 9:19 - 9:21
    و این ایدۀ یادگیری ماشین
  • 9:21 - 9:25
    به همه جا می ره.
  • 9:25 - 9:28
    فکر می کنید ماشین های بدون راننده از کجا اومدن؟
  • 9:28 - 9:31
    آیا ما جامعه ای هستیم که
  • 9:31 - 9:34
    تمام قوانین جاده رو به نرم افزار بدیم؟
  • 9:34 - 9:36
    نه! حافظه ارزون تره، نه!
  • 9:36 - 9:40
    الگوریتم ها سریع ترند، نه!
    پردازنده ها بهترند، نه!
  • 9:40 - 9:43
    همۀ اینها مهم اند، اما پاسخ ما نیستند.
  • 9:43 - 9:46
    پاسخ اینه که ما ماهیت مسئله رو تغییر دادیم.
  • 9:46 - 9:48
    ماهیت مسئله رو از این که سعی کنیم
  • 9:48 - 9:50
    آشکارا و به جزء به رایانه بگیم
  • 9:50 - 9:53
    که چطور رانندگی کنه،
  • 9:53 - 9:54
    به این شکل تغییر دادیم:
  • 9:54 - 9:56
    این مقدار اطلاعات در مورد خودرو هست.
  • 9:56 - 9:57
    خودت حلش کن.
  • 9:57 - 9:59
    خودت بفهم که این چراغ راهنماییه،
  • 9:59 - 10:01
    که چراغ راهنما قرمزه و نه سبز،
  • 10:01 - 10:03
    که این یعنی باید بایستی
  • 10:03 - 10:06
    و جلو نری.
  • 10:06 - 10:08
    یادگیری ماشین، پایۀ
  • 10:08 - 10:10
    بسیاری از کارهای آنلاین ماست.
  • 10:10 - 10:12
    موتورهای جستجو،
  • 10:12 - 10:16
    الگوریتم شخصی سازی آمازون،
  • 10:16 - 10:18
    مترجم رایانه ای،
  • 10:18 - 10:22
    سیستم های تشخیص صدا.
  • 10:22 - 10:24
    محققین اخیرن
  • 10:24 - 10:28
    به مسئلۀ بافت برداری پرداختند،
  • 10:28 - 10:31
    بافت های سرطانی.
  • 10:31 - 10:33
    آنها از رایانه خواستند
  • 10:33 - 10:36
    که با مشاهدۀ داده ها و میزان نجات
  • 10:36 - 10:40
    بررسی کند که آیا در واقع
  • 10:40 - 10:43
    سلول ها سرطانی اند یا نه،
  • 10:43 - 10:45
    و مطمئناً، با افزودن داده به آن،
  • 10:45 - 10:47
    به الگوریتم یادگیریِ ماشین،
  • 10:47 - 10:49
    ماشین قادر بود به شناساییِ
  • 10:49 - 10:51
    ۱۲ تا از بهترین نشانه های پیش بینی
  • 10:51 - 10:54
    که نمونۀ سلول های سرطان پستان
  • 10:54 - 10:57
    واقعاً سرطانی اند.
  • 10:57 - 11:01
    مسئله: دایرۀ المعارف پزشکی
  • 11:01 - 11:03
    تنها ۹ تای آنان را می شناخت.
  • 11:03 - 11:04
    سه تا از ویژگی ها، آنهایی بودند که
  • 11:04 - 11:07
    مردم نیازی به پیدا کردن آنها نداشتند،
  • 11:07 - 11:13
    اما ماشین آنها را پیدا کرد.
  • 11:14 - 11:19
    ابعاد تاریکی هم برای دادۀ بزرگ وجود دارد.
  • 11:19 - 11:22
    زندگی مان را بهبود می بخشد
    اما مشکلاتی هم هست،
  • 11:22 - 11:24
    که باید به آنها آگاه باشیم.
  • 11:24 - 11:26
    اولی، ایده ایست که
  • 11:26 - 11:29
    شاید برای این پیش بینی ها مجازات شویم!
  • 11:29 - 11:33
    مثلن پلیس برای مقاصدش از آن استفاده کند.
  • 11:33 - 11:35
    کمی شبیه فیلم "گزارش اقلیت".
  • 11:35 - 11:38
    امروزه واژۀ پیش بینیِ پلیسی هست،
  • 11:38 - 11:40
    یا جرم شناسی الگوریتمی
  • 11:40 - 11:42
    که اگر داده های زیادی داشته باشیم،
  • 11:42 - 11:44
    مثلاً محل وقوع جرم های پیشین،
  • 11:44 - 11:47
    می دانیم گشت ها را به کجا اعزام کنیم.
  • 11:47 - 11:49
    به نظر منطقی می آد، اما مشکل اینه که
  • 11:49 - 11:53
    مسئله به دادۀ موقعیت ختم نمی شه،
  • 11:53 - 11:56
    و به مسائل فردی وارد خواهد شد.
  • 11:56 - 11:59
    چرا از ریزنمرات فردی در دوران دبیرستان
  • 11:59 - 12:01
    استفاده نکنیم؟
  • 12:01 - 12:02
    شاید باید از این حقایق استفاده کنیم که
  • 12:02 - 12:04
    آیا بیکارند یا نه، اعتبار بانکی شان،
  • 12:04 - 12:06
    رفتاروب گردی آنها
  • 12:06 - 12:08
    آیا تا دیروقت بیدارند.
  • 12:08 - 12:11
    دست بندشان، اگر قادر به تشخیص
    بیوشیمی باشد،
  • 12:11 - 12:15
    تصورات تهاجمی شان را نشان خواهد داد.
  • 12:15 - 12:17
    می شه الگوریتم هایی اشته باشیم که تقریباً
  • 12:17 - 12:19
    کارهایمان را پیش بینی می کنند،
  • 12:19 - 12:20
    و ممکنه قبل از ارتکاب جرم
  • 12:20 - 12:23
    دستگیر شیم.
  • 12:23 - 12:25
    حریم خصوصی، چالش اصلی
  • 12:25 - 12:28
    در عصر دادۀ کوچک بود.
  • 12:28 - 12:30
    در دورۀ دادۀ بزرگ،
  • 12:30 - 12:34
    چالش، حفاظت از اختیار است،
  • 12:34 - 12:38
    انتخاب اخلاقی، ارادۀ انسان
  • 12:38 - 12:41
    وکالت انسان.
  • 12:43 - 12:45
    مشکل دیگری هم هست:
  • 12:45 - 12:48
    دادۀ بزرگ ما را بیکار می کند.
  • 12:48 - 12:52
    دادۀ بزرگ و الگوریتم ها به مصاف
  • 12:52 - 12:55
    کارمندان و کار حرفه ای می روند
  • 12:55 - 12:57
    در قرن ۲۱.
  • 12:57 - 12:59
    به همان ترتیب که اتوماسیون کارخانه ها
  • 12:59 - 13:01
    و خطوط تولید
  • 13:01 - 13:04
    در قرن بیستم به مصاف کارگران رفتند.
  • 13:04 - 13:06
    مثلاً تکنسین آزمایشگاه
  • 13:06 - 13:08
    که زیر میکروسکوپ
  • 13:08 - 13:09
    نمونۀ سرطانی می بیند
  • 13:09 - 13:12
    و نتیجه می گیرد که آیا سرطانی ست یا نه.
  • 13:12 - 13:14
    شخص به دانشگاه رفته.
  • 13:14 - 13:15
    شخص املاک می خره.
  • 13:15 - 13:17
    او رای می دهد.
  • 13:17 - 13:21
    او در جامعه ذینفع است.
  • 13:21 - 13:22
    و شغل اون شخص،
  • 13:22 - 13:24
    مثل همۀ ناوگانِ
  • 13:24 - 13:26
    حرفه ای ها مانند اون شخص،
  • 13:26 - 13:29
    خواهند فهمید که شغلشان کاملاً تغییر کرده
  • 13:29 - 13:31
    یا کاملاً از بین رفته.
  • 13:31 - 13:33
    ما دوست داریم اینگونه فکر کنیم
  • 13:33 - 13:36
    که فناوری بعد از مدتی ایجاد شغل می کنه
  • 13:36 - 13:39
    بعد از مدت کوتاه یا موقت جابجایی،
  • 13:39 - 13:41
    و این برای ارجاع به انقلاب صنعتی
  • 13:41 - 13:43
    که با اون زندگی می کنیم، درسته
  • 13:43 - 13:46
    چون دقیقاً همونیه که اتفاق افتاده.
  • 13:46 - 13:48
    اما چیزی رو در اون آنالیز فراموش کردیم:
  • 13:48 - 13:50
    دسته ای از مشاغل هستند که
  • 13:50 - 13:53
    به راحتی از بین می رن و بر نمی گردند.
  • 13:53 - 13:55
    انقلاب صنعتی خیلی خوب نبود،
  • 13:55 - 13:59
    اگر شما اسب بودید.
  • 13:59 - 14:01
    پس باید دقت کنیم
  • 14:01 - 14:05

    و دادۀ بزرگ رو برای خواسته هامون به کار بگیریم،
  • 14:05 - 14:08
    خواسته های انسانی مون.
  • 14:08 - 14:10
    باید ارباب این فناوری باشیم،
  • 14:10 - 14:12
    نه بنده اش.
  • 14:12 - 14:15
    ما هنوز در ابتدای عصر دادۀ بزرگ هستیم،
  • 14:15 - 14:18
    و صادقانه، خیلی خوب نیستیم
  • 14:18 - 14:22
    در ادارۀ داده هایی که امروز
    می تونیم جمع کنیم.
  • 14:22 - 14:25
    این فقط مشکلی برای
    آزانس امنیت ملی نیست.
  • 14:25 - 14:28
    شرکت ها داده های زیادی جمع می کنند
    از آنها استفادۀ نادرست هم می کنند،
  • 14:28 - 14:32
    باید این قسمت رو بهبود بدیم،
    و این زمان بره.
  • 14:32 - 14:34
    کمی مشابه چالشی که انسان اولیه
  • 14:34 - 14:36
    با آتش داشت.
  • 14:36 - 14:38
    این یک ابزار است. اما ابزاری که
  • 14:38 - 14:42
    بر اثر استفادۀ نادرست، ما را به آتش می کشد.
  • 14:44 - 14:47
    دادۀ بزرگ، روند زندگی ما را متحول خواهد کرد،
  • 14:47 - 14:50
    روند کارمان را و روند تفکرمان را.
  • 14:50 - 14:52
    به ما کمک می کند در مدیریت سوابق مان
  • 14:52 - 14:55
    در هدایت زندگیِ راضی کننده و امیدبخش
  • 14:55 - 14:58
    در خوشحالی و در سلامت
  • 14:58 - 15:02
    اما در گذشته،
    اغلب به فناوری اطلاعات نگاه می کردیم
  • 15:02 - 15:04
    و چشم هایمان فقط "ف" را دیده اند
  • 15:04 - 15:06
    فناوری... سخت افزار...
  • 15:06 - 15:08
    چون آنها فیزیکی بودند.
  • 15:08 - 15:11
    اکنون باید به "ا" بنگریم،
  • 15:11 - 15:12
    اطلاعات...
  • 15:12 - 15:14
    که کمتر اشکار است.
  • 15:14 - 15:18
    اما در برخی جهات بسیار مهم تر.
  • 15:18 - 15:21
    بشریت سرانجام از اطلاعات خواهد آموخت
  • 15:21 - 15:24
    اطلاعاتی که جمع می کند،
  • 15:24 - 15:26
    در راستای تلاش بی پایان مان
  • 15:26 - 15:29
    برای فهمیدن جهان و جایگاهمان در آن،
  • 15:29 - 15:34
    و به این دلیله که دادۀ بزرگ مهمه.
  • 15:34 - 15:38
    (تشویق حضار)
Title:
دادۀ بزرگ، دادۀ بهتری است
Speaker:
کِنِث کوکی ار
Description:

خودروهای بدون سرنشین تنها آغاز راه بودند. آیندۀ فناوری و طراحی دادۀ بزرگ چه خواهد بود؟ کنث کوکی ار، در سخنرانی علمی هیجان انگیزی به این مطلب خواهد پرداخت: قدم بعدی در دانش بشریت و یادگیریِ ماشین چه خواهد بود.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:51

Persian subtitles

Revisions