دادۀ بزرگ، دادۀ بهتری است
-
0:01 - 0:05شیرینی پایِ مورد علاقۀ آمریکایی ها چیه؟
-
0:05 - 0:08حضار: سیبه.
کنث کوکی اِر: البته که سیبه! -
0:08 - 0:10از کجا می دونیم؟
-
0:10 - 0:12به خاطر داده ها.
-
0:13 - 0:15از مشاهدۀ فروش فروشگاه ها.
-
0:15 - 0:18از مشاهدۀ فروش پای های ۳۰ سانتی متریِ منجمد
در فروشگاه ها -
0:18 - 0:21و بدون هیچ مسابقه ای، سیب برنده س.
-
0:21 - 0:24اکثریت فروش متعلق به سیبه.
-
0:27 - 0:30فروشگاه ها شروع کردن به فروش پای کوچک تر،
-
0:30 - 0:32پای ۱۱ سانتی متری،
-
0:32 - 0:36و ناگهان سیب به مکان چهارم یا پنجم تنزل کرد.
-
0:36 - 0:39چرا؟ چه اتفاقی افتاد؟
-
0:39 - 0:42بهش فکر کنید.
-
0:42 - 0:46وقتی شما پای ۳۰ سانتی متری می خرید،
-
0:46 - 0:48همه ی خانواده باید موافق باشند،
-
0:48 - 0:52و سیب، انتخابِ دوم همه ست.
-
0:52 - 0:54(خنده ی حضار)
-
0:54 - 0:57اما وقتی پای یک نفره ی ۱۱ سانتی متری می خرید،
-
0:57 - 1:01می تونید اونی رو که دوست دارید بخرید.
-
1:01 - 1:05می تونید انتخاب اول تون رو بخرید.
-
1:05 - 1:07داده های بیشتری دارید.
-
1:07 - 1:08می تونید چیزی رو ببینید
-
1:08 - 1:11که وقتی مقدار کم تری از اون رو داشتید
-
1:11 - 1:12نمی دیدید.
-
1:13 - 1:16نکته اینجاست که داده های بیشتر
-
1:16 - 1:18فقط دیدِ وسیع تر نمی دن،
-
1:18 - 1:20داده های بیشترِ آنچه بهش نگاه می کردیم؛
-
1:20 - 1:23داده های بیشتر به ما اجازه می دهند
تازه ها رو ببینیم. -
1:23 - 1:27اجازه می دهند بهتر ببینیم.
-
1:27 - 1:30اجازه می دهند متفاوت ببینیم.
-
1:30 - 1:33در این مورد به ما اجازه می دهند
-
1:33 - 1:36پای مورد علاقه ی آمریکایی ها رو ببینیم:
-
1:36 - 1:39که سیب نیست!
-
1:39 - 1:42احتمالاً همۀ شما واژۀ دادۀ بزرگ رو شنیدید.
-
1:42 - 1:45در واقع حالتون از شنیدن این واژه
-
1:45 - 1:46به هم می خوره.
-
1:46 - 1:49واقعیته که اعتیاد زیادی به این واژه وجود داره،
-
1:49 - 1:52و این خیلی ناراحت کننده ست،
-
1:52 - 1:55چون دادۀ بزرگ، ابزار بسیار مهمیه
-
1:55 - 1:58برای پیشرفت جامعه.
-
1:59 - 2:02در گذشته، ما به داده های کوچک نگاه می کردیم
-
2:02 - 2:04و فکر می کردیم چطور می شه
-
2:04 - 2:05دنیا رو درک کرد،
-
2:05 - 2:07و حالا ما کلی از اون داریم،
-
2:07 - 2:10خیلی بیشتر از آنچه در گذشته داشتیم.
-
2:11 - 2:13چیزی که متوجه می شیم اینه که
-
2:13 - 2:15وقتی مقدار زیادی داده داریم،
اساساً قادر به انجام کارهایی هستیم -
2:15 - 2:18که با داشتن داده های کم نمی تونستیم.
-
2:18 - 2:21دادۀ بزرگ مهمه، و دادۀ بزرگ جدیده،
-
2:21 - 2:22و وقتی بهش فکر می کنید،
-
2:22 - 2:25تنها راهِ رویارویی این سیاره
-
2:25 - 2:26با چالش های جهانیش،
-
2:26 - 2:30تغذیۀ مردم، تامین بهداشت شون،
-
2:30 - 2:33تامین انرژی، الکتریسیته،
-
2:33 - 2:34اطمینان از جزغاله نشدن شون
-
2:34 - 2:36به خاطر گرم شدن کرۀ زمین؛
-
2:36 - 2:40به دلیل استفادۀ موثر از داده هاست.
-
2:40 - 2:44خُب نکتۀ جدید در مورد دادۀ بزرگ چیه؟
نکتۀ قابل توجه؟ -
2:44 - 2:47خُب... برای پاسخ به این سوال
به این فکر کنید که -
2:47 - 2:49اطلاعات چه شکلی بوده،
-
2:49 - 2:51در گذشته و به صورت فیزیکی.
-
2:52 - 2:55در سال ۱۹۰۸، بر روی جزیرۀ کِرِت،
-
2:55 - 3:00باستان شناسان لوحی رُسی کشف کردند.
-
3:00 - 3:04عمر آن را ۲۰۰۰ سال قبل از میلاد تخمین زدند،
یعنی ۴۰۰۰ سال. -
3:04 - 3:06نوشته هایی روی این لوح هست،
-
3:06 - 3:07اما اِشرافی به معانیش نداریم.
-
3:07 - 3:09کاملاً یک رازه. اما نکته اینه که
-
3:09 - 3:11اطلاعات به این شکل بودند
-
3:11 - 3:13۴۰۰۰ سال پیش.
-
3:13 - 3:16جامعه اطلاعات رو به این شکل
-
3:16 - 3:18نگهداری و منتقل می کرد.
-
3:19 - 3:23امروز، جامعه آنقدرها پیشرفت نکرده.
-
3:24 - 3:27ما هنوز اطلاعات رو در لوح ها ذخیره می کنیم.
-
3:27 - 3:30اما امروز ما می تونیم بیشتر اطلاعات ذخیره کنیم،
-
3:30 - 3:31بیشتر از گذشته.
-
3:31 - 3:34جستجوش راحت تر شده، و کپی کردنش...
-
3:34 - 3:38پردازش و به اشتراک گذاشتنش.
-
3:38 - 3:41ما می تونیم دوباره از این اطلاعات استفاده کنیم
-
3:41 - 3:44برای مصارفی که وقتی مشغول جمع آوری داده ها بودیم
-
3:44 - 3:46حتا تصورش رو هم نمی کردیم.
-
3:46 - 3:48به همین منوال، داده تغییر کرد
-
3:48 - 3:51از سکون به جریان،
-
3:51 - 3:55از چیزی راکد و بی حرکت،
-
3:56 - 3:59به چیزی سیال و متحرک.
-
3:59 - 4:03اگر بخواهید، متوجه سیالیت اطلاعات می شید.
-
4:04 - 4:06لوح مکشوفه از کِرِت
-
4:06 - 4:10چهار هزار ساله ست، و سنگین،
-
4:10 - 4:12ظرفیت زیادی نداره،
-
4:12 - 4:15و این اطلاعات متغییر نیست.
-
4:15 - 4:19از سوی دیگر، کل فایل هایی که
-
4:19 - 4:21اِدوارد اِسنودِن
-
4:21 - 4:24از آژانس امنیت ملی آمریکا به سرقت برد
-
4:24 - 4:26روی یک حافظۀ فلش
-
4:26 - 4:29به اندازۀ ناخن بود.
-
4:29 - 4:33و به سرعت نور تکثیر می شه.
-
4:35 - 4:38داده های بیشتر... بیشتر.
-
4:39 - 4:41یکی از دلایل وجود خیل اطلاعات امروز
-
4:41 - 4:43جمع آوری چیزهایی ست
-
4:43 - 4:46که ما همیشه اطلاعات را روی آنها جمع می کردیم؛
-
4:46 - 4:49دلیل دیگر این که ما چیزهایی جمع آوری می کنیم
-
4:49 - 4:51که همیشه جنبۀ اطلاعاتی داشته اند
-
4:51 - 4:54اما هرگز به قالب داده تبدیل نشده اند
-
4:54 - 4:56و ما آنها را به داده تبدیل می کنیم.
-
4:56 - 5:00برای مثال به موقعیت چغرافیایی فکر کنید.
-
5:00 - 5:02مثلاً مارتین لوثِر.
-
5:02 - 5:03اگر بخواهیم بدونیم سال ۱۵۰۰
-
5:03 - 5:06مارتین لوثر کجا بوده،
-
5:06 - 5:08باید همیشه دنبالش می کردیم،
-
5:08 - 5:10شاید با یک قلم پر و یک دوات،
-
5:10 - 5:12تا ثبتش کنیم.
-
5:12 - 5:14اما فکر کنید امروز چگونه است.
-
5:14 - 5:16می دونید در جایی،
-
5:16 - 5:19احتمالاً در پایگاه دادۀ یک شرکت مخابراتی،
-
5:19 - 5:22صفحه گسترده یا حداقل پایگاه داده ای وجود دارد
-
5:22 - 5:24که اطلاعات را ذخیره می کند
-
5:24 - 5:26همۀ مکان هایی که آنجا بوده اید.
-
5:26 - 5:27اگر تلفن همراه داشته باشید،
-
5:27 - 5:30و تلفن شما جی.پی.اس داشته باشد،
یا حتا نداشته باشد، -
5:30 - 5:33اطلاعات شما را ذخیره می کند.
-
5:33 - 5:37به این ترتیب، موقعیت جغرافیایی به داده بدل می شه.
-
5:37 - 5:41حالا برای مثال به موردِ حالت بدن فکر کنید.
-
5:41 - 5:42جوری که الان نشسته اید.
-
5:42 - 5:45جوری که شما نشستید،
-
5:45 - 5:47جوری که شما نشستید، جوری که شما نشستید،
-
5:47 - 5:49کاملاً متفاوته، و مربوط به طول پاهاتون
-
5:49 - 5:51و پشت، و خطوط پشت،
-
5:51 - 5:54و اگه الان حسگر وصل بود، شاید ۱۰۰ تا
-
5:54 - 5:56به صندلی هاتون،
-
5:56 - 5:59می تونستم نموداری مختص شما ایجاد کنم.
-
5:59 - 6:04چیزی شبیه اثر انگشت! ولی اثر انگشت شما نیست.
-
6:04 - 6:07خُب این کار چه فایده ای برامون داره؟
-
6:07 - 6:09محققان در توکیو، از اون به عنوان
-
6:09 - 6:14یک دستگاه ضد سرقت خودرو استفاده می کنند.
-
6:14 - 6:16به این شکل که دزد پشت فرمون می شینه،
-
6:16 - 6:19سعی می کنه خودرو رو بدزده، و خودرو
-
6:19 - 6:21تشخیص می ده که راننده، ذیصلاح نیست.
-
6:21 - 6:23و ممکنه موتور خاموش شه، تا شما
-
6:23 - 6:26کلمۀ عبور رو جایی روی داشبورد وارد کنید
-
6:26 - 6:31و بگین: "هی! من مجوز رانندگی دارم". عالیه!
-
6:31 - 6:33چی می شه اگر تمام خودروهای داخل اروپا
-
6:33 - 6:35از این فناوری برخوردار باشند؟
-
6:35 - 6:38چه کاری می تونستیم انجام بدیم؟
-
6:38 - 6:40اگر داده ها رو جمع کنیم،
-
6:40 - 6:44شاید بتونیم علامت های ثبت شده رو ببینیم
-
6:44 - 6:47بهترین راه تشخیص این که
-
6:47 - 6:53در ۵ ثانیۀ آینده، یک تصادف اتفاق می افته.
-
6:53 - 6:55و نکتۀ بعدی که ازش بهره می گیریم،
-
6:55 - 6:57خستگیِ راننده است،
-
6:57 - 7:00خدمات به این شکل ارائه می شه که مثلاً
-
7:00 - 7:03وقتی ماشین متوجه این حالت راننده می شه،
-
7:03 - 7:07آلارم داخلی رو به صورت خودکار فعال می کنه
-
7:07 - 7:09که مثلاً فرمون رو می لرزونه، یا
یه بوق می زنه -
7:09 - 7:11که بگه: "هی! بیدار شو،
-
7:11 - 7:12بیشتر به جاده توجه کن"
-
7:13 - 7:15این ها مصداق هایی از توانایی هامون هستند،
-
7:15 - 7:17وقتی جنبه های بیشتری از زندگی رو
به داده بدل می کنیم. -
7:18 - 7:21حالا ارزش دادۀ بزرگ چیه؟
-
7:21 - 7:23خب... بهش فکر کنید.
-
7:23 - 7:25اطلاعات بیشتری دارید.
-
7:25 - 7:29می تونید کارهایی انجام بدبد که قبلاً نمی تونستید.
-
7:29 - 7:30یکی از تاثیرگذارترین جاهایی که
-
7:30 - 7:32این مفهوم کاربردیه
-
7:32 - 7:35زمینۀ یادگیریه ماشینه.
-
7:35 - 7:39یادگیریه ماشین، شاخه ای از هوش مصنوعی ست،
-
7:39 - 7:42که خود شاخه ای از علوم رایانه ست.
-
7:42 - 7:43ایدۀ کلی به این شکله که
-
7:43 - 7:46به جای آموزش رایانه برای کاری،
-
7:46 - 7:48ما خیلی ساده، داده ها رو کنار مشکل میگذاریم
-
7:48 - 7:51و به رایانه می گیم، خودت حلش کن.
-
7:51 - 7:53دانستن منشا این مسئله،
-
7:53 - 7:56به درکش کمک می کنه.
-
7:57 - 7:59در سال ۱۹۵۰، یک دانشمند رایانه در آی.بی.ام
-
7:59 - 8:03به نام آرتور ساموئل به چکِرز علاقه داشت
-
8:03 - 8:04و برنامه ای برایش نوشت
-
8:04 - 8:07تا بتونه مقابل رایانه بازی کنه.
-
8:07 - 8:10او بازی کرد. و او برد.
-
8:10 - 8:12بازی کرد. برد.
-
8:12 - 8:15بازی کرد. برد.
-
8:15 - 8:17چون رایانه، تنها حرکت های
-
8:17 - 8:19قانونی رو می دونست.
-
8:19 - 8:21آرتور ساموئل چیز دیگه می دونست.
-
8:21 - 8:26آرتور ساموئل استراتژی می دونست.
-
8:26 - 8:28پس یه برنامۀ تکمیلی در کنارش نوشت
-
8:28 - 8:30که پشت زمینه کار کنه،
-
8:30 - 8:32و این احتمال رو بسنجه
-
8:32 - 8:34که بعد از هر حرکت
-
8:34 - 8:37ترکیب مهره های صفحه، به سمت برد می ره
-
8:37 - 8:40یا باخت.
-
8:40 - 8:43او با رایانه بازی می کنه. و می بره.
-
8:43 - 8:45بازی می کنه. و می بره.
-
8:45 - 8:49بازی می کنه. و می بره.
-
8:49 - 8:51و سپس آرتور ساموئل رایانه رو تنها می گذاره
-
8:51 - 8:54تا با خودش بازی کنه.
-
8:54 - 8:57بازی می کنه. و دادۀ بیشتر جمع می کنه.
-
8:57 - 9:01دادۀ بیشتر جمع می کنه. و دقت
پیش بینی رو بالا می بره. -
9:01 - 9:03بعد آرتور ساموئل برمی گرده به رایانه
-
9:03 - 9:06و بازی می کنه، می بازه.
-
9:06 - 9:08و بازی می کنه، و می بازه،
-
9:08 - 9:10و بازی می کنه، و می بازه،
-
9:10 - 9:13و آرتور ساموئل ماشینی ابداع می کنه
-
9:13 - 9:19که از اون در توانایی ای که یادش داده بود،
سبقت می گیره. -
9:19 - 9:21و این ایدۀ یادگیری ماشین
-
9:21 - 9:25به همه جا می ره.
-
9:25 - 9:28فکر می کنید ماشین های بدون راننده از کجا اومدن؟
-
9:28 - 9:31آیا ما جامعه ای هستیم که
-
9:31 - 9:34تمام قوانین جاده رو به نرم افزار بدیم؟
-
9:34 - 9:36نه! حافظه ارزون تره، نه!
-
9:36 - 9:40الگوریتم ها سریع ترند، نه!
پردازنده ها بهترند، نه! -
9:40 - 9:43همۀ اینها مهم اند، اما پاسخ ما نیستند.
-
9:43 - 9:46پاسخ اینه که ما ماهیت مسئله رو تغییر دادیم.
-
9:46 - 9:48ماهیت مسئله رو از این که سعی کنیم
-
9:48 - 9:50آشکارا و به جزء به رایانه بگیم
-
9:50 - 9:53که چطور رانندگی کنه،
-
9:53 - 9:54به این شکل تغییر دادیم:
-
9:54 - 9:56این مقدار اطلاعات در مورد خودرو هست.
-
9:56 - 9:57خودت حلش کن.
-
9:57 - 9:59خودت بفهم که این چراغ راهنماییه،
-
9:59 - 10:01که چراغ راهنما قرمزه و نه سبز،
-
10:01 - 10:03که این یعنی باید بایستی
-
10:03 - 10:06و جلو نری.
-
10:06 - 10:08یادگیری ماشین، پایۀ
-
10:08 - 10:10بسیاری از کارهای آنلاین ماست.
-
10:10 - 10:12موتورهای جستجو،
-
10:12 - 10:16الگوریتم شخصی سازی آمازون،
-
10:16 - 10:18مترجم رایانه ای،
-
10:18 - 10:22سیستم های تشخیص صدا.
-
10:22 - 10:24محققین اخیرن
-
10:24 - 10:28به مسئلۀ بافت برداری پرداختند،
-
10:28 - 10:31بافت های سرطانی.
-
10:31 - 10:33آنها از رایانه خواستند
-
10:33 - 10:36که با مشاهدۀ داده ها و میزان نجات
-
10:36 - 10:40بررسی کند که آیا در واقع
-
10:40 - 10:43سلول ها سرطانی اند یا نه،
-
10:43 - 10:45و مطمئناً، با افزودن داده به آن،
-
10:45 - 10:47به الگوریتم یادگیریِ ماشین،
-
10:47 - 10:49ماشین قادر بود به شناساییِ
-
10:49 - 10:51۱۲ تا از بهترین نشانه های پیش بینی
-
10:51 - 10:54که نمونۀ سلول های سرطان پستان
-
10:54 - 10:57واقعاً سرطانی اند.
-
10:57 - 11:01مسئله: دایرۀ المعارف پزشکی
-
11:01 - 11:03تنها ۹ تای آنان را می شناخت.
-
11:03 - 11:04سه تا از ویژگی ها، آنهایی بودند که
-
11:04 - 11:07مردم نیازی به پیدا کردن آنها نداشتند،
-
11:07 - 11:13اما ماشین آنها را پیدا کرد.
-
11:14 - 11:19ابعاد تاریکی هم برای دادۀ بزرگ وجود دارد.
-
11:19 - 11:22زندگی مان را بهبود می بخشد
اما مشکلاتی هم هست، -
11:22 - 11:24که باید به آنها آگاه باشیم.
-
11:24 - 11:26اولی، ایده ایست که
-
11:26 - 11:29شاید برای این پیش بینی ها مجازات شویم!
-
11:29 - 11:33مثلن پلیس برای مقاصدش از آن استفاده کند.
-
11:33 - 11:35کمی شبیه فیلم "گزارش اقلیت".
-
11:35 - 11:38امروزه واژۀ پیش بینیِ پلیسی هست،
-
11:38 - 11:40یا جرم شناسی الگوریتمی
-
11:40 - 11:42که اگر داده های زیادی داشته باشیم،
-
11:42 - 11:44مثلاً محل وقوع جرم های پیشین،
-
11:44 - 11:47می دانیم گشت ها را به کجا اعزام کنیم.
-
11:47 - 11:49به نظر منطقی می آد، اما مشکل اینه که
-
11:49 - 11:53مسئله به دادۀ موقعیت ختم نمی شه،
-
11:53 - 11:56و به مسائل فردی وارد خواهد شد.
-
11:56 - 11:59چرا از ریزنمرات فردی در دوران دبیرستان
-
11:59 - 12:01استفاده نکنیم؟
-
12:01 - 12:02شاید باید از این حقایق استفاده کنیم که
-
12:02 - 12:04آیا بیکارند یا نه، اعتبار بانکی شان،
-
12:04 - 12:06رفتاروب گردی آنها
-
12:06 - 12:08آیا تا دیروقت بیدارند.
-
12:08 - 12:11دست بندشان، اگر قادر به تشخیص
بیوشیمی باشد، -
12:11 - 12:15تصورات تهاجمی شان را نشان خواهد داد.
-
12:15 - 12:17می شه الگوریتم هایی اشته باشیم که تقریباً
-
12:17 - 12:19کارهایمان را پیش بینی می کنند،
-
12:19 - 12:20و ممکنه قبل از ارتکاب جرم
-
12:20 - 12:23دستگیر شیم.
-
12:23 - 12:25حریم خصوصی، چالش اصلی
-
12:25 - 12:28در عصر دادۀ کوچک بود.
-
12:28 - 12:30در دورۀ دادۀ بزرگ،
-
12:30 - 12:34چالش، حفاظت از اختیار است،
-
12:34 - 12:38انتخاب اخلاقی، ارادۀ انسان
-
12:38 - 12:41وکالت انسان.
-
12:43 - 12:45مشکل دیگری هم هست:
-
12:45 - 12:48دادۀ بزرگ ما را بیکار می کند.
-
12:48 - 12:52دادۀ بزرگ و الگوریتم ها به مصاف
-
12:52 - 12:55کارمندان و کار حرفه ای می روند
-
12:55 - 12:57در قرن ۲۱.
-
12:57 - 12:59به همان ترتیب که اتوماسیون کارخانه ها
-
12:59 - 13:01و خطوط تولید
-
13:01 - 13:04در قرن بیستم به مصاف کارگران رفتند.
-
13:04 - 13:06مثلاً تکنسین آزمایشگاه
-
13:06 - 13:08که زیر میکروسکوپ
-
13:08 - 13:09نمونۀ سرطانی می بیند
-
13:09 - 13:12و نتیجه می گیرد که آیا سرطانی ست یا نه.
-
13:12 - 13:14شخص به دانشگاه رفته.
-
13:14 - 13:15شخص املاک می خره.
-
13:15 - 13:17او رای می دهد.
-
13:17 - 13:21او در جامعه ذینفع است.
-
13:21 - 13:22و شغل اون شخص،
-
13:22 - 13:24مثل همۀ ناوگانِ
-
13:24 - 13:26حرفه ای ها مانند اون شخص،
-
13:26 - 13:29خواهند فهمید که شغلشان کاملاً تغییر کرده
-
13:29 - 13:31یا کاملاً از بین رفته.
-
13:31 - 13:33ما دوست داریم اینگونه فکر کنیم
-
13:33 - 13:36که فناوری بعد از مدتی ایجاد شغل می کنه
-
13:36 - 13:39بعد از مدت کوتاه یا موقت جابجایی،
-
13:39 - 13:41و این برای ارجاع به انقلاب صنعتی
-
13:41 - 13:43که با اون زندگی می کنیم، درسته
-
13:43 - 13:46چون دقیقاً همونیه که اتفاق افتاده.
-
13:46 - 13:48اما چیزی رو در اون آنالیز فراموش کردیم:
-
13:48 - 13:50دسته ای از مشاغل هستند که
-
13:50 - 13:53به راحتی از بین می رن و بر نمی گردند.
-
13:53 - 13:55انقلاب صنعتی خیلی خوب نبود،
-
13:55 - 13:59اگر شما اسب بودید.
-
13:59 - 14:01پس باید دقت کنیم
-
14:01 - 14:05
و دادۀ بزرگ رو برای خواسته هامون به کار بگیریم، -
14:05 - 14:08خواسته های انسانی مون.
-
14:08 - 14:10باید ارباب این فناوری باشیم،
-
14:10 - 14:12نه بنده اش.
-
14:12 - 14:15ما هنوز در ابتدای عصر دادۀ بزرگ هستیم،
-
14:15 - 14:18و صادقانه، خیلی خوب نیستیم
-
14:18 - 14:22در ادارۀ داده هایی که امروز
می تونیم جمع کنیم. -
14:22 - 14:25این فقط مشکلی برای
آزانس امنیت ملی نیست. -
14:25 - 14:28شرکت ها داده های زیادی جمع می کنند
از آنها استفادۀ نادرست هم می کنند، -
14:28 - 14:32باید این قسمت رو بهبود بدیم،
و این زمان بره. -
14:32 - 14:34کمی مشابه چالشی که انسان اولیه
-
14:34 - 14:36با آتش داشت.
-
14:36 - 14:38این یک ابزار است. اما ابزاری که
-
14:38 - 14:42بر اثر استفادۀ نادرست، ما را به آتش می کشد.
-
14:44 - 14:47دادۀ بزرگ، روند زندگی ما را متحول خواهد کرد،
-
14:47 - 14:50روند کارمان را و روند تفکرمان را.
-
14:50 - 14:52به ما کمک می کند در مدیریت سوابق مان
-
14:52 - 14:55در هدایت زندگیِ راضی کننده و امیدبخش
-
14:55 - 14:58در خوشحالی و در سلامت
-
14:58 - 15:02اما در گذشته،
اغلب به فناوری اطلاعات نگاه می کردیم -
15:02 - 15:04و چشم هایمان فقط "ف" را دیده اند
-
15:04 - 15:06فناوری... سخت افزار...
-
15:06 - 15:08چون آنها فیزیکی بودند.
-
15:08 - 15:11اکنون باید به "ا" بنگریم،
-
15:11 - 15:12اطلاعات...
-
15:12 - 15:14که کمتر اشکار است.
-
15:14 - 15:18اما در برخی جهات بسیار مهم تر.
-
15:18 - 15:21بشریت سرانجام از اطلاعات خواهد آموخت
-
15:21 - 15:24اطلاعاتی که جمع می کند،
-
15:24 - 15:26در راستای تلاش بی پایان مان
-
15:26 - 15:29برای فهمیدن جهان و جایگاهمان در آن،
-
15:29 - 15:34و به این دلیله که دادۀ بزرگ مهمه.
-
15:34 - 15:38(تشویق حضار)
- Title:
- دادۀ بزرگ، دادۀ بهتری است
- Speaker:
- کِنِث کوکی ار
- Description:
-
خودروهای بدون سرنشین تنها آغاز راه بودند. آیندۀ فناوری و طراحی دادۀ بزرگ چه خواهد بود؟ کنث کوکی ار، در سخنرانی علمی هیجان انگیزی به این مطلب خواهد پرداخت: قدم بعدی در دانش بشریت و یادگیریِ ماشین چه خواهد بود.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:51
b a approved Persian subtitles for Big data is better data | ||
b a edited Persian subtitles for Big data is better data | ||
b a edited Persian subtitles for Big data is better data | ||
b a edited Persian subtitles for Big data is better data | ||
Shahram Eatezadi accepted Persian subtitles for Big data is better data | ||
Shahram Eatezadi edited Persian subtitles for Big data is better data | ||
Shahram Eatezadi edited Persian subtitles for Big data is better data | ||
Roozbeh Fakhr edited Persian subtitles for Big data is better data |