1 00:00:00,787 --> 00:00:04,632 Koja je omiljena američka pita? 2 00:00:04,632 --> 00:00:07,801 Publika: Od jabuke. Kenet Kukir: Od jabuke. Naravno. 3 00:00:07,801 --> 00:00:09,369 Kako to znamo? 4 00:00:09,369 --> 00:00:12,122 Zbog podataka. 5 00:00:12,122 --> 00:00:14,188 Posmatramo rasprodaju u supermarketima, 6 00:00:14,188 --> 00:00:17,984 prodaju zamrznutih pita prečnika 30 cm, 7 00:00:17,984 --> 00:00:19,489 i jabuka pobeđuje. 8 00:00:19,489 --> 00:00:20,974 Bez konkurencije. 9 00:00:20,974 --> 00:00:23,979 Najveći deo prodaje je od jabuka. 10 00:00:26,609 --> 00:00:30,033 Zatim su supermarketi počeli da prodaju manje pite, 11 00:00:30,033 --> 00:00:31,856 pite prečnika 11 cm. 12 00:00:31,856 --> 00:00:36,030 Odjednom, jabuka pada na četvrto ili peto mesto. 13 00:00:36,030 --> 00:00:38,905 Zašto? Šta se dogodilo? 14 00:00:38,905 --> 00:00:41,723 Dobro. Razmislite o tome. 15 00:00:41,723 --> 00:00:45,571 Kada kupite pitu od 30cm, 16 00:00:45,571 --> 00:00:47,832 cela porodica mora da se složi, 17 00:00:47,832 --> 00:00:51,623 a pita od jabuka je svima drugi omiljeni izbor. 18 00:00:51,623 --> 00:00:53,558 (Smeh) 19 00:00:53,558 --> 00:00:57,173 Ali kad kupite zasebnu pitu od 11cm, 20 00:00:57,173 --> 00:01:00,918 možete da kupite onu koju vi hoćete. 21 00:01:00,918 --> 00:01:04,933 Možete da uzmete vaš prvi izbor. 22 00:01:04,933 --> 00:01:06,574 Imate više podataka. 23 00:01:06,574 --> 00:01:08,128 Možete da vidite nešto 24 00:01:08,128 --> 00:01:13,110 što niste mogli da vidite kada ste ih imali u manjim količinama. 25 00:01:13,110 --> 00:01:15,688 Dakle, poenta je da više podataka 26 00:01:15,688 --> 00:01:17,971 ne samo što nam omogućava da vidimo više, 27 00:01:17,971 --> 00:01:19,825 više o tome što posmatramo. 28 00:01:19,825 --> 00:01:23,438 Više podataka nam omogućava da vidimo novo. 29 00:01:23,438 --> 00:01:26,532 Omogućava nam da vidimo bolje. 30 00:01:26,532 --> 00:01:30,188 Omogućava nam da vidimo različito. 31 00:01:30,188 --> 00:01:33,361 U ovom slučaju, omogućava nam da vidimo 32 00:01:33,361 --> 00:01:36,274 koja je omiljena američka pita: 33 00:01:36,274 --> 00:01:38,816 nije od jabuka. 34 00:01:38,816 --> 00:01:42,596 Svi ste verovatno čuli izraz "veliki podaci". 35 00:01:42,596 --> 00:01:44,487 Verovatno vam je i loše na pomenu izraza 36 00:01:44,487 --> 00:01:46,117 "veliki podaci". 37 00:01:46,117 --> 00:01:49,447 Tačno je da se podigla velika buka oko ovog izraza, 38 00:01:49,447 --> 00:01:51,779 što je loše. 39 00:01:51,779 --> 00:01:54,825 Zato što su veliki podaci veoma važan alat 40 00:01:54,825 --> 00:01:58,559 pomoću kog će društvo da napreduje. 41 00:01:58,559 --> 00:02:02,120 U prošlosti smo posmatrali "male podatke" 42 00:02:02,120 --> 00:02:03,824 i razmišljali o tome šta bi značilo 43 00:02:03,824 --> 00:02:05,320 da pokušamo da razumemo svet, 44 00:02:05,320 --> 00:02:07,311 a sada ih imamo mnogo više, 45 00:02:07,311 --> 00:02:10,033 više nego što smo ikada imali. 46 00:02:10,033 --> 00:02:12,550 Shvatili smo da kada imamo mnogo podataka, 47 00:02:12,550 --> 00:02:14,634 u principu možemo uraditi stvari 48 00:02:14,634 --> 00:02:17,910 koje nismo mogli sa manje podataka. 49 00:02:17,910 --> 00:02:20,551 Veliki podaci su bitni, i to je nešto novo, 50 00:02:20,551 --> 00:02:22,328 kada razmislimo o tome, 51 00:02:22,328 --> 00:02:24,544 jedini način na koji će se planeta suočiti 52 00:02:24,544 --> 00:02:26,333 sa svojim globalnim izazovima - 53 00:02:26,333 --> 00:02:29,870 nahraniti ljude, obezbediti im medicinsku negu, 54 00:02:29,870 --> 00:02:32,310 pružiti im energiju, struju, 55 00:02:32,310 --> 00:02:34,469 da se pobrine da ne izgore 56 00:02:34,469 --> 00:02:35,997 zbog globalnog zagrevanja - 57 00:02:35,997 --> 00:02:39,902 jeste zbog efikasne upotrebe podataka. 58 00:02:39,902 --> 00:02:43,772 Šta je novo u vezi sa velikim podacima? U čemu je velika caka? 59 00:02:43,772 --> 00:02:45,819 Da bismo odgovorili na to pitanje, 60 00:02:45,819 --> 00:02:48,185 razmislimo kako su informacije izgledale, 61 00:02:48,185 --> 00:02:51,849 fizički izgledale u prošlosti. 62 00:02:51,849 --> 00:02:54,830 1908. godine na Kritu, 63 00:02:54,830 --> 00:02:59,565 arheolozi su pronašli glineni disk. 64 00:02:59,565 --> 00:03:03,624 Smestili su ga oko 2000. g. pre Hrista, dakle star je 4000 godina. 65 00:03:03,624 --> 00:03:05,628 Na tom disku postoji zapis, 66 00:03:05,628 --> 00:03:06,955 ali ne znamo šta on znači. 67 00:03:06,955 --> 00:03:09,053 Potpuna je zagonetka, ali poenta je u tome 68 00:03:09,053 --> 00:03:10,981 da su tako informacije izgledale 69 00:03:10,981 --> 00:03:13,070 pre 4000 godina. 70 00:03:13,070 --> 00:03:15,618 Tako je društvo čuvalo 71 00:03:15,618 --> 00:03:19,142 i prenosilo informacije. 72 00:03:19,142 --> 00:03:23,302 Društvo nije baš toliko napredovalo. 73 00:03:23,302 --> 00:03:26,776 I dalje čuvamo informacije na diskovima, 74 00:03:26,776 --> 00:03:29,960 ali danas možemo da čuvamo mnogo više, 75 00:03:29,960 --> 00:03:31,220 više nego ikada. 76 00:03:31,220 --> 00:03:34,313 Pretraživanje je lakše. Kopiranje je lakše. 77 00:03:34,313 --> 00:03:37,813 Deljenje je lakše. Obrada je lakša. 78 00:03:37,813 --> 00:03:40,579 Možemo da koristimo te informacije iznova, 79 00:03:40,579 --> 00:03:42,633 na načine na koje nismo ni zamišljali 80 00:03:42,633 --> 00:03:45,608 kada smo počeli da sakupljamo podatke. 81 00:03:45,608 --> 00:03:46,650 U tom smislu, 82 00:03:46,650 --> 00:03:50,842 podaci su prešli iz skladištenja u protok. 83 00:03:51,392 --> 00:03:55,330 Od nečega što je stacionarno i statično 84 00:03:55,330 --> 00:03:58,939 do nečega što je fluidno i dinamično. 85 00:03:58,939 --> 00:04:02,962 Ako ćemo tako, informacija je kao tečnost. 86 00:04:02,962 --> 00:04:06,436 Disk, koji je otkriven u blizini Krita, 87 00:04:06,436 --> 00:04:10,200 pre 4000 godina, je težak. 88 00:04:10,200 --> 00:04:12,162 Ne sadrži puno informacija, 89 00:04:12,162 --> 00:04:15,278 i te informacije su nepromenljive. 90 00:04:15,278 --> 00:04:19,289 Nasuprot tome, svi fajlovi 91 00:04:19,289 --> 00:04:21,150 koje je Edvard Snouden uzeo 92 00:04:21,150 --> 00:04:23,771 od Državne bezbednosne agencije u SAD-u 93 00:04:23,771 --> 00:04:26,190 staju na memorijski uređaj 94 00:04:26,190 --> 00:04:29,200 veličine nokta, 95 00:04:29,200 --> 00:04:33,945 i mogu se razmenjivati brzinom svetlosti. 96 00:04:33,945 --> 00:04:38,970 Još podataka. Više. 97 00:04:38,970 --> 00:04:41,174 Jedan razlog zašto danas imamo toliko podataka 98 00:04:41,174 --> 00:04:42,606 je što sakupljamo stvari 99 00:04:42,606 --> 00:04:45,886 o kojima smo uvek skupljali informacije, 100 00:04:45,886 --> 00:04:48,542 ali drugi razlog je zato što uzimamo stvari 101 00:04:48,542 --> 00:04:51,354 koje su uvek bile informativne 102 00:04:51,354 --> 00:04:53,840 ali nikad nisu prebačene u oblik podataka 103 00:04:53,840 --> 00:04:56,259 i stavljamo ih u podatke. 104 00:04:56,259 --> 00:04:59,567 Zamislite, npr. pitanje lokacije. 105 00:04:59,567 --> 00:05:01,816 Uzmimo Martina Lutera za primer. 106 00:05:01,816 --> 00:05:03,413 Da smo 1500. god. želeli da znamo 107 00:05:03,413 --> 00:05:06,080 gde je Martin Luter, 108 00:05:06,080 --> 00:05:08,222 morali bismo da ga pratimo u svakom trenutku, 109 00:05:08,222 --> 00:05:10,309 možda sa perom i mastilom, 110 00:05:10,309 --> 00:05:11,985 i da to beležimo, 111 00:05:11,985 --> 00:05:14,168 ali razmislite kako to izgleda danas. 112 00:05:14,168 --> 00:05:16,290 Znate da negde, 113 00:05:16,290 --> 00:05:18,736 verovatno u bazi podataka telefonskog operatera, 114 00:05:18,736 --> 00:05:21,772 postoji tabela ili bar podatak u bazi 115 00:05:21,772 --> 00:05:23,860 koji beleži informaciju 116 00:05:23,860 --> 00:05:25,923 o tome gde ste bili u svakom momentu. 117 00:05:25,923 --> 00:05:27,283 Ako imate mobilni telefon, 118 00:05:27,283 --> 00:05:30,130 koji ima GPS, čak i ako nema GPS, 119 00:05:30,130 --> 00:05:32,515 on čuva informacije. 120 00:05:32,515 --> 00:05:36,599 U ovom smislu, lokacija je postala "podatkovana". 121 00:05:36,599 --> 00:05:41,200 Razmislimo, npr. o pitanju držanja, 122 00:05:41,200 --> 00:05:42,645 načinu na koji upravo sedite, 123 00:05:42,645 --> 00:05:44,515 načinu na koji vi sedite, 124 00:05:44,515 --> 00:05:47,286 načinu na koji vi sedite, i vi. 125 00:05:47,286 --> 00:05:49,363 Svi se razlikuju, i zavise od dužine nogu 126 00:05:49,363 --> 00:05:51,456 i leđa i od konture leđa, 127 00:05:51,456 --> 00:05:53,987 i, ako bih postavio senzore, možda 100 senzora 128 00:05:53,987 --> 00:05:55,753 u sve vaše stolice, 129 00:05:55,753 --> 00:05:59,353 našao bih indeks koji je jedinstven za svakoga, 130 00:05:59,353 --> 00:06:02,957 kao otisak prsta, ali nije od prsta. 131 00:06:03,762 --> 00:06:06,731 Međutim, šta bismo mogli sa tim? 132 00:06:06,731 --> 00:06:09,128 Istraživači u Tokiju ga koriste 133 00:06:09,128 --> 00:06:13,516 kao potencijalni alarmni uređaj u kolima. 134 00:06:13,516 --> 00:06:16,440 Ideja je da ako za volan sedne lopov, 135 00:06:16,440 --> 00:06:18,544 pokuša da pobegne, ali automobil prepozna 136 00:06:18,544 --> 00:06:20,906 da za volanom nije odobreni vozač, 137 00:06:20,906 --> 00:06:23,070 možda zaustavi motor, osim ako vozač 138 00:06:23,070 --> 00:06:26,247 ne unese šifru u kontrolnu tablu 139 00:06:26,247 --> 00:06:30,905 da kaže: "Hej, imam dozvolu da vozim". Odlično! 140 00:06:30,905 --> 00:06:33,458 Šta ako bi svaki automobil u Evropi 141 00:06:33,458 --> 00:06:34,915 imao ovu tehnologiju? 142 00:06:34,915 --> 00:06:37,050 Šta bismo mogli tada? 143 00:06:38,080 --> 00:06:40,320 Možda, kada bismo nagomilali podatke, 144 00:06:40,320 --> 00:06:44,134 mogli bismo da uočimo znakove upozorenja 145 00:06:44,134 --> 00:06:46,333 koji najbolje predviđaju 146 00:06:46,333 --> 00:06:52,400 da će se dogoditi automobilska nesreća u narednih pet sekundi. 147 00:06:52,400 --> 00:06:55,175 Tada bismo u obliku podataka beležili 148 00:06:55,175 --> 00:06:56,803 zamor vozača, 149 00:06:57,086 --> 00:06:59,886 i svrha bi bila da kada kola osete 150 00:06:59,886 --> 00:07:03,650 da je vozač upao u određeni položaj, 151 00:07:03,650 --> 00:07:06,807 automatski kaže: "Hej, pusti interni alarm." 152 00:07:06,807 --> 00:07:09,261 kojim bi zavibrirao volan, zatrubio iznutra i rekao 153 00:07:09,261 --> 00:07:11,147 "Hej, budi se! 154 00:07:11,147 --> 00:07:13,033 obrati više pažnje na put." 155 00:07:13,033 --> 00:07:15,041 To su neke stvari koje možemo da uradimo 156 00:07:15,041 --> 00:07:17,914 kada prebacimo u podatke više aspekata naših života. 157 00:07:17,914 --> 00:07:20,295 Koja je vrednost velikih podataka? 158 00:07:21,095 --> 00:07:23,072 Pa, razmislite o tome. 159 00:07:23,072 --> 00:07:25,232 Imate više informacija. 160 00:07:25,232 --> 00:07:27,912 Možete da uradite ono što niste mogli ranije. 161 00:07:28,802 --> 00:07:30,493 Jedna od najimpresivnijih oblasti 162 00:07:30,493 --> 00:07:32,499 u kojoj ovaj koncept igra ulogu 163 00:07:32,499 --> 00:07:35,018 jeste mašinsko učenje. 164 00:07:35,698 --> 00:07:38,985 Mašinsko učenje je grana veštačke inteligencije, 165 00:07:38,985 --> 00:07:41,892 koja je grana računarskih nauka. 166 00:07:42,082 --> 00:07:44,030 Glavna ideja je da umesto 167 00:07:44,030 --> 00:07:45,673 da kažemo računaru šta da radi, 168 00:07:45,673 --> 00:07:48,490 jednostavno ubacimo podatke u problem 169 00:07:48,500 --> 00:07:50,770 i kažemo računaru da ga reši sam. 170 00:07:50,790 --> 00:07:53,236 Pomoći će vam da ga razumete 171 00:07:53,236 --> 00:07:56,063 gledajući u njegove korene. 172 00:07:56,773 --> 00:07:59,403 U 1950-im, informatičar u IBM-u, 173 00:07:59,403 --> 00:08:02,543 Artur Semjuel, voleo je da igra "Damu", 174 00:08:02,543 --> 00:08:04,547 te je napisao kompjuterski program 175 00:08:04,547 --> 00:08:07,327 kako bi igrao protiv računara. 176 00:08:07,327 --> 00:08:09,280 Igrao je. Pobedio je. 177 00:08:09,530 --> 00:08:11,501 Igrao je. Pobedio je. 178 00:08:12,054 --> 00:08:13,504 Igrao, pobedio. 179 00:08:14,794 --> 00:08:18,599 Jer je računar znao dozvoljene poteze. 180 00:08:18,599 --> 00:08:20,864 Artur Semjuel je znao nešto drugo. 181 00:08:20,864 --> 00:08:24,696 Artur Semjuel je poznavao strategiju. 182 00:08:25,628 --> 00:08:28,170 Napisao je mali potprogram, pored ovog, 183 00:08:28,170 --> 00:08:29,626 koji je radio u pozadini, 184 00:08:29,626 --> 00:08:31,610 i samo računao verovatnoću 185 00:08:31,610 --> 00:08:34,817 da data situacija na tabli pre vodi 186 00:08:34,817 --> 00:08:37,460 ka pobedničkoj tabli nego ka gubitničkoj, 187 00:08:37,460 --> 00:08:38,880 nakon svakog poteza. 188 00:08:39,890 --> 00:08:42,712 Igra protiv računara. Pobeđuje. 189 00:08:42,712 --> 00:08:44,264 Igra protiv računara. 190 00:08:44,274 --> 00:08:45,320 Pobeđuje. 191 00:08:45,320 --> 00:08:48,716 Igra protiv računara. Pobeđuje. 192 00:08:49,066 --> 00:08:51,337 Zatim je Artur Semjuel pustio računar 193 00:08:51,337 --> 00:08:53,988 da igra protiv sebe. 194 00:08:53,988 --> 00:08:57,091 Igrao je. Sakupljao je više podataka. 195 00:08:57,091 --> 00:09:01,500 Sakupljajući više podataka, povećavao je tačnost svog predviđanja. 196 00:09:01,500 --> 00:09:04,389 Zatim se Artur Semjuel vratio do računara. 197 00:09:04,389 --> 00:09:05,773 Igra, i gubi. 198 00:09:06,253 --> 00:09:07,781 Igra, i gubi. 199 00:09:08,021 --> 00:09:09,490 Igra, i gubi. 200 00:09:09,960 --> 00:09:12,607 I tako je Artur Semjuel stvorio mašinu 201 00:09:12,607 --> 00:09:17,516 koja prevazilazi njegove mogućnosti u igri kojoj ju je naučio. 202 00:09:18,876 --> 00:09:21,404 Ova ideja mašinskog učenja 203 00:09:21,404 --> 00:09:23,282 se širi na sve strane. 204 00:09:25,302 --> 00:09:28,699 Šta mislite, odakle nam samoupravljajuća vozila? 205 00:09:28,699 --> 00:09:30,988 Da li napredujemo kao društvo 206 00:09:30,988 --> 00:09:33,965 ubacivanjem svih pravila vožnje u softver? 207 00:09:33,965 --> 00:09:36,460 Ne. Memorija je jeftinija. Ne. 208 00:09:36,460 --> 00:09:40,008 Algoritmi su brži. Ne. Procesori su brži. Ne. 209 00:09:40,008 --> 00:09:43,492 Sve to je bitno, ali ne zbog toga. 210 00:09:43,492 --> 00:09:46,324 Nego zato što smo promenili koren problema. 211 00:09:46,324 --> 00:09:47,850 Promenili smo prirodu problema 212 00:09:47,850 --> 00:09:49,996 od one u kojoj smo direktno 213 00:09:49,996 --> 00:09:52,384 objasnili računaru kako da vozi, 214 00:09:52,670 --> 00:09:54,001 do one u kojoj kažemo: 215 00:09:54,001 --> 00:09:56,397 "Evo ti mnogo podataka u vezi sa vozilom. 216 00:09:56,397 --> 00:09:57,693 Shvati sam. 217 00:09:57,693 --> 00:09:59,766 Shvati da je ovo svetlo na semaforu. 218 00:09:59,766 --> 00:10:01,423 Da je crveno, a ne zeleno. 219 00:10:01,423 --> 00:10:03,364 Da to znači da moraš da staneš, 220 00:10:03,364 --> 00:10:05,358 a ne da nastaviš." 221 00:10:06,438 --> 00:10:08,331 Mašinsko učenje je u osnovi 222 00:10:08,331 --> 00:10:09,959 mnogih stvari na mreži. 223 00:10:09,959 --> 00:10:11,787 Pretraživači, 224 00:10:11,787 --> 00:10:14,117 Amazonov personalizovani algoritam, 225 00:10:15,597 --> 00:10:17,438 računarsko prevođenje, 226 00:10:18,198 --> 00:10:20,600 sistemi za prepoznavanje glasa. 227 00:10:22,100 --> 00:10:24,953 Istraživači su skoro posmatrali 228 00:10:24,953 --> 00:10:27,446 problem biopsije. 229 00:10:27,446 --> 00:10:30,000 Biopsije raka. 230 00:10:30,940 --> 00:10:33,157 Pitali su računar da ustanovi 231 00:10:33,207 --> 00:10:35,802 posmatrajući podatke i stopu preživljavanja, 232 00:10:35,988 --> 00:10:40,484 da odluči da li su ćelije zapravo 233 00:10:40,484 --> 00:10:42,570 kancerogene ili ne. 234 00:10:43,060 --> 00:10:45,304 Zasigurno, kada ubacite podatke, 235 00:10:45,304 --> 00:10:46,972 pomoću algoritma mašinskog učenja, 236 00:10:46,972 --> 00:10:48,810 mašina je postala sposobna da prepozna 237 00:10:48,810 --> 00:10:51,226 12 znakova koji najbolje predviđaju 238 00:10:51,226 --> 00:10:54,678 da je biopsija raka ćelija dojke 239 00:10:54,708 --> 00:10:56,647 zaista zahvaćena rakom. 240 00:10:57,447 --> 00:10:58,695 Problem? 241 00:10:59,215 --> 00:11:02,533 Medicinska literatura je poznavala samo devet od njih. 242 00:11:02,533 --> 00:11:04,932 Tri od tih simptoma su bili oni 243 00:11:04,932 --> 00:11:07,477 koje ljudi nisu trebali da traže, 244 00:11:07,482 --> 00:11:09,507 ali ih je mašina uočila. 245 00:11:12,998 --> 00:11:17,861 Ali, postoji loša strana velikih podataka. 246 00:11:18,778 --> 00:11:20,263 Unaprediće naše živote, 247 00:11:20,263 --> 00:11:22,737 ali postoje problemi kojih moramo biti svesni. 248 00:11:23,727 --> 00:11:25,547 Prvi od njih je ideja 249 00:11:25,547 --> 00:11:28,970 da možemo biti kažnjeni za predviđanja, 250 00:11:28,970 --> 00:11:32,676 da policija može koristiti velike podatke u svoje svrhe, 251 00:11:33,116 --> 00:11:34,986 nešto poput fima "Suvišni izveštaj". 252 00:11:34,987 --> 00:11:37,727 Ovaj izraz zovemo sposobnost predviđanja 253 00:11:37,730 --> 00:11:39,771 ili algoritamska kriminologija, 254 00:11:39,781 --> 00:11:42,111 i ideja je da ako uzmemo mnogo podataka 255 00:11:42,111 --> 00:11:44,017 npr. mesta prošlih zločina, 256 00:11:44,017 --> 00:11:45,776 znamo gde da pošaljemo patrole. 257 00:11:46,696 --> 00:11:48,729 To ima smisla, ali problem je, naravno, 258 00:11:48,739 --> 00:11:52,904 u tome što se neće završiti samo na podacima o lokaciji. 259 00:11:53,364 --> 00:11:55,625 Ići će do ličnog nivoa. 260 00:11:56,296 --> 00:11:58,313 Zašto ne koristimo podatke 261 00:11:58,313 --> 00:12:00,330 o nečijim ocenama iz srednje škole? 262 00:12:00,330 --> 00:12:02,347 Možda da iskoristimo činjenice 263 00:12:02,347 --> 00:12:04,105 o zaposlenosti, o kreditnom stanju, 264 00:12:04,415 --> 00:12:05,916 o ponašanju na internetu, 265 00:12:05,916 --> 00:12:07,274 da li su budni noću. 266 00:12:07,274 --> 00:12:10,962 Ako njihov Fitbit može da prepozna njihove biohemijske parametre, 267 00:12:10,962 --> 00:12:14,680 pokazaće kada imaju agresivne misli. 268 00:12:14,890 --> 00:12:16,749 Možemo imati algoritme 269 00:12:16,749 --> 00:12:19,161 koji bi mogli predviđati šta ćemo uraditi, 270 00:12:19,161 --> 00:12:20,865 i mogu nas smatrati odgovornim 271 00:12:20,865 --> 00:12:23,169 pre nego što delamo. 272 00:12:23,169 --> 00:12:25,263 Privatnost je bila centralni izazov 273 00:12:25,273 --> 00:12:26,832 u eri malih podataka. 274 00:12:27,322 --> 00:12:29,700 U danima velikih podataka, 275 00:12:29,700 --> 00:12:33,565 izazov će biti zaštita slobodne volje, 276 00:12:34,115 --> 00:12:37,851 moralnih izbora, ljudske volje, 277 00:12:37,851 --> 00:12:40,043 ljudske odlučnosti. 278 00:12:42,543 --> 00:12:44,774 Postoji još jedan problem. 279 00:12:44,774 --> 00:12:47,997 Veliki podaci će nam ukrasti poslove. 280 00:12:47,997 --> 00:12:51,831 Veliki podaci i algoritmi će izazvati 281 00:12:51,831 --> 00:12:54,900 kancelarijske, visoko obrazovane radnike 282 00:12:54,900 --> 00:12:56,546 dvadeset prvog veka 283 00:12:56,546 --> 00:12:59,268 slično kao što su automatizacija 284 00:12:59,268 --> 00:13:01,097 i pokretna traka 285 00:13:01,097 --> 00:13:04,201 izazvale radničku klasu u 20. veku. 286 00:13:04,201 --> 00:13:06,288 Setimo se laboratorijskog tehničara, 287 00:13:06,288 --> 00:13:07,700 koji pod mikroskopom posmatra 288 00:13:07,700 --> 00:13:09,320 biopsiju raka 289 00:13:09,320 --> 00:13:11,961 da bi zaključio da li je zahvaćena rakom. 290 00:13:11,961 --> 00:13:13,947 Ova osoba je završila fakultet. 291 00:13:13,947 --> 00:13:15,361 Ona kupuje imovinu. 292 00:13:15,361 --> 00:13:17,100 On ili ona glasa. 293 00:13:17,100 --> 00:13:20,339 On ili ona je član društva. 294 00:13:20,339 --> 00:13:22,159 Posao ove osobe, 295 00:13:22,159 --> 00:13:23,776 i celog niza stručnjaka 296 00:13:23,776 --> 00:13:25,740 kao što je ova osoba, 297 00:13:25,740 --> 00:13:28,887 shvatiće da se njihov posao znatno menja 298 00:13:28,887 --> 00:13:31,252 ili da će potpuno nestati. 299 00:13:31,252 --> 00:13:32,526 Volimo da mislimo 300 00:13:32,526 --> 00:13:35,715 da će vremenom tehnologija praviti poslove 301 00:13:35,715 --> 00:13:39,245 iza kratkog, privremenog doba dislokacije, 302 00:13:39,245 --> 00:13:41,116 što je i tačno za taj referentni okvir 303 00:13:41,116 --> 00:13:43,266 u kom svi živimo, industrijsku revoluciju, 304 00:13:43,266 --> 00:13:45,986 jer tako se tačno i dogodilo. 305 00:13:45,986 --> 00:13:47,930 Međutim, u toj analizi zaboravljamo 306 00:13:47,930 --> 00:13:49,762 da postoje kategorije poslova 307 00:13:49,762 --> 00:13:53,177 koje će jednostavno nestati i neće se vratiti. 308 00:13:53,177 --> 00:13:55,181 Industrijska revolucija nije bila dobra 309 00:13:55,181 --> 00:13:57,246 ako ste bili konj. 310 00:13:59,176 --> 00:14:01,240 Dakle, moramo biti pažljivi, 311 00:14:01,240 --> 00:14:04,786 i moramo velike podatke prilagoditi našim potrebama, 312 00:14:04,786 --> 00:14:07,884 našim ljudskim potrebama. 313 00:14:07,884 --> 00:14:09,894 Moramo biti gospodari tehnologije, 314 00:14:09,894 --> 00:14:11,551 a ne njene sluge. 315 00:14:11,551 --> 00:14:14,501 Na samom smo početku doba velikih podataka, 316 00:14:14,501 --> 00:14:17,649 i iskreno, za sada ne rukujemo dobro 317 00:14:17,649 --> 00:14:21,856 podacima koje sada možemo da prikupimo. 318 00:14:21,856 --> 00:14:24,548 To nije problem samo Državne bezbednosne agencije. 319 00:14:25,188 --> 00:14:28,225 Firme sakupljaju dosta podataka, i takođe ih ne koriste dobro, 320 00:14:28,225 --> 00:14:31,900 moramo ovladati time, a za to je potrebno vreme. 321 00:14:31,900 --> 00:14:33,590 Podseća na situaciju 322 00:14:33,590 --> 00:14:36,128 kada se primitivni čovek suočio sa vatrom. 323 00:14:36,128 --> 00:14:38,009 To je alat, ali alat koji će nas opeći 324 00:14:38,009 --> 00:14:40,638 ako ne budemo pažljivi. 325 00:14:44,008 --> 00:14:47,132 Veliki podaci će promeniti naš način života, 326 00:14:47,132 --> 00:14:49,934 način rada i razmišljanja. 327 00:14:49,934 --> 00:14:52,290 Pomoći će nam da organizujemo svoje karijere 328 00:14:52,290 --> 00:14:55,448 i da živimo zadovoljno i sa nadom, 329 00:14:55,448 --> 00:14:58,444 u sreći i zdravlju. 330 00:14:58,444 --> 00:15:01,566 Ranije smo često od informacionih tehnologija 331 00:15:01,566 --> 00:15:03,960 gledali samo u T, 332 00:15:03,960 --> 00:15:05,640 u tehnologiju, u hardver, 333 00:15:05,640 --> 00:15:07,913 zato što je to ono što je opipljivo. 334 00:15:07,913 --> 00:15:10,832 Sada moramo da bacimo oko na I, 335 00:15:10,832 --> 00:15:12,207 na informacije, 336 00:15:12,207 --> 00:15:13,575 na ono manje uočljivo, 337 00:15:13,575 --> 00:15:17,690 ali na određeni način mnogo bitnije. 338 00:15:17,690 --> 00:15:21,162 Čovečanstvo konačno uči iz informacija 339 00:15:21,162 --> 00:15:23,584 koje može da prikupi, 340 00:15:23,584 --> 00:15:25,694 kao deo našeg vanvremenskog zadatka 341 00:15:25,694 --> 00:15:28,846 da shvatimo svet i naše mesto u njemu 342 00:15:28,846 --> 00:15:31,096 i zato veliki podaci jesu velika stvar. 343 00:15:34,476 --> 00:15:36,946 (Aplauz)