1 00:00:00,787 --> 00:00:04,632 Wat is de lievelingstaart van Amerika? 2 00:00:04,632 --> 00:00:08,138 Publiek: Appel. Kenneth Cukier: Appel, natuurlijk. 3 00:00:08,138 --> 00:00:09,369 Hoe weten we dat? 4 00:00:09,369 --> 00:00:12,122 Door gegevens. 5 00:00:12,122 --> 00:00:14,188 Je kijkt naar de supermarktverkoop. 6 00:00:14,188 --> 00:00:16,201 Je kijkt naar omzetcijfers 7 00:00:16,201 --> 00:00:18,814 van diepvriestaart van 30 centimeter 8 00:00:18,814 --> 00:00:21,129 en appel wint zeker. 9 00:00:21,129 --> 00:00:25,519 Appel is het meest verkocht. 10 00:00:26,309 --> 00:00:30,273 Toen gingen supermarkten ook kleinere taarten verkopen 11 00:00:30,273 --> 00:00:31,856 van 11 centimeter. 12 00:00:31,856 --> 00:00:36,030 Dan komt appel op de vierde of vijfde plaats. 13 00:00:36,030 --> 00:00:38,905 Hoezo? Hoe komt dat nou? 14 00:00:38,905 --> 00:00:41,723 Denk eens goed na. 15 00:00:41,723 --> 00:00:45,571 Als je een taart van 30 centimeter koopt, 16 00:00:45,571 --> 00:00:47,832 moet het hele gezin het eens zijn. 17 00:00:47,832 --> 00:00:51,623 Appel staat bij iedereen op de tweede plaats. 18 00:00:51,623 --> 00:00:53,558 (Gelach) 19 00:00:53,558 --> 00:00:57,173 Maar als je een eenpersoonstaart van 11 centimeter koopt, 20 00:00:57,173 --> 00:01:00,918 kan je kopen wat je zelf wilt. 21 00:01:00,918 --> 00:01:04,933 Je kan je eerste keus nemen. 22 00:01:04,933 --> 00:01:06,574 Je hebt meer gegevens. 23 00:01:06,574 --> 00:01:09,248 Je ziet iets dat je eerst niet zag 24 00:01:09,260 --> 00:01:13,213 toen er nog niet zoveel gegevens waren. 25 00:01:13,213 --> 00:01:15,688 Het gaat erom dat je met meer gegevens 26 00:01:15,688 --> 00:01:19,381 niet alleen meer ziet, meer van hetzelfde. 27 00:01:19,825 --> 00:01:23,438 Met meer gegevens zien we nieuwe dingen. 28 00:01:23,438 --> 00:01:26,532 Je krijgt er een betere kijk op. 29 00:01:26,532 --> 00:01:30,188 Je gaat er anders tegenaan kijken. 30 00:01:30,188 --> 00:01:33,361 In dit geval onthult het 31 00:01:33,361 --> 00:01:36,274 wat de lievelingstaart van Amerika is: 32 00:01:36,274 --> 00:01:38,816 geen appel. 33 00:01:38,816 --> 00:01:42,430 Je hebt vast wel gehoord van de kreet 'big data'. 34 00:01:42,430 --> 00:01:44,487 Je wordt vast doodziek 35 00:01:44,487 --> 00:01:46,117 van de kreet 'big data'. 36 00:01:46,117 --> 00:01:49,447 Het is inderdaad een hype 37 00:01:49,447 --> 00:01:51,779 en dat is erg jammer, 38 00:01:51,779 --> 00:01:54,825 omdat big data een enorm belangrijk middel is 39 00:01:54,825 --> 00:01:58,559 waarmee de maatschappij opgestuwd wordt. 40 00:01:58,559 --> 00:02:03,430 In het verleden keken we naar 'small data' en dachten we daarover na. 41 00:02:03,430 --> 00:02:05,424 Zo poogden we de wereld te snappen. 42 00:02:05,424 --> 00:02:07,311 Nu hebben we veel meer gegevens. 43 00:02:07,311 --> 00:02:10,033 Meer dan we ooit hebben gehad. 44 00:02:10,033 --> 00:02:11,910 We ontdekken dat we 45 00:02:11,910 --> 00:02:14,634 met een grote hoeveelheid gegevens dingen kunnen doen 46 00:02:14,634 --> 00:02:17,910 die we niet konden doen met kleinere hoeveelheden. 47 00:02:17,910 --> 00:02:20,551 Big data is belangrijk en nieuw. 48 00:02:20,551 --> 00:02:22,328 Ga maar na: 49 00:02:22,328 --> 00:02:24,544 de enige manier waarmee deze aarde om kan gaan 50 00:02:24,544 --> 00:02:26,333 met wereldwijde uitdagingen -- 51 00:02:26,333 --> 00:02:29,870 de wereld voeden, medische verzorging geven, 52 00:02:29,870 --> 00:02:32,680 van energie voorzien, van elektriciteit, 53 00:02:32,680 --> 00:02:35,689 en zorgen dat we niet verbranden door opwarming van de aarde -- 54 00:02:35,689 --> 00:02:39,902 is door effectief gebruik van gegevens. 55 00:02:39,902 --> 00:02:43,772 Wat is nieuw aan big data? Wat is het bijzondere? 56 00:02:43,772 --> 00:02:46,289 Om daar antwoord op te geven, moet je eens bedenken 57 00:02:46,289 --> 00:02:48,185 hoe informatie eruitzag. 58 00:02:48,185 --> 00:02:51,219 Hoe het er ooit fysiek uitzag. 59 00:02:51,219 --> 00:02:54,830 In 1908, op het eiland Kreta, 60 00:02:54,830 --> 00:02:59,565 ontdekten archeologen een schijf van klei. 61 00:02:59,565 --> 00:03:03,624 Ze dateerden die op 2.000 voor Christus, dus 4.000 jaar oud. 62 00:03:03,624 --> 00:03:06,948 Er staan inscripties op die schijf, maar die kunnen we niet lezen. 63 00:03:06,955 --> 00:03:09,053 Het is een raadsel, maar het gaat erom 64 00:03:09,053 --> 00:03:13,071 dat informatie er 4.000 jaar geleden zo uitzag. 65 00:03:13,071 --> 00:03:18,108 Zo bewaarde en communiceerde de maatschappij informatie. 66 00:03:19,142 --> 00:03:23,302 De maatschappij is niet zoveel veranderd. 67 00:03:23,302 --> 00:03:26,776 We bewaren informatie nog steeds op schijven, 68 00:03:26,776 --> 00:03:29,960 maar nu kunnen we veel meer informatie bewaren. 69 00:03:29,960 --> 00:03:31,220 Meer dan ooit. 70 00:03:31,220 --> 00:03:34,313 Zoeken is makkelijker. Kopiëren is makkelijker. 71 00:03:34,313 --> 00:03:37,813 Delen en verwerken zijn makkelijker. 72 00:03:37,813 --> 00:03:40,579 We kunnen deze informatie hergebruiken 73 00:03:40,579 --> 00:03:42,413 voor dingen waar we nooit aan dachten 74 00:03:42,413 --> 00:03:45,608 toen we die informatie verzamelden. 75 00:03:45,608 --> 00:03:47,860 In dit verband zijn de gegevens gegaan 76 00:03:47,860 --> 00:03:51,392 van een stapel naar een stroom. 77 00:03:51,392 --> 00:03:55,330 Van iets bewegingsloos en statisch 78 00:03:55,330 --> 00:03:58,939 naar iets dat vloeiend en dynamisch is. 79 00:03:58,939 --> 00:04:03,112 Je kan stellen dat informatie vloeibaar is. 80 00:04:03,112 --> 00:04:09,166 De schijf die 4.000 jaar geleden op Kreta werd ontdekt, is zwaar. 81 00:04:10,200 --> 00:04:12,162 Er staat weinig informatie op, 82 00:04:12,162 --> 00:04:15,278 en die informatie is niet te wijzigen. 83 00:04:15,278 --> 00:04:19,289 Aan de andere kant pasten alle bestanden 84 00:04:19,289 --> 00:04:21,150 die Edward Snowden pikte 85 00:04:21,150 --> 00:04:23,771 van de NSA in de VS 86 00:04:23,771 --> 00:04:26,190 op een geheugenstick 87 00:04:26,190 --> 00:04:29,200 met de grootte van een vingernagel. 88 00:04:29,200 --> 00:04:33,945 De informatie kan worden gedeeld met lichtsnelheid. 89 00:04:33,945 --> 00:04:37,970 Meer data. Meer. 90 00:04:39,200 --> 00:04:41,174 We hebben nu veel meer data, 91 00:04:41,174 --> 00:04:45,326 omdat we dingen verzamelen waarover we van oudsher informatie verzamelen. 92 00:04:45,886 --> 00:04:48,542 Maar ook omdat we dingen verzamelen 93 00:04:48,542 --> 00:04:51,354 die altijd al informatie boden, 94 00:04:51,354 --> 00:04:53,840 maar die nooit in dataformaat werden opgeslagen. 95 00:04:53,840 --> 00:04:56,259 We maken er nu gegevens van. 96 00:04:56,259 --> 00:04:59,567 Denk eens aan de locatie. 97 00:04:59,567 --> 00:05:01,816 Neem bijvoorbeeld Martin Luther. 98 00:05:01,816 --> 00:05:03,693 Als we in de 16e eeuw wilden weten 99 00:05:03,693 --> 00:05:06,080 waar Martin Luther zich bevond, 100 00:05:06,080 --> 00:05:08,172 zouden we hem steeds moeten volgen, 101 00:05:08,172 --> 00:05:10,309 misschien met inkt en een veer, 102 00:05:10,309 --> 00:05:11,985 en we zouden dat vastleggen. 103 00:05:11,985 --> 00:05:14,168 Maar bedenk eens hoe dat er nu uitziet. 104 00:05:14,168 --> 00:05:16,290 Je weet dat er ergens, 105 00:05:16,290 --> 00:05:18,736 in een database van een telefoonbedrijf 106 00:05:18,736 --> 00:05:23,862 een bestand is, of iets in dat bestand, dat informatie over jou bevat. 107 00:05:23,862 --> 00:05:25,923 Over waar je ooit hebt uitgehangen. 108 00:05:25,923 --> 00:05:28,793 Als je een mobieltje hebt met gps, 109 00:05:28,793 --> 00:05:30,130 maar zelfs zonder, 110 00:05:30,130 --> 00:05:32,515 dan bewaart het die informatie. 111 00:05:32,515 --> 00:05:36,599 Hierbij wordt locatie in gegevens omgezet. 112 00:05:36,599 --> 00:05:41,200 Denk bijvoorbeeld eens aan je houding. 113 00:05:41,200 --> 00:05:42,995 Hoe je op dit moment zit. 114 00:05:42,995 --> 00:05:44,515 Hoe jij zit, 115 00:05:44,515 --> 00:05:47,286 hoe jij zit, hoe jij zit. 116 00:05:47,286 --> 00:05:48,356 Dat is verschillend 117 00:05:48,356 --> 00:05:49,746 en hangt af van je beenlengte 118 00:05:49,746 --> 00:05:51,456 en je rug en de kromming ervan. 119 00:05:51,456 --> 00:05:53,987 Als ik 100 sensoren zou plaatsen 120 00:05:53,987 --> 00:05:55,753 in jullie stoelen, 121 00:05:55,753 --> 00:05:59,353 zou ik een serie getallen krijgen die uniek voor jou is. 122 00:05:59,353 --> 00:06:03,762 Een soort vingerafdruk maar niet van je vinger. 123 00:06:03,762 --> 00:06:06,731 Wat zouden we er dan mee kunnen doen? 124 00:06:06,731 --> 00:06:09,128 Onderzoekers in Tokyo gebruiken dit 125 00:06:09,128 --> 00:06:13,516 als mogelijk anti-autodiefstal-apparaat. 126 00:06:13,516 --> 00:06:16,440 Het idee is dat de autodief achter het stuur zit 127 00:06:16,440 --> 00:06:18,544 en ervandoor gaat, maar de auto ontdekt 128 00:06:18,544 --> 00:06:20,906 dat iemand stuurt die daar niet hoort. 129 00:06:20,906 --> 00:06:22,280 De motor stopt dan, 130 00:06:22,280 --> 00:06:26,247 tenzij je een wachtwoord intypt op het dashboard 131 00:06:26,247 --> 00:06:28,607 waarmee je zegt: "Ik heb toestemming." 132 00:06:28,607 --> 00:06:29,967 Geweldig. 133 00:06:30,967 --> 00:06:33,328 Als alle auto's in Europa 134 00:06:33,328 --> 00:06:34,915 deze technologie nou eens hadden? 135 00:06:34,915 --> 00:06:38,080 Wat zouden we nog meer kunnen doen? 136 00:06:38,080 --> 00:06:40,320 Als we deze informatie zouden verzamelen 137 00:06:40,320 --> 00:06:44,134 konden we aanwijzingen signaleren 138 00:06:44,134 --> 00:06:51,103 die voorspellen dat over 5 seconden een auto-ongeluk gaat gebeuren. 139 00:06:52,736 --> 00:06:55,293 Wat we daarvoor zullen gaan vastleggen, 140 00:06:55,293 --> 00:06:57,076 is vermoeidheid tijdens het rijden. 141 00:06:57,076 --> 00:06:59,410 De applicatie in de auto merkt het 142 00:06:59,410 --> 00:07:02,847 als de persoon wegzakt 143 00:07:02,847 --> 00:07:06,841 en weet dan automatisch dat er een wekker moet afgaan 144 00:07:06,841 --> 00:07:08,866 die het stuurwiel laat trillen, toetert, 145 00:07:08,866 --> 00:07:10,587 en zegt: "Wakker worden, 146 00:07:10,587 --> 00:07:12,491 beter opletten op de weg." 147 00:07:12,491 --> 00:07:14,344 Dit soort dingen kunnen we doen 148 00:07:14,344 --> 00:07:17,165 als we nog meer van ons leven vastleggen in gegevens. 149 00:07:17,165 --> 00:07:20,840 Wat is de waarde van big data? 150 00:07:20,840 --> 00:07:23,030 Denk eens na. 151 00:07:23,030 --> 00:07:25,442 Je hebt meer informatie. 152 00:07:25,442 --> 00:07:28,783 Je kan dingen doen die je eerst niet kon doen. 153 00:07:28,783 --> 00:07:30,459 Een van de indrukwekkendste plekken 154 00:07:30,459 --> 00:07:32,188 waar dit idee wordt uitgevoerd 155 00:07:32,188 --> 00:07:35,495 is die van machine-leren. 156 00:07:35,495 --> 00:07:38,572 Machine-leren is een tak van kunstmatige intelligentie 157 00:07:38,572 --> 00:07:41,950 die zelf weer onderdeel is van computerwetenschap. 158 00:07:41,950 --> 00:07:45,603 Het idee is dat we de computer niet vertellen wat hij moet doen 159 00:07:45,610 --> 00:07:48,230 maar dat we er gewoon gegevens in gooien 160 00:07:48,230 --> 00:07:51,436 en de computer opdragen het probleem zelf op te lossen. 161 00:07:51,436 --> 00:07:55,053 Je begrijpt het beter als je ziet waar het vandaan komt. 162 00:07:56,765 --> 00:07:58,153 In de vijftiger jaren 163 00:07:58,153 --> 00:08:02,745 vond computerwetenschapper Arthur Samuel van IBM, het leuk om te dammen. 164 00:08:02,745 --> 00:08:04,147 Hij schreef een programma 165 00:08:04,147 --> 00:08:06,960 zodat hij tegen de computer kon spelen. 166 00:08:06,960 --> 00:08:09,671 Hij speelde en won. 167 00:08:09,671 --> 00:08:11,774 Hij speelde en won. 168 00:08:11,774 --> 00:08:14,789 Hij speelde en won, 169 00:08:14,789 --> 00:08:16,567 omdat de computer alleen wist 170 00:08:16,567 --> 00:08:18,794 wat een geldige zet was. 171 00:08:18,794 --> 00:08:20,881 Arthur Samuel wist nog meer. 172 00:08:20,881 --> 00:08:24,580 Arthur Samuel kende strategie. 173 00:08:25,510 --> 00:08:27,906 Hij schreef er een programmaatje bij 174 00:08:27,906 --> 00:08:29,880 dat op de achtergrond werkte 175 00:08:29,880 --> 00:08:31,697 en bijhield hoe groot de kans was 176 00:08:31,697 --> 00:08:34,260 dat een bepaalde spelsituatie leidde 177 00:08:34,260 --> 00:08:37,170 naar winst of verlies 178 00:08:37,170 --> 00:08:39,678 na elke zet. 179 00:08:39,678 --> 00:08:42,828 Hij speelt tegen de computer. Hij wint. 180 00:08:42,828 --> 00:08:45,336 Hij speelt tegen de computer. Hij wint. 181 00:08:45,336 --> 00:08:48,007 Hij speelt tegen de computer. Hij wint. 182 00:08:49,067 --> 00:08:53,564 En dan laat hij het de computer tegen zichzelf spelen. 183 00:08:53,571 --> 00:08:57,080 Hij speelt tegen zichzelf en verzamelt meer gegevens. 184 00:08:57,080 --> 00:09:01,389 Hij verzamelt meer gegevens en wordt preciezer in zijn voorspelling. 185 00:09:01,389 --> 00:09:03,493 Dan gaat Samuel terug naar de computer, 186 00:09:03,493 --> 00:09:05,811 speelt tegen hem en verliest. 187 00:09:05,811 --> 00:09:07,880 En speelt nogmaals en verliest. 188 00:09:07,880 --> 00:09:09,927 En speelt weer en verliest. 189 00:09:09,927 --> 00:09:12,526 Arthur Samuel heeft een machine gemaakt 190 00:09:12,526 --> 00:09:18,814 die beter is dan Arthur, in een taak die Arthur hem aangeleerd heeft. 191 00:09:18,814 --> 00:09:21,312 Dit idee van machine-leren 192 00:09:21,312 --> 00:09:25,239 heeft allerlei gevolgen. 193 00:09:25,239 --> 00:09:28,388 Hoe denk je dat we zelfrijdende auto's krijgen? 194 00:09:28,388 --> 00:09:30,525 Zijn we beter af als maatschappij 195 00:09:30,525 --> 00:09:33,810 door alle regels van de weg in software te stoppen? 196 00:09:33,810 --> 00:09:36,408 Nee. Geheugen is goedkoper. Nee. 197 00:09:36,408 --> 00:09:40,402 Algoritmes zijn sneller. Nee. Processors zijn beter. Nee. 198 00:09:40,402 --> 00:09:43,174 Die dingen doen ertoe, maar dat is niet de reden. 199 00:09:43,174 --> 00:09:46,315 Het komt omdat we de aard van het probleem veranderd hebben. 200 00:09:46,315 --> 00:09:47,845 Vroeger probeerden we 201 00:09:47,845 --> 00:09:50,090 aan de computer uit te leggen 202 00:09:50,090 --> 00:09:52,671 hoe hij moet rijden. 203 00:09:52,671 --> 00:09:53,987 Nu zeggen we: 204 00:09:53,987 --> 00:09:57,243 "Hier zijn veel gegevens over dit voertuig. Zoek het maar uit. 205 00:09:57,396 --> 00:09:59,263 Vind maar uit dat het een verkeerslicht is, 206 00:09:59,263 --> 00:10:01,344 dat het rood is en niet groen, 207 00:10:01,344 --> 00:10:03,358 dat je dan moet stoppen 208 00:10:03,358 --> 00:10:06,441 en niet meer vooruit moet gaan." 209 00:10:06,441 --> 00:10:07,959 Machine-leren is de basis 210 00:10:07,959 --> 00:10:09,950 van veel dingen die we online doen: 211 00:10:09,950 --> 00:10:11,807 zoekmachines, 212 00:10:11,807 --> 00:10:15,608 het personaliseer-algoritme van Amazon, 213 00:10:15,608 --> 00:10:17,820 computervertalingen, 214 00:10:17,820 --> 00:10:20,340 systemen voor stemherkenning. 215 00:10:22,110 --> 00:10:24,945 Onderzoekers hebben onlangs gekeken 216 00:10:24,945 --> 00:10:28,140 naar de kwestie van biopsies, 217 00:10:28,140 --> 00:10:30,907 kankerbiopsies. 218 00:10:30,907 --> 00:10:33,222 Ze vroegen de computer te kijken 219 00:10:33,222 --> 00:10:35,693 naar de gegevens en overlevingsstatistieken 220 00:10:35,693 --> 00:10:41,660 om te bepalen of het kankercellen zijn 221 00:10:41,660 --> 00:10:42,904 of niet. 222 00:10:42,904 --> 00:10:44,682 Als je de gegevens erin gooit 223 00:10:44,682 --> 00:10:46,729 en een machine-leer-algoritme gebruikt, 224 00:10:46,729 --> 00:10:49,886 bleek dat de machine 12 verklikkers kon bepalen 225 00:10:49,886 --> 00:10:51,268 die het beste voorspellen 226 00:10:51,268 --> 00:10:54,167 of een biopsie van kankercellen 227 00:10:54,167 --> 00:10:57,385 inderdaad kanker is. 228 00:10:57,385 --> 00:10:59,883 Het probleem: de medische literatuur 229 00:10:59,883 --> 00:11:02,672 kende er maar negen. 230 00:11:02,672 --> 00:11:04,472 Naar drie kenmerken 231 00:11:04,472 --> 00:11:07,447 hoefde de mens niet te kijken, 232 00:11:07,447 --> 00:11:10,478 maar de machine zag ze wel. 233 00:11:12,978 --> 00:11:18,643 Er zit ook een zwarte kant aan big data. 234 00:11:18,643 --> 00:11:20,977 Het verbetert ons leven, maar er zijn problemen 235 00:11:20,977 --> 00:11:23,617 waar we ons van bewust moeten zijn. 236 00:11:23,617 --> 00:11:26,240 De eerste is het idee 237 00:11:26,240 --> 00:11:28,926 dat we gestraft kunnen worden voor onze voorspellingen 238 00:11:28,926 --> 00:11:32,796 en dat de politie ook big data gebruikt. 239 00:11:32,796 --> 00:11:35,147 Een beetje als in de film 'Minory Report'. 240 00:11:35,147 --> 00:11:37,898 Het heet 'predictive policing' (voorspellend politiewerk), 241 00:11:37,898 --> 00:11:39,951 of algoritme-criminologie. 242 00:11:39,951 --> 00:11:41,987 We nemen daarbij een hoop gegevens 243 00:11:41,987 --> 00:11:44,146 bijvoorbeeld waar criminaliteit voorkwam, 244 00:11:44,146 --> 00:11:46,689 om te weten we waar agenten hun ronde moeten doen. 245 00:11:46,689 --> 00:11:48,804 Dat lijkt slim maar het probleem 246 00:11:48,804 --> 00:11:53,348 is dat het niet zal blijven bij gegevens over de locatie, 247 00:11:53,348 --> 00:11:56,307 maar dat tot op het individuele niveau zal gaan. 248 00:11:56,307 --> 00:11:58,297 Waarom gebruiken we geen gegevens 249 00:11:58,297 --> 00:12:00,785 over iemands middelbareschoolverleden? 250 00:12:00,785 --> 00:12:03,036 Of ze werkloos zijn of niet, 251 00:12:03,036 --> 00:12:04,374 hun kredietwaardigheid, 252 00:12:04,374 --> 00:12:05,926 hun websurfgedrag, 253 00:12:05,926 --> 00:12:07,804 of ze laat naar bed gaan. 254 00:12:07,804 --> 00:12:10,965 Als hun gps-horloge biologische dingen kan meten, 255 00:12:10,965 --> 00:12:13,641 zal het merken of hij agressieve gedachten heeft. 256 00:12:15,201 --> 00:12:17,422 We zullen algoritmes krijgen die voorspellen 257 00:12:17,422 --> 00:12:19,055 wat we van plan zijn te doen 258 00:12:19,055 --> 00:12:22,889 en zouden kunnen worden aangesproken voordat we gehandeld hebben. 259 00:12:22,889 --> 00:12:24,621 Privacy was de grote uitdaging 260 00:12:24,621 --> 00:12:27,501 bij weinig gegevens. 261 00:12:27,501 --> 00:12:29,650 In het big data-tijdperk 262 00:12:29,650 --> 00:12:34,173 wordt de uitdaging het waarborgen van de vrije wil, 263 00:12:34,173 --> 00:12:37,952 morele keuzevrijheid, menselijke wil, 264 00:12:37,952 --> 00:12:41,020 menselijk handelen. 265 00:12:42,540 --> 00:12:44,765 Er is nog een probleem. 266 00:12:44,765 --> 00:12:48,321 Big data zal banen gaan kosten. 267 00:12:48,321 --> 00:12:51,833 Big data en algoritmes zullen het opnemen 268 00:12:51,833 --> 00:12:54,894 tegen de kantoormensen, kenniswerk, 269 00:12:54,894 --> 00:12:56,547 in de 21ste eeuw. 270 00:12:56,547 --> 00:12:58,981 Net zoals fabrieksautomatisering 271 00:12:58,981 --> 00:13:01,170 en lopende banden 272 00:13:01,170 --> 00:13:04,196 het opnamen tegen de fabrieksaarbeiders in de 20ste eeuw. 273 00:13:04,196 --> 00:13:06,288 Denk eens aan een laborant 274 00:13:06,288 --> 00:13:07,697 die in een microscoop kijkt 275 00:13:07,697 --> 00:13:09,321 naar een kankerbiopsie 276 00:13:09,321 --> 00:13:11,958 om te kijken of het kanker is of niet. 277 00:13:11,958 --> 00:13:13,930 Deze persoon is afgestudeerd, 278 00:13:13,930 --> 00:13:15,360 koopt een huis, 279 00:13:15,360 --> 00:13:17,101 hij of zij gaat naar de stembus, 280 00:13:17,101 --> 00:13:20,767 en neemt deel aan de maatschappij. 281 00:13:20,767 --> 00:13:25,321 Die persoon en nog een hele rij soortgelijke professionals 282 00:13:25,739 --> 00:13:28,889 zullen merken dat hun baan heel erg verandert 283 00:13:28,889 --> 00:13:31,246 of helemaal verdwijnt. 284 00:13:31,246 --> 00:13:32,530 We willen graag geloven 285 00:13:32,530 --> 00:13:35,717 dat techniek mettertijd voor banen zorgt, 286 00:13:35,717 --> 00:13:39,182 na een periode van ontwrichting. 287 00:13:39,182 --> 00:13:41,123 Dat klopt voor het referentiekader 288 00:13:41,123 --> 00:13:43,265 waarin we leven, de industriële revolutie. 289 00:13:43,265 --> 00:13:45,593 Want dat is precies wat er is gebeurd. 290 00:13:45,593 --> 00:13:47,926 Maar we hebben iets vergeten in die analyse. 291 00:13:47,926 --> 00:13:49,756 Er zijn een paar soorten banen 292 00:13:49,756 --> 00:13:53,176 die gewoon verdwijnen en nooit meer terugkomen. 293 00:13:53,176 --> 00:13:55,180 De industriële revolutie was niet best 294 00:13:55,180 --> 00:13:59,182 als je een paard was. 295 00:13:59,182 --> 00:14:01,237 We moeten dus erg zorgvuldig zijn, 296 00:14:01,237 --> 00:14:04,751 en big data aanpassen aan onze behoeftes, 297 00:14:04,751 --> 00:14:07,936 onze zeer menselijke behoeftes. 298 00:14:07,936 --> 00:14:09,890 We moeten de technologie de baas zijn. 299 00:14:09,890 --> 00:14:11,546 niet omgekeerd. 300 00:14:11,546 --> 00:14:14,504 We staan aan het begin van het big data-tijdperk, 301 00:14:14,504 --> 00:14:17,654 en eerlijk gezegd zijn we nog niet zo goed 302 00:14:17,654 --> 00:14:21,861 in het omgaan met de big data die we verzamelen. 303 00:14:21,861 --> 00:14:25,191 Het is niet alleen een probleem voor de NSA. 304 00:14:25,191 --> 00:14:28,229 Bedrijven verzamelen veel data en misbruiken die ook. 305 00:14:28,229 --> 00:14:31,896 We moeten er beter in worden en dat kost tijd. 306 00:14:31,896 --> 00:14:33,718 Het lijkt op de uitdaging 307 00:14:33,718 --> 00:14:36,125 die de mens ooit had met vuur. 308 00:14:36,125 --> 00:14:38,010 Het is een gereedschap, 309 00:14:38,010 --> 00:14:41,569 maar als je niet uitkijkt, verbrand je. 310 00:14:44,008 --> 00:14:47,128 Big data gaat ons leven veranderen. 311 00:14:47,128 --> 00:14:49,929 Hoe we leven, hoe we werken en hoe we denken. 312 00:14:49,929 --> 00:14:51,818 Het gaat ons helpen bij onze carrière 313 00:14:51,818 --> 00:14:55,452 en ons een tevreden en hoopvol leven laten leiden 314 00:14:55,452 --> 00:14:58,444 in blijdschap en gezondheid. 315 00:14:58,444 --> 00:15:01,750 Maar vroeger keken we vaak naar informatietechnologie 316 00:15:01,750 --> 00:15:03,958 en zagen we alleen de T, 317 00:15:03,958 --> 00:15:05,644 Technologie, de spullen, 318 00:15:05,644 --> 00:15:07,906 omdat dat fysiek was. 319 00:15:07,906 --> 00:15:10,830 Maar nu moeten we onze blik aanpassen om de I te zien, 320 00:15:10,830 --> 00:15:12,210 de Informatie, 321 00:15:12,210 --> 00:15:13,583 die minder zichtbaar is 322 00:15:13,583 --> 00:15:17,692 maar in zekere zin belangrijker. 323 00:15:17,692 --> 00:15:21,157 De mensheid kan eindelijk leren van informatie 324 00:15:21,157 --> 00:15:23,575 die ze verzamelt 325 00:15:23,575 --> 00:15:25,690 als onderdeel van onze eeuwige zoektocht 326 00:15:25,690 --> 00:15:28,849 om de wereld en onze plek erin beter te begrijpen. 327 00:15:28,849 --> 00:15:34,480 Daarom is big data van groot belang. 328 00:15:34,480 --> 00:15:38,048 (Applaus)