WEBVTT 00:00:00.820 --> 00:00:05.096 Roy Price är en man som de flesta av er förmodligen aldrig hört talas om, 00:00:05.120 --> 00:00:07.616 även om han kan ha varit ansvarig 00:00:07.640 --> 00:00:14.400 för 22 ganska mediokra minuter av ditt liv den 19 april 2013. 00:00:14.400 --> 00:00:17.846 Han kan också ha varit ansvarig för 22 väldigt underhållande minuter, 00:00:17.846 --> 00:00:20.016 men inte för så många av er. 00:00:20.040 --> 00:00:21.680 Och allt beror på ett beslut 00:00:21.680 --> 00:00:24.020 som Roy var tvungen att ta för ungefär tre år sen. NOTE Paragraph 00:00:24.020 --> 00:00:28.816 Ni förstår, Roy Price är en hög chef inom Amazon Studios. 00:00:28.840 --> 00:00:31.856 Det är Amazons produktionsbolag för tv. 00:00:31.880 --> 00:00:35.136 Han är 47 år gammal, smal, med taggigt hår, 00:00:35.160 --> 00:00:39.976 beskriver sig på Twitter som "film, tv, teknik, tacos". 00:00:40.000 --> 00:00:45.176 Roy Price har ett ansvarsfullt jobb, för det är hans ansvar att välja 00:00:45.200 --> 00:00:49.256 vilka serier, vilket originalinnehåll som Amazon ska ta fram. 00:00:49.280 --> 00:00:51.616 Självklart innebär det hög konkurrens. 00:00:51.640 --> 00:00:54.376 Det görs så många tv-serier, 00:00:54.400 --> 00:00:56.576 så Roy kan inte välja vilken serie som helst. 00:00:56.600 --> 00:01:00.696 Han måste hitta en riktigt, riktigt bra serie. 00:01:00.720 --> 00:01:03.536 Med andra ord måste han hitta serier 00:01:03.560 --> 00:01:05.936 som ligger längst ut till höger på den här kurvan. NOTE Paragraph 00:01:05.960 --> 00:01:08.616 Den här kurvan är betygsfördelningen 00:01:08.640 --> 00:01:13.016 för ungefär 2 500 tv-serier i IMDBs databas, 00:01:13.040 --> 00:01:15.936 och betygssnittet kan vara mellan 1 och 10, 00:01:15.960 --> 00:01:18.936 och höjden här visar hur många serier som får det betyget. 00:01:18.960 --> 00:01:23.520 Så om en serie får ett snittbetyg på 9 poäng eller högre är den en vinnare. 00:01:23.520 --> 00:01:25.496 Då har man en serie bland de 2 procenten. 00:01:25.520 --> 00:01:29.416 Det är serier som "Breaking Bad", "Game of Thrones", "The Wire". 00:01:29.440 --> 00:01:31.736 De här serierna är beroendeframkallande, 00:01:31.760 --> 00:01:34.560 så när man har sett en säsong säger ens hjärna liksom, 00:01:34.560 --> 00:01:37.016 "Var kan jag hitta fler sådana här avsnitt?" 00:01:37.040 --> 00:01:38.650 Den sortens serie. 00:01:38.920 --> 00:01:41.416 Till vänster, här borta, för att vara tydlig, 00:01:41.440 --> 00:01:44.616 finns en serie som heter "Toddles and Tiaras" - NOTE Paragraph 00:01:44.640 --> 00:01:47.296 (Skratt) NOTE Paragraph 00:01:47.320 --> 00:01:48.856 - vilket borde säga nog om 00:01:48.880 --> 00:01:51.071 vad som händer på den sidan av kurvan. NOTE Paragraph 00:01:51.465 --> 00:01:55.256 Roy Price är inte orolig för att hamna på den sidan av kurvan, 00:01:55.280 --> 00:01:57.970 för jag tror att man behöver ha en riktigt skarp hjärna 00:01:57.970 --> 00:01:59.996 för att bli sämre än "Toddlers and Tiaras". 00:01:59.996 --> 00:02:03.896 Vad han oroar sig för är klumpen i mitten, 00:02:03.920 --> 00:02:05.736 klumpen av halvbra tv, 00:02:05.760 --> 00:02:08.616 ni vet, sådana där serier som varken är bra eller dåliga, 00:02:08.639 --> 00:02:10.295 som inte gör någon exalterad. 00:02:10.320 --> 00:02:15.110 Så han behöver bli säker på att han verkligen hamnar rätt. NOTE Paragraph 00:02:15.110 --> 00:02:16.826 Det finns ett tryck på att lyckas, 00:02:16.826 --> 00:02:18.976 och det är förstås också första gången 00:02:19.000 --> 00:02:21.176 som Amazon ens gör något sånt här, 00:02:21.200 --> 00:02:24.536 så Roy Price vill inte ta några risker. 00:02:24.560 --> 00:02:27.016 Han vill bygga framgång. 00:02:27.040 --> 00:02:28.816 Han behöver en garanterad succé, 00:02:28.840 --> 00:02:31.416 så han anordnar en tävling. NOTE Paragraph 00:02:31.440 --> 00:02:34.576 Han tar ett antal tv-seriekoncept 00:02:34.600 --> 00:02:36.896 och genom att utvärdera dem 00:02:36.920 --> 00:02:40.800 tar de ut åtta kandidater till tv-serier, 00:02:40.800 --> 00:02:44.256 och sen gör han det första avsnittet av var och en av dessa tv-serier 00:02:44.280 --> 00:02:47.416 och lägger ut dem gratis online så att alla kan se dem. 00:02:47.440 --> 00:02:49.696 Och när Amazon delar ut saker gratis 00:02:49.720 --> 00:02:51.256 vill man ha dem, eller hur? 00:02:51.280 --> 00:02:56.416 Så miljoner människor tittar på avsnitten. NOTE Paragraph 00:02:56.440 --> 00:02:59.656 Vad de inte inser är att när de tittar på sina serier 00:02:59.680 --> 00:03:01.976 är det de som blir betraktade. 00:03:02.000 --> 00:03:04.336 De betraktas av Roy Price och hans team, 00:03:04.360 --> 00:03:05.736 som spelar in allt. 00:03:05.760 --> 00:03:09.136 De spelar in när någon trycker play, när någon pausar, 00:03:09.160 --> 00:03:11.696 vilka delar de hoppar över, vilka delar de ser igen. 00:03:11.720 --> 00:03:13.976 De samlar in miljontals datapunkter, 00:03:14.000 --> 00:03:16.096 för de vill ha dem 00:03:16.120 --> 00:03:18.816 när de bestämmer vilken tv-serie de ska göra. 00:03:18.840 --> 00:03:21.016 Så de samlar in datan, 00:03:21.040 --> 00:03:23.616 de bearbetar informationen, och ett svar träder fram, 00:03:23.640 --> 00:03:24.856 och svaret är, 00:03:24.880 --> 00:03:30.416 "Amazon borde göra en komedi om fyra republikanska senatorer i USA." 00:03:30.440 --> 00:03:31.656 De gjorde den serien. NOTE Paragraph 00:03:31.680 --> 00:03:33.840 Vet någon vad serien heter? 00:03:34.720 --> 00:03:36.016 (Publiken: "Alpha House") 00:03:36.040 --> 00:03:37.496 Ja, "Alpha House", 00:03:37.520 --> 00:03:41.616 men det verkar faktiskt inte vara så många av er som minns den serien, 00:03:41.640 --> 00:03:43.496 för den blev inte så bra. 00:03:43.520 --> 00:03:45.376 Det blev bara en medioker serie, 00:03:45.400 --> 00:03:49.976 rent bokstavligen, för mitten på kurvan är 7,4, 00:03:50.000 --> 00:03:52.416 och "Alpha House" landade på 7,5, 00:03:52.440 --> 00:03:54.456 en serie strax över genomsnittet, 00:03:54.480 --> 00:03:57.700 men det var verkligen inte vad Roy Price och hans team siktade på. 00:03:58.320 --> 00:04:01.176 Men ungefär samtidigt 00:04:01.200 --> 00:04:02.776 på ett annat företag 00:04:02.800 --> 00:04:07.016 lyckades en annan hög chef ro i land en toppserie med hjälp av dataanalys, 00:04:07.040 --> 00:04:08.616 och han heter Ted, 00:04:08.640 --> 00:04:12.056 Ted Sarandos, som är innehållschef på Netflix, 00:04:12.080 --> 00:04:14.216 och precis som Roy letar han ständigt 00:04:14.240 --> 00:04:15.736 efter den stora tv-serien, 00:04:15.760 --> 00:04:17.730 och han använder data för att göra det, 00:04:17.730 --> 00:04:19.815 men han gör det på ett lite annorlunda sätt. 00:04:19.839 --> 00:04:23.576 Så istället för att hålla en tävling, 00:04:23.600 --> 00:04:27.136 tittade han och hans team på den data som de redan hade om Netflixtittare, 00:04:27.160 --> 00:04:29.090 som de betyg de gett till deras serier, 00:04:29.090 --> 00:04:31.976 tittarhistoriken, vilka serier de gillade, och så vidare. 00:04:32.000 --> 00:04:33.896 De använde datan för att upptäcka 00:04:33.920 --> 00:04:36.420 alla små detaljer om sin publik: 00:04:36.420 --> 00:04:37.900 vilka slags serier de gillade, 00:04:37.900 --> 00:04:40.266 vilka slags producenter, vilka slags skådespelare. 00:04:40.266 --> 00:04:42.736 Och när de väl hade satt ihop alla delar 00:04:42.760 --> 00:04:44.416 gjorde de en chansning 00:04:44.440 --> 00:04:46.536 och bestämde sig för att skapa 00:04:46.560 --> 00:04:49.016 inte en komedi om fyra senatorer, 00:04:49.040 --> 00:04:51.920 utan en dramaserie om en enda senator. 00:04:52.760 --> 00:04:54.416 Vet ni vilken serie? NOTE Paragraph 00:04:54.440 --> 00:04:55.736 (Skratt) NOTE Paragraph 00:04:55.760 --> 00:04:59.496 Ja, "House of Cards", och Netflix slog förstås huvudet på spiken med den, 00:04:59.520 --> 00:05:01.656 iallafall de första två säsongerna. NOTE Paragraph 00:05:01.680 --> 00:05:05.656 (Skratt) (Applåder) NOTE Paragraph 00:05:05.680 --> 00:05:08.856 "House of Cards" får 9,1 i snittbetyg på kurvan, 00:05:08.880 --> 00:05:12.056 så det är precis där de ville vara. NOTE Paragraph 00:05:12.080 --> 00:05:14.440 Nu är frågan, vad hände här? 00:05:14.440 --> 00:05:17.176 Vi har två väldigt tävlingsinriktade, datakunniga företag. 00:05:17.200 --> 00:05:20.056 De kombinerar miljontals datapunkter, 00:05:20.080 --> 00:05:22.456 och sen går det utmärkt för en av dem, 00:05:22.480 --> 00:05:24.336 och det fungerar inte för den andra. 00:05:24.360 --> 00:05:25.576 Varför? 00:05:25.600 --> 00:05:29.056 För logiken säger att det borde fungera varje gång. 00:05:29.080 --> 00:05:31.536 Om man samlar ihop miljontals datapunkter 00:05:31.560 --> 00:05:33.296 om ett beslut man ska fatta 00:05:33.320 --> 00:05:35.936 så borde det bli ett ganska bra beslut. 00:05:35.960 --> 00:05:38.176 Det finns 200 år av statistik att luta sig mot. 00:05:38.200 --> 00:05:41.216 Den förstärks med kraftfulla datorer. 00:05:41.240 --> 00:05:44.520 Det minsta man kan begära är bra tv, eller hur? NOTE Paragraph 00:05:45.880 --> 00:05:48.780 Om dataanalys inte fungerar på det sättet 00:05:49.520 --> 00:05:51.576 så blir det lite skrämmande, 00:05:51.600 --> 00:05:55.416 för vi lever i en tid där vi allt oftare lutar oss mot data 00:05:55.440 --> 00:05:59.920 för att fatta allvarliga beslut som går långt bortom tv. 00:06:00.760 --> 00:06:04.000 Känner någon här till företaget Multi-Health Systems? 00:06:05.080 --> 00:06:06.736 Ingen. OK, det är faktiskt bra. 00:06:06.760 --> 00:06:09.976 Multi-Health Systems är ett mjukvaruföretag, 00:06:10.000 --> 00:06:12.816 och jag hoppas att ingen i det här rummet 00:06:12.840 --> 00:06:16.016 någonsin kommer i kontakt med deras mjukvara, 00:06:16.040 --> 00:06:18.136 för det betyder att du sitter i fängelse. NOTE Paragraph 00:06:18.160 --> 00:06:19.320 (Skratt) NOTE Paragraph 00:06:19.320 --> 00:06:22.896 Om någon här i USA sitter i fängelse och de ansöker om villkorlig frigivning 00:06:22.920 --> 00:06:25.960 är det väldigt sannolikt att dataanalysprogram 00:06:25.960 --> 00:06:30.856 från det företaget kommer att användas för att pröva frigivningen. 00:06:30.880 --> 00:06:33.456 Så det är samma princip som för Amazon och Netflix, 00:06:33.480 --> 00:06:38.096 men istället för att bestämma om en tv-serie ska bli bra eller dålig 00:06:38.120 --> 00:06:41.016 bestämmer man om en person ska bli bra eller dålig. 00:06:41.040 --> 00:06:46.536 Och 22 minuter av medioker tv kan vara ganska dåligt, 00:06:46.560 --> 00:06:49.200 men jag antar att fler år i fängelse är ännu värre. NOTE Paragraph 00:06:50.360 --> 00:06:54.496 Oturligt nog finns det faktiskt en del bevis för att den här dataanalysen, 00:06:54.520 --> 00:06:58.400 även om den har massor av data, inte alltid producerar optimala resultat. 00:06:58.400 --> 00:07:01.296 Det beror inte på att ett företag som Multi-Health Systems 00:07:01.296 --> 00:07:03.293 inte vet vad de ska göra med informationen. 00:07:03.293 --> 00:07:05.456 Även datakunniga företag gör fel. 00:07:05.480 --> 00:07:08.050 Ja, till och med Google har fel ibland. NOTE Paragraph 00:07:08.680 --> 00:07:13.176 2009 sa Google att de med hjälp av dataanalys 00:07:13.200 --> 00:07:17.336 kunde förutsäga utbrott av influensa, den elaka sortens förkylning, 00:07:17.360 --> 00:07:21.136 genom att genomföra dataanalys av sina Google-sökningar. 00:07:21.160 --> 00:07:24.710 Och det fungerade fint, vilket gav stor uppmärksamhet i medierna, 00:07:24.710 --> 00:07:27.356 inklusive det yttersta beviset på vetenskaplig framgång: 00:07:27.356 --> 00:07:29.656 en artikel i tidskriften "Nature". 00:07:29.680 --> 00:07:33.190 Det fungerade fint i flera år, 00:07:33.190 --> 00:07:35.096 tills det ett år inte fungerade längre. 00:07:35.096 --> 00:07:37.256 Och ingen kunde ens säga riktigt varför. 00:07:37.280 --> 00:07:38.910 Det fungerade bara inte det året, 00:07:38.910 --> 00:07:41.046 och det fick förstås också mycket publicitet, 00:07:41.046 --> 00:07:42.576 inklusive ett tillbakadragande 00:07:42.600 --> 00:07:45.440 av artikeln i "Nature". 00:07:46.480 --> 00:07:48.960 Så till och med de med de datakunniga företagen 00:07:48.960 --> 00:07:51.976 som Amazon och Google har ibland fel. 00:07:52.000 --> 00:07:54.936 Och trots alla dessa misslyckanden 00:07:54.960 --> 00:07:58.816 får data snabbt ett större inflytande över beslut i verkliga livet - 00:07:58.840 --> 00:08:00.656 på arbetsplatsen, 00:08:00.680 --> 00:08:02.496 inom rättsväsendet, 00:08:02.520 --> 00:08:03.720 inom medicin. 00:08:04.400 --> 00:08:07.736 Så vi borde verkligen ta reda på ifall data verkligen hjälper oss. NOTE Paragraph 00:08:07.760 --> 00:08:10.730 Jag har personligen sett en stor del av de här problemen, 00:08:10.730 --> 00:08:12.896 för jag arbetar inom databeräknad genetik, 00:08:12.920 --> 00:08:15.416 vilken också är ett fält där många smarta människor 00:08:15.440 --> 00:08:19.096 använder oerhörda mängder data för att fatta ganska allvarliga beslut, 00:08:19.120 --> 00:08:22.820 som att välja cancerbehandling eller utveckla en ny medicin. 00:08:23.520 --> 00:08:25.896 Över åren har jag noterat ett slags mönster, 00:08:25.920 --> 00:08:28.290 eller en slags regel, kan man säga, om skillnaden 00:08:28.290 --> 00:08:31.096 mellan framgångsrikt och icke framgångsrikt 00:08:31.120 --> 00:08:32.736 beslutsfattande med data 00:08:32.760 --> 00:08:36.640 och jag har hittat ett mönster som är värt att dela med sig av. NOTE Paragraph 00:08:38.520 --> 00:08:40.655 När man löser ett komplext problem 00:08:40.679 --> 00:08:42.290 gör man i grunden två saker. 00:08:42.290 --> 00:08:43.360 Den första är 00:08:43.360 --> 00:08:48.256 att plocka isär problemet i små bitar så att man kan analysera bitarna 00:08:48.280 --> 00:08:50.180 och sen gör man det andra steget. 00:08:50.180 --> 00:08:52.900 Men sätter ihop bitarna igen 00:08:52.900 --> 00:08:54.336 för att komma till slutsatsen. 00:08:54.360 --> 00:08:56.560 Ibland måste man göra om det, 00:08:56.560 --> 00:08:58.376 men det handlar alltid de två sakerna: 00:08:58.400 --> 00:09:01.240 plocka isär och sätta ihop saker igen. NOTE Paragraph 00:09:02.280 --> 00:09:03.896 Det viktiga är 00:09:03.920 --> 00:09:06.816 att data och dataanalys 00:09:06.840 --> 00:09:09.170 bara är bra för det första steget. 00:09:09.170 --> 00:09:12.296 Hur kraftfulla data och dataanalys än är, kan bara hjälpa till med 00:09:12.296 --> 00:09:16.056 att plocka isär ett problem och förstå dess delar. 00:09:16.080 --> 00:09:19.576 Den passar inte för att sätta ihop delarna igen 00:09:19.600 --> 00:09:21.340 för att komma till en slutsats. 00:09:21.340 --> 00:09:23.460 Det finns ett annat verktyg som kan göra det, 00:09:23.460 --> 00:09:25.716 vi har det allihop, och det är hjärnan. 00:09:25.716 --> 00:09:27.470 Om det finns något hjärnan är bra på 00:09:27.470 --> 00:09:29.610 så är att det att sätta ihop små delar igen, 00:09:29.610 --> 00:09:31.896 även när den inte har all information, 00:09:31.896 --> 00:09:33.456 och kan nå en bra slutsats, 00:09:33.480 --> 00:09:36.290 speciellt om det är en experts hjärna. NOTE Paragraph 00:09:36.290 --> 00:09:39.156 Jag tror att det är därför Netflix blev så framgångsrika, 00:09:39.156 --> 00:09:42.696 för att de använde data och hjärnor där de passade i processen. 00:09:42.720 --> 00:09:46.256 De använder data för att först förstå många små detaljer om sin publik 00:09:46.280 --> 00:09:49.696 som de annars inte skulle ha kunnat förstå på samma djup, 00:09:49.720 --> 00:09:52.336 men beslutet om hur de olika detaljerna 00:09:52.360 --> 00:09:55.560 skulle sättas ihop igen för att bli en serie som "House of Cards" 00:09:55.560 --> 00:09:57.136 fanns ingenstans i deras data. 00:09:57.160 --> 00:10:01.136 Ted Sarandos och hans team tog beslutet att godkänna tv-serien, 00:10:01.160 --> 00:10:03.415 vilket förresten också betydde 00:10:03.415 --> 00:10:06.486 att de tog en ganska stor personlig risk när de tog det beslutet. 00:10:06.486 --> 00:10:09.110 Och Amazon, å andra sidan, de gjorde saken på fel sätt. 00:10:09.110 --> 00:10:11.360 De använde data för allt sitt beslutsfattande, 00:10:11.360 --> 00:10:14.280 först när de höll tävlingen för tv-koncept, 00:10:14.280 --> 00:10:18.376 och sen när de valde "Alpha House" till den serie de skulle göra. 00:10:18.400 --> 00:10:20.896 Vilket självklart var ett säkert val för dem, 00:10:20.920 --> 00:10:23.180 för de kunde alltid peka på data och säga 00:10:23.180 --> 00:10:25.156 "Vår data säger det här." 00:10:25.156 --> 00:10:29.360 Men det ledde inte till de enastående resultat som de hoppades på. NOTE Paragraph 00:10:29.820 --> 00:10:33.190 Så data är förstås ett oerhört kraftfullt verktyg 00:10:33.190 --> 00:10:35.210 för att fatta bättre beslut, 00:10:35.210 --> 00:10:40.096 men jag tror att saker går fel när data börjar styra besluten. 00:10:40.120 --> 00:10:43.820 Hur kraftfull den än är, så är data bara ett verktyg, 00:10:43.820 --> 00:10:47.256 och för att hålla det i minnet tycker jag den här saken är användbar. 00:10:47.280 --> 00:10:48.496 Många av er kommer ... NOTE Paragraph 00:10:48.520 --> 00:10:49.570 (Skratt) NOTE Paragraph 00:10:49.570 --> 00:10:51.526 Innan det fanns data, var det här 00:10:51.526 --> 00:10:53.856 beslutsstödet som användes. NOTE Paragraph 00:10:53.880 --> 00:10:55.136 (Skratt) NOTE Paragraph 00:10:55.160 --> 00:10:56.496 Många känner nog igen den. 00:10:56.520 --> 00:10:58.473 Den här leksaken heter Magic 8 Ball, 00:10:58.497 --> 00:10:59.650 och den är fantastisk, 00:10:59.650 --> 00:11:02.390 för om du har ett beslut att fatta, en ja- eller nejfråga, 00:11:02.400 --> 00:11:06.376 behöver du bara skaka bollen för att få ett svar - 00:11:06.400 --> 00:11:09.216 "Förmodligen" - just här i den här stunden i realtid. 00:11:09.240 --> 00:11:11.336 Jag kan dema den senare. NOTE Paragraph 00:11:11.360 --> 00:11:12.576 (Skratt) NOTE Paragraph 00:11:12.600 --> 00:11:16.030 Så här är det förstås, att jag har fattat några beslut i mitt liv 00:11:16.030 --> 00:11:19.266 där jag i efterhand har förstått att jag borde ha lyssnat på bollen. 00:11:19.266 --> 00:11:22.456 Men om man har data tillgängliga 00:11:22.480 --> 00:11:25.536 vill man såklart ersätta den här med något lite mer sofistikerat, 00:11:25.560 --> 00:11:29.176 till exempel dataanalys, för att fatta ett bättre beslut. 00:11:29.200 --> 00:11:31.816 Men det ändrar inte de grundläggande förutsättningarna. 00:11:31.840 --> 00:11:35.016 Så bollen kan bli allt smartare 00:11:35.040 --> 00:11:37.856 men jag tror att vi fortfarande måste fatta besluten 00:11:37.880 --> 00:11:40.896 om vi vill åstadkomma något utöver det vanliga, 00:11:40.920 --> 00:11:42.856 längst till höger på kurvan. 00:11:42.880 --> 00:11:47.376 Och jag tycker faktiskt att det är ett väldigt uppmuntrande budskap, 00:11:47.400 --> 00:11:51.376 att även när vi står inför enorma mängder data 00:11:51.400 --> 00:11:55.496 lönar det sig fortfarande att fatta beslut, 00:11:55.520 --> 00:11:58.176 att vara en expert på det man gör, 00:11:58.200 --> 00:12:00.296 och att ta risker. 00:12:00.320 --> 00:12:03.096 För i slutändan är det inte data 00:12:03.120 --> 00:12:07.450 utan risker som kommer att ta en längst ut till höger på kurvan. NOTE Paragraph 00:12:07.690 --> 00:12:09.056 Tack. NOTE Paragraph 00:12:09.080 --> 00:12:12.070 (Applåder)