1 00:00:00,975 --> 00:00:02,571 Algoritmusok mindenhol vannak. 2 00:00:04,111 --> 00:00:07,236 Azok rendezik és különítik el a győzteseket a vesztesektől. 3 00:00:08,019 --> 00:00:10,207 A győztesek kapják az állásokat 4 00:00:10,207 --> 00:00:11,742 s a jó hitelkártya-ajánlatokat. 5 00:00:12,190 --> 00:00:14,725 A vesztesek még az interjúig sem jutnak, 6 00:00:15,590 --> 00:00:17,367 és a biztosítás is drágább nekik. 7 00:00:18,197 --> 00:00:21,746 Titkos, érthetetlen képletekkel pontoznak minket, 8 00:00:22,675 --> 00:00:25,892 amelyek ellen gyakran nincs fellebbezés. 9 00:00:27,240 --> 00:00:28,536 Fölvetődik a kérdés: 10 00:00:28,560 --> 00:00:31,473 mi van, ha az algoritmusok hibásak? 11 00:00:33,100 --> 00:00:35,140 Algoritmus kialakításához két dolog kell: 12 00:00:35,164 --> 00:00:37,145 múltról szóló adatok 13 00:00:37,169 --> 00:00:39,530 meg a keresett s gyakorta remélt 14 00:00:39,530 --> 00:00:41,211 siker meghatározása. 15 00:00:41,235 --> 00:00:46,272 Idomítjuk az algoritmust, közben figyeljük, számolgatunk. 16 00:00:46,296 --> 00:00:49,715 Az algoritmus kiszámolja, mi minősül sikernek. 17 00:00:49,739 --> 00:00:52,202 Milyen helyzet vezet sikerre? 18 00:00:52,881 --> 00:00:54,643 Mindenki használ algoritmust, 19 00:00:54,667 --> 00:00:57,385 csak nem formalizálja leírt kód alakjában. 20 00:00:57,409 --> 00:00:58,757 Mondok egy példát. 21 00:00:58,781 --> 00:01:02,097 Naponta algoritmust használok, amikor főzök a családomnak. 22 00:01:02,121 --> 00:01:03,597 A fölhasznált adatok: 23 00:01:04,394 --> 00:01:06,053 hozzávalók a konyhában, 24 00:01:06,077 --> 00:01:07,604 a rendelkezésre álló idő, 25 00:01:07,628 --> 00:01:08,861 milyen kedvem van. 26 00:01:08,885 --> 00:01:10,594 Ezeket az adatokat rendszerezem. 27 00:01:10,618 --> 00:01:14,869 A zacskós leveseket nem tartom ételnek. 28 00:01:14,893 --> 00:01:16,112 (Nevetés) 29 00:01:16,786 --> 00:01:18,631 A sikert így határozom meg: 30 00:01:18,655 --> 00:01:21,314 sikeres az étel, ha srácaim esznek zöldséget. 31 00:01:22,181 --> 00:01:25,035 Legkisebb fiam szerint más a siker mércéje. 32 00:01:25,059 --> 00:01:27,601 Szerinte az, ha sok Nutellát ehetne. 33 00:01:29,179 --> 00:01:31,405 De én választom meg a sikert. 34 00:01:31,429 --> 00:01:34,136 Én döntök. Az én véleményem mérvadó. 35 00:01:34,160 --> 00:01:36,835 Ez az algoritmusok első szabálya. 36 00:01:36,859 --> 00:01:40,039 Az algoritmusok kódba ágyazott vélemények. 37 00:01:41,562 --> 00:01:45,225 Eltér attól, amit önök, a legtöbben az algoritmusról gondolnak. 38 00:01:45,249 --> 00:01:49,753 Azt hiszik, hogy az algoritmus objektív, igaz és tudományos jószág. 39 00:01:50,387 --> 00:01:52,086 Ez csak marketingfogás. 40 00:01:53,269 --> 00:01:55,015 Az is marketingfogás, 41 00:01:55,198 --> 00:01:58,572 hogy algoritmusokkal riogatják önöket, 42 00:01:58,596 --> 00:02:02,257 hogy bízzanak bennük, és féljenek tőlük, 43 00:02:02,281 --> 00:02:04,369 mert önök bíznak a matekban, s félnek tőle. 44 00:02:05,567 --> 00:02:10,397 Sokuk hibásnak bizonyulhat, ha vakon hiszünk a big datában. 45 00:02:11,684 --> 00:02:15,057 Ő Kiri Soares, középiskolai igazgató Brooklynban. 46 00:02:15,081 --> 00:02:17,667 2011-ben elmondta nekem, hogy tanárait 47 00:02:17,691 --> 00:02:19,422 komplex, titkos algoritmussal 48 00:02:19,422 --> 00:02:21,931 ún. "hozzáadott érték modell"-lel pontozták, 49 00:02:22,505 --> 00:02:24,891 "Nézz utána a képletnek, mutasd meg nekem, 50 00:02:24,891 --> 00:02:26,382 majd elmagyarázom" – feleltem. 51 00:02:26,946 --> 00:02:28,931 "Próbáltam megszerezni, 52 00:02:28,931 --> 00:02:32,123 de az oktatási minisztériumi ember azt mondta, hogy az matek, 53 00:02:32,147 --> 00:02:33,693 és úgysem érteném" – válaszolta. 54 00:02:35,266 --> 00:02:36,498 De ez még semmi! 55 00:02:36,598 --> 00:02:40,238 Az információszabadsági törvény alapján a New York Post kérvényt nyújtott be, 56 00:02:40,238 --> 00:02:43,141 megszerezte a tanárok nevét és pontszámát, 57 00:02:43,165 --> 00:02:45,947 és a tanárok megszégyenítéséül közzétette. 58 00:02:47,084 --> 00:02:50,944 Amikor ugyanezzel a módszerrel meg akartam szerezni a képletet, a forráskódot, 59 00:02:50,968 --> 00:02:53,117 azt mondták, nem lehet. 60 00:02:53,141 --> 00:02:54,211 Megtagadták. 61 00:02:54,211 --> 00:02:55,575 Később megtudtam, 62 00:02:55,599 --> 00:02:58,465 hogy senkinek sincs meg a képlet New Yorkban. 63 00:02:58,489 --> 00:02:59,794 Senki sem ismerte. 64 00:03:01,929 --> 00:03:05,153 Aztán Gary Rubenstein, egy okos ember, elkezdett vele foglalkozni. 65 00:03:05,177 --> 00:03:08,798 A New York Post adataiban talált 665 tanárt, 66 00:03:08,822 --> 00:03:10,494 akiknek két különböző pontjuk volt. 67 00:03:10,712 --> 00:03:12,593 Ez úgy lehet, ha a tanárok 68 00:03:12,617 --> 00:03:15,056 hetedikes és nyolcadikas matekot is tanítottak. 69 00:03:15,080 --> 00:03:16,618 Úgy döntött, hogy ábrát készít. 70 00:03:16,642 --> 00:03:18,635 Minden pötty egy tanárnak felel meg. 71 00:03:19,104 --> 00:03:20,477 (Nevetés) 72 00:03:21,507 --> 00:03:22,665 Mi ez? 73 00:03:23,052 --> 00:03:24,329 (Nevetés) 74 00:03:24,353 --> 00:03:27,799 Egyéni értékelés esetén ilyen sohasem történt volna. 75 00:03:27,823 --> 00:03:29,732 Majdhogynem egy véletlenszám-generátor. 76 00:03:29,732 --> 00:03:30,916 (Taps) 77 00:03:32,743 --> 00:03:33,499 Az is volt. 78 00:03:33,499 --> 00:03:34,546 Ő Sarah Wysocki. 79 00:03:34,546 --> 00:03:37,304 Kirúgták 205 tanártársával együtt 80 00:03:37,328 --> 00:03:39,424 a washingtoni iskolakörzetből, 81 00:03:40,014 --> 00:03:42,923 bár kitűnő véleménye volt róla az igazgatójának, 82 00:03:42,947 --> 00:03:44,375 a szülőknek és a gyerekeknek. 83 00:03:45,310 --> 00:03:46,996 Tudom, a jelenlévők mire gondolnak, 84 00:03:46,996 --> 00:03:49,547 különösen az adattudósok és az MI-szakértők. 85 00:03:49,547 --> 00:03:54,183 Erre: "Én aztán soha nem csinálnék olyan következetlen algoritmust!" 86 00:03:54,853 --> 00:03:56,536 De az algoritmusok hibázhatnak, 87 00:03:56,560 --> 00:04:01,158 és erős romboló hatásuk is lehet jó szándékból adódóan. 88 00:04:02,531 --> 00:04:04,910 Egy rosszul tervezett repülő 89 00:04:04,934 --> 00:04:06,935 földre zuhan mindenki szeme láttára, 90 00:04:06,959 --> 00:04:08,809 de egy rosszul tervezett algoritmus 91 00:04:10,245 --> 00:04:14,110 sokáig működhet, csöndes rombolást okozva. 92 00:04:15,748 --> 00:04:17,090 Ő Roger Ailes. 93 00:04:17,342 --> 00:04:19,342 (Nevetés) 94 00:04:20,524 --> 00:04:22,912 1996-ban ő alapította a Fox Newst. 95 00:04:23,436 --> 00:04:26,017 Több mint 20 nő panaszkodott szexuális zaklatás miatt. 96 00:04:26,041 --> 00:04:29,276 Mondták, hogy nem számíthattak sikerre a Fox Newsnál. 97 00:04:29,300 --> 00:04:31,820 2016-ban Ailest kirúgták, de látható, 98 00:04:31,844 --> 00:04:34,514 hogy a helyzet nem változik. 99 00:04:35,654 --> 00:04:37,054 Adódik a kérdés: 100 00:04:37,078 --> 00:04:39,962 Mit kell a Fox Newsnak tennie, hogy a helyzet javuljon? 101 00:04:41,245 --> 00:04:43,850 Mi lenne, ha felvételi rendszerüket 102 00:04:43,850 --> 00:04:45,784 gépi tanulási algoritmusra cserélnék le? 103 00:04:45,784 --> 00:04:46,935 Jól hangzik, ugye? 104 00:04:47,467 --> 00:04:48,378 De gondoljunk bele! 105 00:04:48,681 --> 00:04:51,036 Milyen adatok állnak rendelkezésre? 106 00:04:51,060 --> 00:04:55,787 Az észszerű választás az utóbbi 21 évben a Fox Newshoz beadott jelentkezési lapok. 107 00:04:56,031 --> 00:04:56,748 Észszerű. 108 00:04:57,557 --> 00:04:59,495 Mi van a siker meghatározásával? 109 00:04:59,921 --> 00:05:01,325 Az észszerű válasz ez lenne: 110 00:05:01,325 --> 00:05:03,047 aki sikeres volt a Fox Newsnál? 111 00:05:03,071 --> 00:05:06,651 Mondjuk, aki négy évet ott töltött, 112 00:05:06,675 --> 00:05:08,329 és legalább egyszer előléptették. 113 00:05:08,816 --> 00:05:10,059 Észszerűnek hangzik. 114 00:05:10,401 --> 00:05:12,755 Aztán idomítjuk az algoritmust arra, 115 00:05:12,779 --> 00:05:16,656 hogy olyanokat keressen, akik sikeresnek bizonyultak, 116 00:05:17,129 --> 00:05:21,537 hogy megtudjuk, idővel mely jelentkezők lettek sikeresek 117 00:05:21,561 --> 00:05:22,855 meghatározásunk szerint. 118 00:05:24,200 --> 00:05:25,849 De gondoljunk most arra, mi lenne, 119 00:05:25,849 --> 00:05:27,965 ha ezt alkalmaznánk a mostani jelentkezőkre, 120 00:05:29,119 --> 00:05:30,748 és kiszűrnénk a nőket, 121 00:05:31,663 --> 00:05:35,593 mert a nők nem voltak sikeresek a múltban? 122 00:05:39,752 --> 00:05:42,289 Az algoritmusoktól a dolgok nem válnak korrektté, 123 00:05:42,313 --> 00:05:44,831 ha gondatlanul, vakon alkalmazzuk őket. 124 00:05:44,831 --> 00:05:46,513 Tőlük semmi sem válik korrektté. 125 00:05:46,537 --> 00:05:48,665 A múlt gyakorlatát ismétlik, 126 00:05:48,689 --> 00:05:49,872 a mi sémáinkat, 127 00:05:49,896 --> 00:05:51,835 Automatizálják a status quót. 128 00:05:52,718 --> 00:05:55,107 Tökéletes világban ez nagyszerű is lenne, 129 00:05:55,905 --> 00:05:57,217 de a világ nem olyan. 130 00:05:57,241 --> 00:06:01,343 Hozzáteszem, hogy a legtöbb cégnek nincsenek kínos perei, 131 00:06:02,446 --> 00:06:05,034 de azoknál a cégeknél az adattudósoknak azt mondják, 132 00:06:05,058 --> 00:06:07,247 hogy tartsák magukat az adatokhoz, 133 00:06:07,271 --> 00:06:09,414 a precizitás minden előtt. 134 00:06:10,273 --> 00:06:11,508 Mit jelent ez? 135 00:06:11,508 --> 00:06:15,269 Mivel mindannyian elfogultak vagyunk, ezért esetleg szexizmust 136 00:06:15,269 --> 00:06:17,565 vagy más fanatizmust kódolhatnak be. 137 00:06:19,488 --> 00:06:20,909 Gondolatkísérlet. 138 00:06:20,933 --> 00:06:22,442 Szeretem a gondolatkísérletet. 139 00:06:23,574 --> 00:06:26,549 Teljesen szegregált társadalom, 140 00:06:28,247 --> 00:06:31,575 rasszok szerint minden város, minden környék szegregált, 141 00:06:31,599 --> 00:06:34,636 és csak kisebbségi környékre küldjük ki a rendőrséget 142 00:06:34,660 --> 00:06:35,853 bűnüldözés céljából. 143 00:06:36,451 --> 00:06:38,670 A letartóztatási adatok igen torzak lesznek. 144 00:06:39,851 --> 00:06:42,426 Mi lenne, ha adattudósokat kérnénk, 145 00:06:42,450 --> 00:06:46,611 jelezzék előre, hol lesz a következő bűntett. 146 00:06:47,275 --> 00:06:48,762 A kisebbségi környéken. 147 00:06:49,285 --> 00:06:52,410 Vagy jósolják meg, ki lesz a következő bűnöző. 148 00:06:52,888 --> 00:06:54,283 Egy kisebbségi. 149 00:06:55,949 --> 00:06:58,364 Az adattudósok azzal fognak kérkedni, 150 00:06:58,364 --> 00:07:00,611 milyen nagyszerű és precíz a modelljük, 151 00:07:00,835 --> 00:07:01,763 és igazuk lesz. 152 00:07:03,951 --> 00:07:08,040 A valóság nem ily végletes, de azért sok helyen 153 00:07:08,040 --> 00:07:09,701 súlyos szegregációt tapasztalunk, 154 00:07:09,701 --> 00:07:11,263 rengeteg a bizonyíték 155 00:07:11,818 --> 00:07:14,128 elfogult intézkedésekre és jogrendszeri adatokra. 156 00:07:15,632 --> 00:07:17,965 De azért megjósoljuk a gócokat, 157 00:07:18,471 --> 00:07:20,081 bűntettek előfordulási helyeit. 158 00:07:20,401 --> 00:07:23,955 Megjósoljuk az egyéni bűnözést, 159 00:07:24,141 --> 00:07:25,751 egyesek bűnelkövetését. 160 00:07:26,972 --> 00:07:30,935 A ProPublica hírügynökség nemrég megnézett 161 00:07:30,959 --> 00:07:32,983 egy "visszaesési kockázat" algoritmust, 162 00:07:33,007 --> 00:07:34,700 ahogy ők hívják, Floridában, 163 00:07:34,724 --> 00:07:37,086 bírói ítélethozatal közben. 164 00:07:38,411 --> 00:07:41,938 Bernard, fekete férfi balról, tízből 10 pontot kapott. 165 00:07:43,059 --> 00:07:45,109 Dylan a jobb oldalon, tízből hármat. 166 00:07:45,210 --> 00:07:47,821 Tízből 10 – nagy kockázat, tízből három – kis kockázat. 167 00:07:48,598 --> 00:07:50,983 Mindkettőt kábszer-birtoklásért kapták el. 168 00:07:51,007 --> 00:07:52,161 Mindketten visszaesők, 169 00:07:52,185 --> 00:07:54,991 Dylannak volt súlyos bűntette, 170 00:07:55,015 --> 00:07:56,191 de Bernardnak nem. 171 00:07:57,818 --> 00:08:00,884 Ez számít, mert magasabb pontszám esetén 172 00:08:00,908 --> 00:08:03,841 súlyosabb ítéletet szabnak ki. 173 00:08:06,294 --> 00:08:07,588 Mi történik? 174 00:08:08,526 --> 00:08:09,858 Adatmosás. 175 00:08:10,930 --> 00:08:15,357 Ezzel a folyamattal rejtik el a technikusok a csúnya igazságot 176 00:08:15,381 --> 00:08:17,202 a feketedoboz-algoritmusba, 177 00:08:17,226 --> 00:08:18,516 s eztán már objektívnak 178 00:08:19,320 --> 00:08:20,888 és érdemeken alapulónak hívják. 179 00:08:23,118 --> 00:08:25,503 Mivel titkosak, fontosak és rombolók, 180 00:08:25,527 --> 00:08:27,809 alkottam rájuk egy fogalmat: 181 00:08:28,038 --> 00:08:30,037 "a matematika tömegpusztító fegyverei". 182 00:08:30,061 --> 00:08:31,267 (Nevetés) 183 00:08:31,279 --> 00:08:32,463 (Taps) 184 00:08:34,607 --> 00:08:37,081 Mindenhol vannak, nem tévedés. 185 00:08:37,695 --> 00:08:41,418 Magáncégek magánalgoritmusokat készítenek 186 00:08:41,442 --> 00:08:42,530 magáncélokra. 187 00:08:43,214 --> 00:08:46,428 Még az említett, tanároknak és a rendőrségnek szántakat is 188 00:08:46,452 --> 00:08:48,095 magáncégek készítették, 189 00:08:48,105 --> 00:08:50,048 majd adták el állami intézményeknek. 190 00:08:50,600 --> 00:08:52,473 "Titkos szósznak" hívják őket, 191 00:08:52,497 --> 00:08:54,625 ezért nem fedik föl őket. 192 00:08:54,649 --> 00:08:56,869 Ez is magánhatalom. 193 00:08:57,924 --> 00:09:02,619 Profitálnak a kiismerhetetlen hatalom gyakorlásából. 194 00:09:04,994 --> 00:09:08,048 Fölvethetik: mivel ez mind magántermék, 195 00:09:08,072 --> 00:09:09,054 verseny van, 196 00:09:09,054 --> 00:09:11,464 talán a szabadpiac megoldja a nehézséget. 197 00:09:11,464 --> 00:09:12,239 Nem fogja. 198 00:09:12,567 --> 00:09:15,837 Tisztességtelenséggel sokat lehet keresni. 199 00:09:17,127 --> 00:09:20,324 Ráadásul nem vagyunk gazdaságilag racionális egyedek. 200 00:09:21,031 --> 00:09:22,323 Mind elfogultak vagyunk. 201 00:09:22,960 --> 00:09:26,337 Mind rasszisták és bigottak vagyunk, még ha nem akarjuk is, 202 00:09:26,361 --> 00:09:28,380 még ha nem tudunk is róla. 203 00:09:29,352 --> 00:09:32,433 De összességében mégis tudunk róla, 204 00:09:32,457 --> 00:09:34,551 mert szociológiai kísérletek 205 00:09:34,551 --> 00:09:36,876 ezt következetesen alátámasztják. 206 00:09:37,390 --> 00:09:40,588 Beküldik egy csomó egyformán alkalmas személy állásjelentkezését, 207 00:09:40,588 --> 00:09:42,367 de egyeseknek "fehéres" nevük van, 208 00:09:42,367 --> 00:09:43,673 másoknak feketének hangzó. 209 00:09:44,237 --> 00:09:46,786 Az eredmény mindig elkeserítő. 210 00:09:47,510 --> 00:09:49,195 Tehát mind elfogultak vagyunk, 211 00:09:49,195 --> 00:09:52,598 és elfogultságunkat azzal ojtjuk be az algoritmusokba, 212 00:09:52,598 --> 00:09:54,730 hogy megválasztjuk, milyen adatot gyűjtsünk, 213 00:09:54,730 --> 00:09:57,337 ahogy én sem vettem tudomást a zacskós levesről, 214 00:09:57,361 --> 00:09:58,900 mert nem tartottam lényegesnek. 215 00:09:58,900 --> 00:10:04,328 De ha múltbéli gyakorlaton alapuló adatokban bízva 216 00:10:04,663 --> 00:10:06,506 határozzuk meg a sikert, 217 00:10:06,756 --> 00:10:10,111 hogyan remélhetjük, hogy megbízhatók lesznek az algoritmusok? 218 00:10:10,763 --> 00:10:13,119 Sehogy. Ellenőriznünk kell őket! 219 00:10:14,165 --> 00:10:15,874 Ellenőrizni, hogy pártatlanok-e. 220 00:10:15,898 --> 00:10:18,060 A jó hír, hogy lehet ezt ellenőrizni. 221 00:10:18,633 --> 00:10:21,985 Az algoritmusok vizsgálhatók. 222 00:10:22,009 --> 00:10:23,847 Mindig megmondják az igazat. 223 00:10:24,067 --> 00:10:25,906 Javíthatunk rajtuk. 224 00:10:26,584 --> 00:10:28,519 Ezt hívom algoritmus-auditálásnak, 225 00:10:28,983 --> 00:10:30,617 s megmutatom lépésenként, hogyan. 226 00:10:30,686 --> 00:10:32,798 Első az adatintegritás vizsgálata. 227 00:10:34,132 --> 00:10:36,436 Az említett visszaesési kockázat algoritmusánál 228 00:10:37,582 --> 00:10:40,650 az adatintegritás azt jelenti, hogy el kell fogadnunk a tényt, 229 00:10:41,049 --> 00:10:44,274 hogy feketék s fehérek azonos arányban szívnak füvet az USA-ban, 230 00:10:44,729 --> 00:10:47,214 ám a feketéket sokkal gyakrabban tartóztatják le, 231 00:10:47,238 --> 00:10:50,241 a körzettől függően négy-ötször gyakrabban. 232 00:10:51,317 --> 00:10:54,143 Hogy néz ki az elfogultság más bűnügyi területen, 233 00:10:54,167 --> 00:10:55,493 és mivel magyarázható? 234 00:10:56,162 --> 00:10:58,814 Másodszor, foglalkoznunk kell a siker meghatározásával, 235 00:10:59,225 --> 00:11:00,606 auditálnunk kell. 236 00:11:00,630 --> 00:11:03,382 Emlékeznek a felvételi algoritmusra? 237 00:11:03,406 --> 00:11:06,125 Sikeres, aki négy éve dolgozik, és egyszer léptették elő? 238 00:11:06,465 --> 00:11:08,098 Ő sikeres munkatárs, 239 00:11:08,098 --> 00:11:10,975 de azért, mert belesimult a cég kultúrájába. 240 00:11:12,089 --> 00:11:13,565 Ez is elfogultság lehet. 241 00:11:13,565 --> 00:11:15,438 A két dolgot el kell választanunk. 242 00:11:16,088 --> 00:11:17,388 Példának ott van 243 00:11:17,388 --> 00:11:19,318 a vak zenekari meghallgatás: 244 00:11:19,528 --> 00:11:22,116 a zenészek függöny mögött játszanak. 245 00:11:22,946 --> 00:11:24,877 A lényeg, hogy akik hallgatják őket, 246 00:11:24,901 --> 00:11:27,603 már eldöntötték, mi fontos, 247 00:11:28,342 --> 00:11:30,072 s azt is eldöntötték, mi nem, 248 00:11:30,072 --> 00:11:32,054 s erről semmi nem vonja el a figyelmüket. 249 00:11:32,961 --> 00:11:35,342 Amikor megindult a vak zenekari meghallgatás, 250 00:11:35,734 --> 00:11:38,888 a zenekarban játszó nők száma ötszörösére nőtt. 251 00:11:40,253 --> 00:11:42,268 Aztán minősíteni kell a precizitást. 252 00:11:43,233 --> 00:11:46,673 Itt rögtön megbukik a tanároknak szóló hozzáadottérték-modell. 253 00:11:47,578 --> 00:11:49,499 Persze, nincs tökéletes algoritmus, 254 00:11:50,620 --> 00:11:54,225 ezért mérlegelni kell minden algoritmus esetleges hibáját. 255 00:11:54,836 --> 00:11:59,013 Milyen gyakoriak a hibák, és kinél sikertelen a modell? 256 00:11:59,850 --> 00:12:01,568 Mi a sikertelenség ára? 257 00:12:02,434 --> 00:12:04,641 Végezetül, meg kell fontolnunk 258 00:12:05,973 --> 00:12:09,199 az algoritmusok s a keletkező visszacsatolási hurkok 259 00:12:09,199 --> 00:12:10,922 hosszú távú kihatásait. 260 00:12:11,466 --> 00:12:12,702 Ez elvontnak hangzik, 261 00:12:12,726 --> 00:12:15,580 de képzeljék el, ha a Facebook- mérnökök gondoltak volna rá, 262 00:12:16,270 --> 00:12:21,125 mielőtt eldöntötték, hogy csak a barátaink posztolta dolgokat mutatják nekünk. 263 00:12:21,631 --> 00:12:24,730 Még két megjegyzésem van, egyik az itt ülő adattudósoknak szól. 264 00:12:25,450 --> 00:12:28,702 Adattudósok! Nem lehetünk az igazság döntőbírái. 265 00:12:29,520 --> 00:12:33,303 A szélesebb társadalomban folyó erkölcsi eszmecserét 266 00:12:33,327 --> 00:12:34,621 kell tolmácsolnunk. 267 00:12:35,579 --> 00:12:36,399 (Taps) 268 00:12:37,736 --> 00:12:38,872 A többieknek, 269 00:12:40,011 --> 00:12:41,407 a nem adattudósoknak: 270 00:12:41,431 --> 00:12:42,666 ez nem matekvizsga. 271 00:12:43,632 --> 00:12:44,980 Ez politikai küzdelem. 272 00:12:46,587 --> 00:12:50,334 Követelnünk kell, hogy az algoritmusok nagyurai elszámoltathatók legyenek. 273 00:12:52,118 --> 00:12:53,050 (Taps) 274 00:12:53,641 --> 00:12:57,866 Vessünk véget a big datába vetett vakhit korszakának! 275 00:12:57,890 --> 00:12:59,057 Köszönöm szépen. 276 00:12:59,081 --> 00:13:00,619 (Taps)