Doba slepe vere u masovne podatke mora se okončati
-
0:01 - 0:02Algoritmi su svuda.
-
0:04 - 0:07Filtriraju i odvajaju
pobednike od gubitnika. -
0:08 - 0:10Pobednici dobijaju posao
-
0:10 - 0:12ili dobru ponudu kreditne kartice.
-
0:12 - 0:15Za gubitnike nema ni intervjua
-
0:15 - 0:17ili plaćaju više za osiguranje.
-
0:18 - 0:22Ocenjuju nas tajne formule
koje ne razumemo, -
0:22 - 0:26za koje često ne postoje
sistemi za podnošenje žalbe. -
0:27 - 0:28To nas tera se zapitamo:
-
0:28 - 0:31„Šta ako algoritmi greše?“
-
0:33 - 0:35Da napravite algoritam
potrebne su vam dve stvari: -
0:35 - 0:37podaci, šta je bilo u prošlosti,
-
0:37 - 0:38i definicija uspeha,
-
0:38 - 0:41koji tražite i kojem se često nadate.
-
0:41 - 0:46Osposobljavate algoritam
posmatranjem i zaključivanjem. -
0:46 - 0:49Algoritam pronalazi vezu sa uspehom.
-
0:49 - 0:52Koja situacija vodi ka uspehu?
-
0:53 - 0:54Zapravo, svi koriste algoritme,
-
0:54 - 0:57ali ih ne formalizuju u pisani kôd.
-
0:57 - 0:58Evo vam primera.
-
0:58 - 1:01Svaki dan koristim algoritam
da napravim porodici doručak. -
1:02 - 1:03Podaci koje koristim su:
-
1:04 - 1:06namirnice u kuhinji,
-
1:06 - 1:07vreme koje imam na raspolaganju,
-
1:07 - 1:08ambicija koju imam,
-
1:08 - 1:10i te podatke obrađujem.
-
1:10 - 1:15U hranu ne računam
ona mala pakovanja instant špageta. -
1:15 - 1:17(Smeh)
-
1:17 - 1:18Moja definicija uspeha je -
-
1:18 - 1:21obrok je uspeo ako moja deca jedu povrće.
-
1:22 - 1:24To bi izgledalo mnogo drugačije
da se moj sin pita. -
1:24 - 1:27Njemu bi uspeh bio da se najede nutele.
-
1:29 - 1:31Ali, ja biram uspeh.
-
1:31 - 1:34Ja sam zadužena za to.
Moje mišljenje je važno. -
1:34 - 1:37To je prvo pravilo algoritama.
-
1:37 - 1:40Algoritmi su mišljenja ugrađena u kôd.
-
1:41 - 1:45To se veoma razlikuje od onoga što mislite
da većina ljudi misli o algoritmima. -
1:45 - 1:49Ljudi misle da su algoritmi
objektivni, istiniti i naučni. -
1:50 - 1:52To je marketinški trik.
-
1:53 - 1:55Marketinški trik jeste
-
1:55 - 1:58i kada vas plaše algoritmima,
-
1:58 - 2:02kada vas teraju da verujete
i da se plašite algoritama -
2:02 - 2:04jer verujete matematici i plašite je se.
-
2:05 - 2:10Mnogo grešaka može se desiti
kada slepo verujemo u masovne podatke. -
2:11 - 2:15Ovo je Kiri Soares,
direktor srednje škole u Bruklinu. -
2:15 - 2:17Godine 2011. rekla mi je
da njen kolektiv ocenjuju -
2:17 - 2:20složenim, tajnim algoritmom
-
2:20 - 2:22koji se zove „model dodatne vrednosti“.
-
2:22 - 2:25Rekla sam joj: „Saznaj
koja je formula i pokaži mi je. -
2:25 - 2:27Objasniću ti je.“
-
2:27 - 2:29Rekla je: „Pokušala sam dobiti formulu,
-
2:29 - 2:32ali osoba iz Ministarstva obrazovanja
mi je rekla da je to matematika -
2:32 - 2:34i da je neću razumeti.“
-
2:35 - 2:36Postaje sve gore.
-
2:36 - 2:40Njujork Post je podneo zahtev
na osnovu zakona o slobodi informacija, -
2:40 - 2:43dobio imena i ocene svih nastavnika
-
2:43 - 2:46i onda ih objavio kao čin
sramoćenja nastavnika. -
2:47 - 2:51Kada sam probala istim putem doći
do formula, do izvornog kôda, -
2:51 - 2:53rečeno mi je da ne može.
-
2:53 - 2:54Odbijena sam.
-
2:54 - 2:55Posle sam saznala
-
2:55 - 2:58da niko u Njujorku
nema podatke o toj formuli. -
2:58 - 2:59Niko je nije razumeo.
-
3:02 - 3:05Onda se uključio neko
veoma bistar, Geri Rubenstajn. -
3:05 - 3:09Pronašao je 665 nastavnika
iz onog članka u Njujork Postu -
3:09 - 3:10koji zapravo imaju dva rezultata.
-
3:11 - 3:15Ovo se moglo desiti jer su predavali
matematiku u sedmom i osmom razredu. -
3:15 - 3:17Odlučio je da ih ubaci u grafikon.
-
3:17 - 3:19Svaka tačka je nastavnica ili nastavnik.
-
3:19 - 3:21(Smeh)
-
3:21 - 3:23Šta je to?
-
3:23 - 3:24(Smeh)
-
3:24 - 3:27To se nikako nije trebalo koristiti
za individualne procene. -
3:27 - 3:29Ovo je kao generator nasumičnih brojeva.
-
3:29 - 3:32(Aplauz)
-
3:33 - 3:33Ali, korišćeno je.
-
3:33 - 3:34Ovo je Sara Visoki.
-
3:34 - 3:37Otpuštena je kad i 205 drugih nastavnika
-
3:37 - 3:40iz škola vašingtonskog okruga
-
3:40 - 3:43iako je imala odlučne preporuke direktora
-
3:43 - 3:44i roditelja učenika.
-
3:45 - 3:47Znam šta mnogi od vas ovde sada misle,
-
3:47 - 3:50posebno naučnici za podatke,
stručnjaci za veštačku inteligenciju. -
3:50 - 3:54Mislite: „Pa, nikada ne bismo napravili
tako nedosledan algoritam.“ -
3:55 - 3:56Ali, algoritmi mogu pogrešiti,
-
3:56 - 4:01čak imati i duboko destruktivno dejstvo
sa dobrom namerama. -
4:02 - 4:05Dok loše napravljen avion
-
4:05 - 4:07padne na tlo i svi to vide,
-
4:07 - 4:09loše osmišljen algoritam
-
4:10 - 4:14može trajati dugo i potajno
i tiho praviti ogromnu štetu. -
4:16 - 4:17Ovo je Rodžer Ejls.
-
4:17 - 4:19(Smeh)
-
4:20 - 4:23Osnovao je Foks Njuz 1996. godine.
-
4:23 - 4:26Preko 20 žena žalilo se
na seksualno uznemiravanje. -
4:26 - 4:29Rekle su da im u Foks Njuzu
nije dozvoljen uspeh. -
4:29 - 4:30Izbačen je prošle godine,
-
4:30 - 4:34ali nedavno smo videli
da problemi još nisu rešeni. -
4:35 - 4:37To zahteva da se postavi pitanje
-
4:37 - 4:40šta Foks Njuz treba da uradi
da okrene novi list. -
4:41 - 4:44Šta bi se desilo da proces zapošljavanja
-
4:44 - 4:46zamene mašinskim algoritmom koji uči?
-
4:46 - 4:47Zvuči dobro, zar ne?
-
4:47 - 4:49Razmislite o tome.
-
4:49 - 4:51Podaci. Šta bi bi bili podaci?
-
4:51 - 4:56Ima smisla izabrati prijave za Foks Njuz
tokom poslednjih 21 godina. -
4:56 - 4:57Ima smisla.
-
4:57 - 4:59A definicija uspeha?
-
5:00 - 5:01Razuman izbor bio bi, valjda,
-
5:01 - 5:03neko ko je uspešan u Foks Njuzu?
-
5:03 - 5:06Recimo, osoba koja je tamo
bila četiri godine -
5:06 - 5:08i dobila unapređenje makar jednom.
-
5:09 - 5:10Ima smisla.
-
5:10 - 5:13Onda bismo osposobljavali algoritam.
-
5:13 - 5:16Osposobili bismo ga da traži ljude,
da uči šta je vodilo ka uspehu, -
5:17 - 5:21kakve vrste prijava su vremenom
vodile ka uspehu -
5:21 - 5:23u skladu sa tom definicijom.
-
5:24 - 5:26Razmislite sada šta bi se desilo
-
5:26 - 5:28kada bismo to primenili
na trenutne kandidate. -
5:29 - 5:30Izbacilo bi žene
-
5:31 - 5:35jer ne deluju kao osobe
koje su bile uspešne u prošlosti. -
5:40 - 5:42Algoritmi ne popravljaju stvari
-
5:42 - 5:45ako ih samo nonšalantno
i slepo primenjujete. -
5:45 - 5:46Ne popravljaju stvari.
-
5:46 - 5:48Ponavljaju našu praksu iz prošlosti,
-
5:48 - 5:49naše šablone.
-
5:49 - 5:51Automatizuju status kvo.
-
5:52 - 5:55Da živimo u savršenom
svetu to bi bilo sjajno, -
5:56 - 5:57ali ne živimo.
-
5:57 - 6:01Dodaću da većina firmi
nema sramne parnice, -
6:02 - 6:05ali naučnicima za podatke
u tim kompanijama -
6:05 - 6:07rečeno je idu tragom podataka,
-
6:07 - 6:09da paze na tačnost.
-
6:10 - 6:11Razmislite šta to znači.
-
6:11 - 6:16Pošto smo svi pristrasni, to znači
da će možda kodifikovati seksizam -
6:16 - 6:18ili drugu netrpeljivost.
-
6:19 - 6:21Misaoni eksperiment,
-
6:21 - 6:22jer ih volim:
-
6:23 - 6:26jedno društvo, skroz podeljeno -
-
6:28 - 6:31na osnovu rase, svi gradovi, sve opštine -
-
6:31 - 6:34a policiju šaljemo
samo u delove gde živi manjina -
6:34 - 6:35u potrazi za kriminalom.
-
6:36 - 6:38Podaci o hapšenjima
bili bi veoma pristrasni. -
6:40 - 6:42Šta ako bismo, povrh svega,
pronašli naučnike za podatke -
6:42 - 6:47i platili tim naučnicima
da predvide mesto sledećeg zločina? -
6:47 - 6:49Opštine sa manjinama.
-
6:49 - 6:52Ili da predvide
ko će sledeći biti kriminalac? -
6:53 - 6:54Neko iz manjine.
-
6:56 - 7:01Naučnici bi se hvalisali
svojim sjajnim i tačnim modelom, -
7:01 - 7:02i bili bi u pravu.
-
7:04 - 7:08Realnost nije tako drastična,
ali postoje ozbiljne podele -
7:08 - 7:10u mnogim malim i velikom gradovima,
-
7:10 - 7:12i imamo mnoštvo dokaza
-
7:12 - 7:14o pristrasnim podacima
u sistemu policije i pravosuđa. -
7:15 - 7:18Mi zapravo predviđamo krizna mesta,
-
7:18 - 7:20mesta gde će se desiti nasilje.
-
7:20 - 7:24I predviđamo, zapravo,
pojedinačni kriminalitet, -
7:24 - 7:26kriminalitet pojedinaca.
-
7:27 - 7:30Novinska organizacija Propablika
nedavno je proverila -
7:31 - 7:32jedan „algoritam ugrožen recidivizmom“
-
7:32 - 7:34kako ih zovu,
-
7:34 - 7:37koje sudije koriste
u presudama na Floridi. -
7:38 - 7:42Bernard, levo, crnac,
dobio je 10 od 10 poena. -
7:43 - 7:45Dilan, desno, 3 od 10.
-
7:45 - 7:48Deset od deset, visok rizik.
Tri od deset, nizak rizik. -
7:48 - 7:51Obojica su privedeni
zbog posedovanja droge. -
7:51 - 7:52Obojica su imali dosije,
-
7:52 - 7:55ali Dilan je imao krivično delo,
-
7:55 - 7:56a Bernard nije.
-
7:58 - 8:01Ovo je bitno jer što su ti veći poeni,
-
8:01 - 8:04veće su šanse da dobiješ dužu kaznu.
-
8:06 - 8:07O čemu se ovde radi?
-
8:08 - 8:10Pranje podataka.
-
8:11 - 8:15Proces kojim tehnolozi
sakrivaju ružnu istinu -
8:15 - 8:17u crne kutije algoritama
-
8:17 - 8:18i nazivaju ih objektivnima;
-
8:19 - 8:21nazivaju ih meritokratskim.
-
8:23 - 8:25Za tajne, važne i destruktivne algoritme
-
8:25 - 8:30sam skovala frazu
„oružje za matematičko uništenje“. -
8:30 - 8:31(Smeh)
-
8:31 - 8:34(Aplauz)
-
8:35 - 8:37Oni su svuda i to nije greška.
-
8:37 - 8:41To su privatne kompanije
koje prave privatne algoritme -
8:41 - 8:43za privatne ciljeve.
-
8:43 - 8:46Čak i one već spomenute,
za nastavnike i policiju, -
8:46 - 8:48napravile su privatne kompanije
-
8:48 - 8:50i zatim ih prodale vladinim telima.
-
8:50 - 8:52Zovu ih „tajnim umakom“;
-
8:52 - 8:54zato nam ništa ne mogu reći o tome.
-
8:54 - 8:57To je i privatna moć.
-
8:58 - 9:02Zarađuju na korišćenju autoriteta
koji se ne može proveriti. -
9:05 - 9:08Možda ste pomislili da,
pošto je ovo privatno, -
9:08 - 9:09postoji konkurencija;
-
9:09 - 9:11možda će slobodno tržište rešiti problem.
-
9:11 - 9:13Neće.
-
9:13 - 9:16Mnogo se novca može napraviti nepravdom.
-
9:17 - 9:20Uz to, mi nismo
ekonomski racionalni činioci. -
9:21 - 9:22Svi smo pristrasni.
-
9:23 - 9:26Svi smo rasisti i netrpeljivi
onako kako ne želimo biti -
9:26 - 9:28u oblicima koje i ne poznajemo.
-
9:29 - 9:32Ipak, znamo da je to kolektivno
-
9:32 - 9:35jer to sociolozi dosledno dokazuju
-
9:35 - 9:37eksperimentima koje osmišljavaju,
-
9:37 - 9:40kada pošalju gomilu prijava za posao,
-
9:40 - 9:42podjednako dobrih, ali neke imaju
imena koja zvuče belački -
9:42 - 9:44a neke koje zvuče kao crnački,
-
9:44 - 9:47i uvek su razočaravajući rezultati; uvek.
-
9:47 - 9:49Tako, mi smo pristrasni
-
9:49 - 9:52i mi u algoritme ubacujemo pristrasnost
-
9:52 - 9:54izborom podataka za prikupljanje,
-
9:54 - 9:57kao kada sam odlučila
da ne mislim o instant-špagetama; -
9:57 - 9:59odlučila sam da su nebitne.
-
9:59 - 10:04Ako verujemo podacima
koji otkrivaju praksu iz prošlosti -
10:04 - 10:07i biramo definiciju uspeha,
-
10:07 - 10:11kako onda očekujemo
da algoritmi ostanu neoštećeni? -
10:11 - 10:13Ne možemo. Moramo ih proveriti.
-
10:14 - 10:16Moramo proveriti da li su pravični.
-
10:16 - 10:18Dobra vest jeste da možemo
proveriti jesu li pravični. -
10:18 - 10:22Algoritme možemo ispitati
-
10:22 - 10:24i reći će nam istinu svaki put.
-
10:24 - 10:26I možemo ih popraviti.
Možemo ih poboljšati. -
10:26 - 10:29To zovem revizijom algoritma
-
10:29 - 10:30i ukratko ću vam je objasniti.
-
10:30 - 10:33Prvo, provera integriteta podataka.
-
10:34 - 10:37Zbog algoritma rizika od recidivizma
o kojem sam govorila, -
10:37 - 10:41provera integriteta podataka
značila bi prihvatanje činjenice -
10:41 - 10:44da u SAD crnci i belci
podjednako puše travu -
10:44 - 10:47ali crnci imaju mnogo više
šanse da budu uhapšeni - -
10:47 - 10:50četiri ili pet puta, zavisi od kraja.
-
10:51 - 10:54Kako ta pristrasnost izgleda
u drugim kriminalnim oblastima, -
10:54 - 10:55i kako je uzimamo u obzir?
-
10:56 - 10:59Drugo, treba da razmislimo
o definiciji uspeha, -
10:59 - 11:00da je revidiramo.
-
11:00 - 11:03Setite se algoritma za zapošljavanje
koji smo spomenuli. -
11:03 - 11:06Osoba koja je tu četiri godine
i unapređena je jednom? -
11:06 - 11:08Pa, to je uspešan zaposleni,
-
11:08 - 11:11ali je takođe i zaposleni
u skladu sa njihovom kulturom. -
11:12 - 11:14Tako i to može biti pristrasno.
-
11:14 - 11:16Moramo razdvojiti te dve stvari.
-
11:16 - 11:19Treba da uzmemo
slepe audicije za orkestar kao primer. -
11:19 - 11:22Tamo ljudi konkurišu su iza zastora.
-
11:23 - 11:25Što je meni bitno jeste
-
11:25 - 11:28da ljudi koji slušaju
odlučuju šta je bitno -
11:28 - 11:30i odlučuju su šta nije bitno,
-
11:30 - 11:32tako da im to ne odvlači pažnju.
-
11:33 - 11:35Otkad su počele
slepe audicije za orkestre, -
11:36 - 11:39broj žena u orkestrima
povećao se pet puta. -
11:40 - 11:42Zatim, moramo razmotriti tačnost.
-
11:43 - 11:47Tada bi se model dodatne vrednosti
za nastavnike odmah raspao. -
11:47 - 11:49Nema savršenog algoritma, naravno,
-
11:50 - 11:54pa moramo razmotriti
greške svakog algoritma. -
11:55 - 11:59Koliko su greške česte
i za koga ovaj model ne funkcioniše? -
12:00 - 12:01Koja je cena te nefunkcionalnosti?
-
12:02 - 12:04Na kraju, moramo razmotriti
-
12:06 - 12:08dugoročne efekte algoritama,
-
12:09 - 12:11njihove povratne kružne sprege
koje se stvaraju. -
12:11 - 12:13Ovo zvuči apstraktno,
-
12:13 - 12:16ali zamislite da su Fejsbukovi inženjeri
to uzeli u obzir -
12:16 - 12:21pre odluke da nam prikažu
samo postove naših prijatelja. -
12:21 - 12:25Imam još dve poruke,
jednu za naučnike koji se bave podacima. -
12:25 - 12:29Naučnici za podatke - ne treba
da budemo sudije istine. -
12:29 - 12:32Treba da budemo
prevodioci etičkih rasprava -
12:32 - 12:35koje se odvijaju u širem društvu.
-
12:35 - 12:37(Aplauz)
-
12:38 - 12:39A za vas ostale,
-
12:40 - 12:41koji niste naučnici za podatke:
-
12:41 - 12:43ovo nije test iz matematike.
-
12:43 - 12:45Ovo je politička borba.
-
12:46 - 12:50Od naših algoritamskih vladara
moramo zahtevati odgovornost. -
12:52 - 12:53(Aplauz)
-
12:53 - 12:58Doba slepe vere u masovne podatke
mora se okončati. -
12:58 - 12:59Hvala vam mnogo.
-
12:59 - 13:01(Aplauz)
- Title:
- Doba slepe vere u masovne podatke mora se okončati
- Speaker:
- Keti O'Nil (Cathy O'Neil)
- Description:
-
Algoritmi odlučuju ko dobija kredit, ko će biti pozvan na razgovor za posao, ko dobija osiguranje i još mnogo toga, ali nisu automatski pravični. Keti O'Nil, matematičarka i naučnica za podatke, skovala je frazu za tajne, važne i štetne algoritme - „oružja matematičkog uništenja“. Saznajte više o tajnim planovima koji se kriju iza formula.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Mile Živković approved Serbian subtitles for The era of blind faith in big data must end | ||
Mile Živković edited Serbian subtitles for The era of blind faith in big data must end | ||
Tijana Mihajlović accepted Serbian subtitles for The era of blind faith in big data must end | ||
Tijana Mihajlović edited Serbian subtitles for The era of blind faith in big data must end | ||
Romeo Mlinar edited Serbian subtitles for The era of blind faith in big data must end | ||
Romeo Mlinar edited Serbian subtitles for The era of blind faith in big data must end | ||
Romeo Mlinar edited Serbian subtitles for The era of blind faith in big data must end | ||
Romeo Mlinar edited Serbian subtitles for The era of blind faith in big data must end |