Return to Video

Doba slepe vere u masovne podatke mora se okončati

  • 0:01 - 0:02
    Algoritmi su svuda.
  • 0:04 - 0:07
    Filtriraju i odvajaju
    pobednike od gubitnika.
  • 0:08 - 0:10
    Pobednici dobijaju posao
  • 0:10 - 0:12
    ili dobru ponudu kreditne kartice.
  • 0:12 - 0:15
    Za gubitnike nema ni intervjua
  • 0:15 - 0:17
    ili plaćaju više za osiguranje.
  • 0:18 - 0:22
    Ocenjuju nas tajne formule
    koje ne razumemo,
  • 0:22 - 0:26
    za koje često ne postoje
    sistemi za podnošenje žalbe.
  • 0:27 - 0:28
    To nas tera se zapitamo:
  • 0:28 - 0:31
    „Šta ako algoritmi greše?“
  • 0:33 - 0:35
    Da napravite algoritam
    potrebne su vam dve stvari:
  • 0:35 - 0:37
    podaci, šta je bilo u prošlosti,
  • 0:37 - 0:38
    i definicija uspeha,
  • 0:38 - 0:41
    koji tražite i kojem se često nadate.
  • 0:41 - 0:46
    Osposobljavate algoritam
    posmatranjem i zaključivanjem.
  • 0:46 - 0:49
    Algoritam pronalazi vezu sa uspehom.
  • 0:49 - 0:52
    Koja situacija vodi ka uspehu?
  • 0:53 - 0:54
    Zapravo, svi koriste algoritme,
  • 0:54 - 0:57
    ali ih ne formalizuju u pisani kôd.
  • 0:57 - 0:58
    Evo vam primera.
  • 0:58 - 1:01
    Svaki dan koristim algoritam
    da napravim porodici doručak.
  • 1:02 - 1:03
    Podaci koje koristim su:
  • 1:04 - 1:06
    namirnice u kuhinji,
  • 1:06 - 1:07
    vreme koje imam na raspolaganju,
  • 1:07 - 1:08
    ambicija koju imam,
  • 1:08 - 1:10
    i te podatke obrađujem.
  • 1:10 - 1:15
    U hranu ne računam
    ona mala pakovanja instant špageta.
  • 1:15 - 1:17
    (Smeh)
  • 1:17 - 1:18
    Moja definicija uspeha je -
  • 1:18 - 1:21
    obrok je uspeo ako moja deca jedu povrće.
  • 1:22 - 1:24
    To bi izgledalo mnogo drugačije
    da se moj sin pita.
  • 1:24 - 1:27
    Njemu bi uspeh bio da se najede nutele.
  • 1:29 - 1:31
    Ali, ja biram uspeh.
  • 1:31 - 1:34
    Ja sam zadužena za to.
    Moje mišljenje je važno.
  • 1:34 - 1:37
    To je prvo pravilo algoritama.
  • 1:37 - 1:40
    Algoritmi su mišljenja ugrađena u kôd.
  • 1:41 - 1:45
    To se veoma razlikuje od onoga što mislite
    da većina ljudi misli o algoritmima.
  • 1:45 - 1:49
    Ljudi misle da su algoritmi
    objektivni, istiniti i naučni.
  • 1:50 - 1:52
    To je marketinški trik.
  • 1:53 - 1:55
    Marketinški trik jeste
  • 1:55 - 1:58
    i kada vas plaše algoritmima,
  • 1:58 - 2:02
    kada vas teraju da verujete
    i da se plašite algoritama
  • 2:02 - 2:04
    jer verujete matematici i plašite je se.
  • 2:05 - 2:10
    Mnogo grešaka može se desiti
    kada slepo verujemo u masovne podatke.
  • 2:11 - 2:15
    Ovo je Kiri Soares,
    direktor srednje škole u Bruklinu.
  • 2:15 - 2:17
    Godine 2011. rekla mi je
    da njen kolektiv ocenjuju
  • 2:17 - 2:20
    složenim, tajnim algoritmom
  • 2:20 - 2:22
    koji se zove „model dodatne vrednosti“.
  • 2:22 - 2:25
    Rekla sam joj: „Saznaj
    koja je formula i pokaži mi je.
  • 2:25 - 2:27
    Objasniću ti je.“
  • 2:27 - 2:29
    Rekla je: „Pokušala sam dobiti formulu,
  • 2:29 - 2:32
    ali osoba iz Ministarstva obrazovanja
    mi je rekla da je to matematika
  • 2:32 - 2:34
    i da je neću razumeti.“
  • 2:35 - 2:36
    Postaje sve gore.
  • 2:36 - 2:40
    Njujork Post je podneo zahtev
    na osnovu zakona o slobodi informacija,
  • 2:40 - 2:43
    dobio imena i ocene svih nastavnika
  • 2:43 - 2:46
    i onda ih objavio kao čin
    sramoćenja nastavnika.
  • 2:47 - 2:51
    Kada sam probala istim putem doći
    do formula, do izvornog kôda,
  • 2:51 - 2:53
    rečeno mi je da ne može.
  • 2:53 - 2:54
    Odbijena sam.
  • 2:54 - 2:55
    Posle sam saznala
  • 2:55 - 2:58
    da niko u Njujorku
    nema podatke o toj formuli.
  • 2:58 - 2:59
    Niko je nije razumeo.
  • 3:02 - 3:05
    Onda se uključio neko
    veoma bistar, Geri Rubenstajn.
  • 3:05 - 3:09
    Pronašao je 665 nastavnika
    iz onog članka u Njujork Postu
  • 3:09 - 3:10
    koji zapravo imaju dva rezultata.
  • 3:11 - 3:15
    Ovo se moglo desiti jer su predavali
    matematiku u sedmom i osmom razredu.
  • 3:15 - 3:17
    Odlučio je da ih ubaci u grafikon.
  • 3:17 - 3:19
    Svaka tačka je nastavnica ili nastavnik.
  • 3:19 - 3:21
    (Smeh)
  • 3:21 - 3:23
    Šta je to?
  • 3:23 - 3:24
    (Smeh)
  • 3:24 - 3:27
    To se nikako nije trebalo koristiti
    za individualne procene.
  • 3:27 - 3:29
    Ovo je kao generator nasumičnih brojeva.
  • 3:29 - 3:32
    (Aplauz)
  • 3:33 - 3:33
    Ali, korišćeno je.
  • 3:33 - 3:34
    Ovo je Sara Visoki.
  • 3:34 - 3:37
    Otpuštena je kad i 205 drugih nastavnika
  • 3:37 - 3:40
    iz škola vašingtonskog okruga
  • 3:40 - 3:43
    iako je imala odlučne preporuke direktora
  • 3:43 - 3:44
    i roditelja učenika.
  • 3:45 - 3:47
    Znam šta mnogi od vas ovde sada misle,
  • 3:47 - 3:50
    posebno naučnici za podatke,
    stručnjaci za veštačku inteligenciju.
  • 3:50 - 3:54
    Mislite: „Pa, nikada ne bismo napravili
    tako nedosledan algoritam.“
  • 3:55 - 3:56
    Ali, algoritmi mogu pogrešiti,
  • 3:56 - 4:01
    čak imati i duboko destruktivno dejstvo
    sa dobrom namerama.
  • 4:02 - 4:05
    Dok loše napravljen avion
  • 4:05 - 4:07
    padne na tlo i svi to vide,
  • 4:07 - 4:09
    loše osmišljen algoritam
  • 4:10 - 4:14
    može trajati dugo i potajno
    i tiho praviti ogromnu štetu.
  • 4:16 - 4:17
    Ovo je Rodžer Ejls.
  • 4:17 - 4:19
    (Smeh)
  • 4:20 - 4:23
    Osnovao je Foks Njuz 1996. godine.
  • 4:23 - 4:26
    Preko 20 žena žalilo se
    na seksualno uznemiravanje.
  • 4:26 - 4:29
    Rekle su da im u Foks Njuzu
    nije dozvoljen uspeh.
  • 4:29 - 4:30
    Izbačen je prošle godine,
  • 4:30 - 4:34
    ali nedavno smo videli
    da problemi još nisu rešeni.
  • 4:35 - 4:37
    To zahteva da se postavi pitanje
  • 4:37 - 4:40
    šta Foks Njuz treba da uradi
    da okrene novi list.
  • 4:41 - 4:44
    Šta bi se desilo da proces zapošljavanja
  • 4:44 - 4:46
    zamene mašinskim algoritmom koji uči?
  • 4:46 - 4:47
    Zvuči dobro, zar ne?
  • 4:47 - 4:49
    Razmislite o tome.
  • 4:49 - 4:51
    Podaci. Šta bi bi bili podaci?
  • 4:51 - 4:56
    Ima smisla izabrati prijave za Foks Njuz
    tokom poslednjih 21 godina.
  • 4:56 - 4:57
    Ima smisla.
  • 4:57 - 4:59
    A definicija uspeha?
  • 5:00 - 5:01
    Razuman izbor bio bi, valjda,
  • 5:01 - 5:03
    neko ko je uspešan u Foks Njuzu?
  • 5:03 - 5:06
    Recimo, osoba koja je tamo
    bila četiri godine
  • 5:06 - 5:08
    i dobila unapređenje makar jednom.
  • 5:09 - 5:10
    Ima smisla.
  • 5:10 - 5:13
    Onda bismo osposobljavali algoritam.
  • 5:13 - 5:16
    Osposobili bismo ga da traži ljude,
    da uči šta je vodilo ka uspehu,
  • 5:17 - 5:21
    kakve vrste prijava su vremenom
    vodile ka uspehu
  • 5:21 - 5:23
    u skladu sa tom definicijom.
  • 5:24 - 5:26
    Razmislite sada šta bi se desilo
  • 5:26 - 5:28
    kada bismo to primenili
    na trenutne kandidate.
  • 5:29 - 5:30
    Izbacilo bi žene
  • 5:31 - 5:35
    jer ne deluju kao osobe
    koje su bile uspešne u prošlosti.
  • 5:40 - 5:42
    Algoritmi ne popravljaju stvari
  • 5:42 - 5:45
    ako ih samo nonšalantno
    i slepo primenjujete.
  • 5:45 - 5:46
    Ne popravljaju stvari.
  • 5:46 - 5:48
    Ponavljaju našu praksu iz prošlosti,
  • 5:48 - 5:49
    naše šablone.
  • 5:49 - 5:51
    Automatizuju status kvo.
  • 5:52 - 5:55
    Da živimo u savršenom
    svetu to bi bilo sjajno,
  • 5:56 - 5:57
    ali ne živimo.
  • 5:57 - 6:01
    Dodaću da većina firmi
    nema sramne parnice,
  • 6:02 - 6:05
    ali naučnicima za podatke
    u tim kompanijama
  • 6:05 - 6:07
    rečeno je idu tragom podataka,
  • 6:07 - 6:09
    da paze na tačnost.
  • 6:10 - 6:11
    Razmislite šta to znači.
  • 6:11 - 6:16
    Pošto smo svi pristrasni, to znači
    da će možda kodifikovati seksizam
  • 6:16 - 6:18
    ili drugu netrpeljivost.
  • 6:19 - 6:21
    Misaoni eksperiment,
  • 6:21 - 6:22
    jer ih volim:
  • 6:23 - 6:26
    jedno društvo, skroz podeljeno -
  • 6:28 - 6:31
    na osnovu rase, svi gradovi, sve opštine -
  • 6:31 - 6:34
    a policiju šaljemo
    samo u delove gde živi manjina
  • 6:34 - 6:35
    u potrazi za kriminalom.
  • 6:36 - 6:38
    Podaci o hapšenjima
    bili bi veoma pristrasni.
  • 6:40 - 6:42
    Šta ako bismo, povrh svega,
    pronašli naučnike za podatke
  • 6:42 - 6:47
    i platili tim naučnicima
    da predvide mesto sledećeg zločina?
  • 6:47 - 6:49
    Opštine sa manjinama.
  • 6:49 - 6:52
    Ili da predvide
    ko će sledeći biti kriminalac?
  • 6:53 - 6:54
    Neko iz manjine.
  • 6:56 - 7:01
    Naučnici bi se hvalisali
    svojim sjajnim i tačnim modelom,
  • 7:01 - 7:02
    i bili bi u pravu.
  • 7:04 - 7:08
    Realnost nije tako drastična,
    ali postoje ozbiljne podele
  • 7:08 - 7:10
    u mnogim malim i velikom gradovima,
  • 7:10 - 7:12
    i imamo mnoštvo dokaza
  • 7:12 - 7:14
    o pristrasnim podacima
    u sistemu policije i pravosuđa.
  • 7:15 - 7:18
    Mi zapravo predviđamo krizna mesta,
  • 7:18 - 7:20
    mesta gde će se desiti nasilje.
  • 7:20 - 7:24
    I predviđamo, zapravo,
    pojedinačni kriminalitet,
  • 7:24 - 7:26
    kriminalitet pojedinaca.
  • 7:27 - 7:30
    Novinska organizacija Propablika
    nedavno je proverila
  • 7:31 - 7:32
    jedan „algoritam ugrožen recidivizmom“
  • 7:32 - 7:34
    kako ih zovu,
  • 7:34 - 7:37
    koje sudije koriste
    u presudama na Floridi.
  • 7:38 - 7:42
    Bernard, levo, crnac,
    dobio je 10 od 10 poena.
  • 7:43 - 7:45
    Dilan, desno, 3 od 10.
  • 7:45 - 7:48
    Deset od deset, visok rizik.
    Tri od deset, nizak rizik.
  • 7:48 - 7:51
    Obojica su privedeni
    zbog posedovanja droge.
  • 7:51 - 7:52
    Obojica su imali dosije,
  • 7:52 - 7:55
    ali Dilan je imao krivično delo,
  • 7:55 - 7:56
    a Bernard nije.
  • 7:58 - 8:01
    Ovo je bitno jer što su ti veći poeni,
  • 8:01 - 8:04
    veće su šanse da dobiješ dužu kaznu.
  • 8:06 - 8:07
    O čemu se ovde radi?
  • 8:08 - 8:10
    Pranje podataka.
  • 8:11 - 8:15
    Proces kojim tehnolozi
    sakrivaju ružnu istinu
  • 8:15 - 8:17
    u crne kutije algoritama
  • 8:17 - 8:18
    i nazivaju ih objektivnima;
  • 8:19 - 8:21
    nazivaju ih meritokratskim.
  • 8:23 - 8:25
    Za tajne, važne i destruktivne algoritme
  • 8:25 - 8:30
    sam skovala frazu
    „oružje za matematičko uništenje“.
  • 8:30 - 8:31
    (Smeh)
  • 8:31 - 8:34
    (Aplauz)
  • 8:35 - 8:37
    Oni su svuda i to nije greška.
  • 8:37 - 8:41
    To su privatne kompanije
    koje prave privatne algoritme
  • 8:41 - 8:43
    za privatne ciljeve.
  • 8:43 - 8:46
    Čak i one već spomenute,
    za nastavnike i policiju,
  • 8:46 - 8:48
    napravile su privatne kompanije
  • 8:48 - 8:50
    i zatim ih prodale vladinim telima.
  • 8:50 - 8:52
    Zovu ih „tajnim umakom“;
  • 8:52 - 8:54
    zato nam ništa ne mogu reći o tome.
  • 8:54 - 8:57
    To je i privatna moć.
  • 8:58 - 9:02
    Zarađuju na korišćenju autoriteta
    koji se ne može proveriti.
  • 9:05 - 9:08
    Možda ste pomislili da,
    pošto je ovo privatno,
  • 9:08 - 9:09
    postoji konkurencija;
  • 9:09 - 9:11
    možda će slobodno tržište rešiti problem.
  • 9:11 - 9:13
    Neće.
  • 9:13 - 9:16
    Mnogo se novca može napraviti nepravdom.
  • 9:17 - 9:20
    Uz to, mi nismo
    ekonomski racionalni činioci.
  • 9:21 - 9:22
    Svi smo pristrasni.
  • 9:23 - 9:26
    Svi smo rasisti i netrpeljivi
    onako kako ne želimo biti
  • 9:26 - 9:28
    u oblicima koje i ne poznajemo.
  • 9:29 - 9:32
    Ipak, znamo da je to kolektivno
  • 9:32 - 9:35
    jer to sociolozi dosledno dokazuju
  • 9:35 - 9:37
    eksperimentima koje osmišljavaju,
  • 9:37 - 9:40
    kada pošalju gomilu prijava za posao,
  • 9:40 - 9:42
    podjednako dobrih, ali neke imaju
    imena koja zvuče belački
  • 9:42 - 9:44
    a neke koje zvuče kao crnački,
  • 9:44 - 9:47
    i uvek su razočaravajući rezultati; uvek.
  • 9:47 - 9:49
    Tako, mi smo pristrasni
  • 9:49 - 9:52
    i mi u algoritme ubacujemo pristrasnost
  • 9:52 - 9:54
    izborom podataka za prikupljanje,
  • 9:54 - 9:57
    kao kada sam odlučila
    da ne mislim o instant-špagetama;
  • 9:57 - 9:59
    odlučila sam da su nebitne.
  • 9:59 - 10:04
    Ako verujemo podacima
    koji otkrivaju praksu iz prošlosti
  • 10:04 - 10:07
    i biramo definiciju uspeha,
  • 10:07 - 10:11
    kako onda očekujemo
    da algoritmi ostanu neoštećeni?
  • 10:11 - 10:13
    Ne možemo. Moramo ih proveriti.
  • 10:14 - 10:16
    Moramo proveriti da li su pravični.
  • 10:16 - 10:18
    Dobra vest jeste da možemo
    proveriti jesu li pravični.
  • 10:18 - 10:22
    Algoritme možemo ispitati
  • 10:22 - 10:24
    i reći će nam istinu svaki put.
  • 10:24 - 10:26
    I možemo ih popraviti.
    Možemo ih poboljšati.
  • 10:26 - 10:29
    To zovem revizijom algoritma
  • 10:29 - 10:30
    i ukratko ću vam je objasniti.
  • 10:30 - 10:33
    Prvo, provera integriteta podataka.
  • 10:34 - 10:37
    Zbog algoritma rizika od recidivizma
    o kojem sam govorila,
  • 10:37 - 10:41
    provera integriteta podataka
    značila bi prihvatanje činjenice
  • 10:41 - 10:44
    da u SAD crnci i belci
    podjednako puše travu
  • 10:44 - 10:47
    ali crnci imaju mnogo više
    šanse da budu uhapšeni -
  • 10:47 - 10:50
    četiri ili pet puta, zavisi od kraja.
  • 10:51 - 10:54
    Kako ta pristrasnost izgleda
    u drugim kriminalnim oblastima,
  • 10:54 - 10:55
    i kako je uzimamo u obzir?
  • 10:56 - 10:59
    Drugo, treba da razmislimo
    o definiciji uspeha,
  • 10:59 - 11:00
    da je revidiramo.
  • 11:00 - 11:03
    Setite se algoritma za zapošljavanje
    koji smo spomenuli.
  • 11:03 - 11:06
    Osoba koja je tu četiri godine
    i unapređena je jednom?
  • 11:06 - 11:08
    Pa, to je uspešan zaposleni,
  • 11:08 - 11:11
    ali je takođe i zaposleni
    u skladu sa njihovom kulturom.
  • 11:12 - 11:14
    Tako i to može biti pristrasno.
  • 11:14 - 11:16
    Moramo razdvojiti te dve stvari.
  • 11:16 - 11:19
    Treba da uzmemo
    slepe audicije za orkestar kao primer.
  • 11:19 - 11:22
    Tamo ljudi konkurišu su iza zastora.
  • 11:23 - 11:25
    Što je meni bitno jeste
  • 11:25 - 11:28
    da ljudi koji slušaju
    odlučuju šta je bitno
  • 11:28 - 11:30
    i odlučuju su šta nije bitno,
  • 11:30 - 11:32
    tako da im to ne odvlači pažnju.
  • 11:33 - 11:35
    Otkad su počele
    slepe audicije za orkestre,
  • 11:36 - 11:39
    broj žena u orkestrima
    povećao se pet puta.
  • 11:40 - 11:42
    Zatim, moramo razmotriti tačnost.
  • 11:43 - 11:47
    Tada bi se model dodatne vrednosti
    za nastavnike odmah raspao.
  • 11:47 - 11:49
    Nema savršenog algoritma, naravno,
  • 11:50 - 11:54
    pa moramo razmotriti
    greške svakog algoritma.
  • 11:55 - 11:59
    Koliko su greške česte
    i za koga ovaj model ne funkcioniše?
  • 12:00 - 12:01
    Koja je cena te nefunkcionalnosti?
  • 12:02 - 12:04
    Na kraju, moramo razmotriti
  • 12:06 - 12:08
    dugoročne efekte algoritama,
  • 12:09 - 12:11
    njihove povratne kružne sprege
    koje se stvaraju.
  • 12:11 - 12:13
    Ovo zvuči apstraktno,
  • 12:13 - 12:16
    ali zamislite da su Fejsbukovi inženjeri
    to uzeli u obzir
  • 12:16 - 12:21
    pre odluke da nam prikažu
    samo postove naših prijatelja.
  • 12:21 - 12:25
    Imam još dve poruke,
    jednu za naučnike koji se bave podacima.
  • 12:25 - 12:29
    Naučnici za podatke - ne treba
    da budemo sudije istine.
  • 12:29 - 12:32
    Treba da budemo
    prevodioci etičkih rasprava
  • 12:32 - 12:35
    koje se odvijaju u širem društvu.
  • 12:35 - 12:37
    (Aplauz)
  • 12:38 - 12:39
    A za vas ostale,
  • 12:40 - 12:41
    koji niste naučnici za podatke:
  • 12:41 - 12:43
    ovo nije test iz matematike.
  • 12:43 - 12:45
    Ovo je politička borba.
  • 12:46 - 12:50
    Od naših algoritamskih vladara
    moramo zahtevati odgovornost.
  • 12:52 - 12:53
    (Aplauz)
  • 12:53 - 12:58
    Doba slepe vere u masovne podatke
    mora se okončati.
  • 12:58 - 12:59
    Hvala vam mnogo.
  • 12:59 - 13:01
    (Aplauz)
Title:
Doba slepe vere u masovne podatke mora se okončati
Speaker:
Keti O'Nil (Cathy O'Neil)
Description:

Algoritmi odlučuju ko dobija kredit, ko će biti pozvan na razgovor za posao, ko dobija osiguranje i još mnogo toga, ali nisu automatski pravični. Keti O'Nil, matematičarka i naučnica za podatke, skovala je frazu za tajne, važne i štetne algoritme - „oružja matematičkog uništenja“. Saznajte više o tajnim planovima koji se kriju iza formula.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18

Serbian subtitles

Revisions