WEBVTT 00:00:01.041 --> 00:00:04.075 Zdravo, ja sam Džoj, pesnikinja kodova, 00:00:04.109 --> 00:00:09.192 na misiji da zaustavim neviđenu silu u usponu, 00:00:09.216 --> 00:00:12.072 silu koju nazivam „kodirani pogled“, 00:00:12.096 --> 00:00:15.285 što je moj termin za algoritamsku pristrasnost. NOTE Paragraph 00:00:15.329 --> 00:00:19.729 Algoritamska pristrasnost, kao i ljudska, ima za posledicu nepravednost. 00:00:19.753 --> 00:00:25.775 Međutim, algoritmi, poput virusa, mogu raširiti pristrasnost u ogromnoj meri 00:00:25.799 --> 00:00:27.381 velikom brzinom. 00:00:27.943 --> 00:00:32.330 Algoritamska pristrasnost može dovesti i do izloženosti isključivanju 00:00:32.354 --> 00:00:34.482 i prakse diskriminacije. 00:00:34.506 --> 00:00:36.567 Dozvolite da vam pokažem šta hoću da kažem. NOTE Paragraph 00:00:36.980 --> 00:00:39.416 (Video) Džoj Buolamvini: Zdravo, kamero. Imam lice. 00:00:40.162 --> 00:00:42.026 Možeš li da vidiš moje lice? 00:00:42.051 --> 00:00:43.676 Lice bez naočara? 00:00:43.701 --> 00:00:45.485 Možeš videti njeno lice. 00:00:46.147 --> 00:00:47.972 A moje? 00:00:51.890 --> 00:00:55.640 Imam masku. Možeš li da vidiš moju masku? NOTE Paragraph 00:00:56.474 --> 00:00:58.839 Džoj Buolamvini: Pa, kako se ovo dogodilo? 00:00:58.863 --> 00:01:02.004 Zašto sedim ispred kompjutera 00:01:02.028 --> 00:01:03.452 sa belom maskom, 00:01:03.476 --> 00:01:07.126 pokušavajući da me prepozna jeftina kamera? 00:01:07.150 --> 00:01:09.441 Kada se ne borim protiv kodiranog pogleda 00:01:09.465 --> 00:01:10.985 kao pesnikinja kodova, 00:01:11.009 --> 00:01:14.281 postdiplomac sam medijske laboratorije MIT-a 00:01:14.305 --> 00:01:19.222 i tamo imam priliku da radim na raznim neobičnim projektima, 00:01:19.246 --> 00:01:22.533 uključujući „Ogledalo aspiracije“, projekat koji sam sprovela 00:01:22.553 --> 00:01:26.321 tako da mogu da projektujem digitalne maske na svoj odraz. 00:01:26.345 --> 00:01:28.585 Tako bih ujutru, ako želim da se osećam snažno, 00:01:28.619 --> 00:01:30.063 mogla da stavim lava. 00:01:30.097 --> 00:01:33.593 Ako bih htela da podignem raspoloženje, možda bih dobila citat. 00:01:33.627 --> 00:01:36.616 Koristila sam generički softver za prepoznavanje lica 00:01:36.630 --> 00:01:38.051 da bih napravila sistem, 00:01:38.095 --> 00:01:43.198 ali sam otkrila da ga je teško testirati ukoliko ne nosim belu masku. NOTE Paragraph 00:01:44.282 --> 00:01:48.392 Nažalost, već sam ranije nailazila na ovaj problem. 00:01:48.392 --> 00:01:51.829 Kada sam bila na osnovnim studijama na Tehnološkom institutu u Džordžiji, 00:01:51.829 --> 00:01:53.289 gde sam studirala informatiku, 00:01:53.289 --> 00:01:55.034 radila sam na društvenim robotima, 00:01:55.058 --> 00:01:58.835 a jedan od mojih zadataka je bio da navedem robota da se igra skrivanja, 00:01:58.859 --> 00:02:00.542 jednostavne igre menjanja uloga 00:02:00.566 --> 00:02:04.887 u kojoj partneri pokrivaju lice, a zatim ga otkriju i kažu: „Uja!“ 00:02:04.911 --> 00:02:09.340 Problem je što igra skrivanja ne funkcioniše ako ne mogu da vas vidim, 00:02:09.364 --> 00:02:11.863 a moj robot nije mogao da me vidi. 00:02:11.887 --> 00:02:15.837 No, pozajmila sam lice svoje cimerke da bih završila projekat, 00:02:15.861 --> 00:02:17.241 predala sam zadatak, 00:02:17.265 --> 00:02:21.018 i mislila sam: „Znate šta, neko drugi će rešiti ovaj problem.“ NOTE Paragraph 00:02:21.669 --> 00:02:23.672 Nedugo potom, 00:02:23.696 --> 00:02:27.855 bila sam u Hongkongu na takmičenju preduzetnika. 00:02:28.339 --> 00:02:31.033 Organizatori su rešili da povedu učesnike 00:02:31.057 --> 00:02:33.359 u obilazak lokalnih startapova. 00:02:33.373 --> 00:02:36.168 Jedan od startapova imao je društvenog robota 00:02:36.192 --> 00:02:38.104 i rešili su da naprave demonstraciju. 00:02:38.128 --> 00:02:40.922 Demonstracija je radila kod svih dok nisu stigli do mene 00:02:40.922 --> 00:02:43.225 i možete verovatno pretpostaviti šta se dogodilo. 00:02:43.225 --> 00:02:46.044 Nije mogao da prepozna moje lice. 00:02:46.068 --> 00:02:48.339 Pitala sam programere šta se dešava 00:02:48.373 --> 00:02:54.136 i ispostavilo se da smo koristili isti generički softver prepoznavanja lica. 00:02:54.160 --> 00:02:55.810 Preko pola sveta, 00:02:55.834 --> 00:02:59.686 saznala sam da algoritamska pristrasnost može putovati toliko brzo 00:02:59.710 --> 00:03:02.880 koliko treba da se skine nešto fajlova sa interneta. NOTE Paragraph 00:03:03.635 --> 00:03:06.711 Pa, šta se dešava? Zašto se moje lice ne prepoznaje? 00:03:06.745 --> 00:03:10.101 Pa, moramo pogledati kako mašini dajemo vid. 00:03:10.125 --> 00:03:13.534 Kompjuterski vid koristi tehnike mašinskog učenja 00:03:13.558 --> 00:03:15.438 da bi prepoznao lica. 00:03:15.472 --> 00:03:19.309 To funkcioniše tako što napravite komplet za vežbanje sa primerima lica. 00:03:19.333 --> 00:03:22.151 Ovo je lice. Ovo je lice. Ovo nije lice. 00:03:22.185 --> 00:03:26.794 Vremenom možete naučiti kompjuter kako da prepoznaje druga lica. 00:03:26.808 --> 00:03:30.697 Međutim, ako kompleti za vežbanje baš i nisu tako raznovrsni, 00:03:30.731 --> 00:03:34.130 svako lice koje previše odstupa od uspostavljene norme 00:03:34.164 --> 00:03:35.813 biće teže da se prepozna, 00:03:35.827 --> 00:03:37.740 a to je ono što se događa sa mnom. NOTE Paragraph 00:03:37.774 --> 00:03:40.156 Ali ne brinite, ima dobrih vesti. 00:03:40.200 --> 00:03:42.971 Kompleti za vežbanje ne dolaze tek tako niotkuda. 00:03:43.005 --> 00:03:44.793 Možemo ih stvoriti. 00:03:44.837 --> 00:03:49.013 Postoji mogućnost za stvaranje kompleta za vežbu celokupnog spektra 00:03:49.027 --> 00:03:52.851 koji odražavaju bogatiji portret čovečanstva. NOTE Paragraph 00:03:52.885 --> 00:03:55.016 Videli ste u mojim primerima 00:03:55.060 --> 00:03:56.988 da sam preko društvenih robota 00:03:57.012 --> 00:04:01.623 saznala za isključivanje kroz algoritamsku pristrasnost. 00:04:01.647 --> 00:04:06.462 Ali algoritamska pristrasnost može dovesti i do prakse diskriminacije. 00:04:07.437 --> 00:04:08.890 Širom SAD-a, 00:04:08.914 --> 00:04:13.112 policijske uprave počinju da koriste softver za prepoznavanje lica 00:04:13.136 --> 00:04:15.595 u svom arsenalu za borbu protiv kriminala. 00:04:15.619 --> 00:04:17.632 Zakon Džordžtauna je objavio izveštaj 00:04:17.656 --> 00:04:21.133 koji pokazuje da se jednoj od dve odrasle osobe u SAD-u - 00:04:21.163 --> 00:04:24.443 to je 117 miliona ljudi - 00:04:24.443 --> 00:04:27.977 lice nalazi u mrežama za prepoznavanje lica. 00:04:28.001 --> 00:04:32.553 Odeljenja policije trenutno mogu da neregulisano pregledaju ove mreže, 00:04:32.577 --> 00:04:36.863 pomoću algoritama kojima nije proverena tačnost. 00:04:36.887 --> 00:04:40.751 Znamo da prepoznavanje lica nije bez mane, 00:04:40.775 --> 00:04:44.954 a naznačavanje lica stalno ostaje izazov. 00:04:44.978 --> 00:04:46.740 Možda ste to videli na Fejsbuku. 00:04:46.764 --> 00:04:49.752 Moji prijatelji i ja se uvek smejemo kad vidimo druge ljude 00:04:49.776 --> 00:04:52.234 koji su pogrešno označeni na našim fotografijama. 00:04:52.258 --> 00:04:57.849 Ali pogrešno identifikovanje osumnjičenog zločinca nije za smejanje, 00:04:57.873 --> 00:05:00.700 kao ni kršenje građanskih sloboda. NOTE Paragraph 00:05:00.724 --> 00:05:03.929 Mašinsko učenje se koristi za prepoznavanje lica, 00:05:03.953 --> 00:05:08.458 ali se takođe proteže i van dometa kompjuterskog vida. 00:05:09.266 --> 00:05:13.282 U svojoj knjizi „Oružja za matematičko uništenje“, 00:05:13.306 --> 00:05:19.987 naučnica u oblasti podataka Keti O'Nil govori o usponu novih RMD-a, 00:05:20.011 --> 00:05:24.234 rasprostranjenih, misterioznih i destruktivnih algoritama 00:05:24.258 --> 00:05:27.272 koji se sve više koriste za donošenje odluka 00:05:27.296 --> 00:05:30.507 koje utiču na sve više aspekata našeg života. 00:05:30.507 --> 00:05:32.071 Koga će zaposliti ili otpustiti? 00:05:32.071 --> 00:05:34.843 Da li ćete dobiti taj kredit? Da li ćete dobiti osiguranje? 00:05:34.843 --> 00:05:38.110 Da li ste primljeni na fakultet u koji ste želeli da upadnete? 00:05:38.134 --> 00:05:41.643 Da li vi i ja plaćamo istu cenu za isti proizvod 00:05:41.667 --> 00:05:44.109 kupljen na istoj platformi? NOTE Paragraph 00:05:44.133 --> 00:05:47.892 Sprovođenje zakona takođe počinje da koristi mašinsko učenje 00:05:47.916 --> 00:05:50.205 za prediktivni rad policije. 00:05:50.229 --> 00:05:53.237 Neke sudije koriste mašinski generisane procene rizika 00:05:53.237 --> 00:05:58.049 da bi odredile koliko vremena će neki pojedinac provesti u zatvoru. 00:05:58.083 --> 00:06:00.517 Zato zaista treba da razmislimo o ovim odlukama. 00:06:00.541 --> 00:06:01.723 Jesu li pravedne? 00:06:01.757 --> 00:06:04.647 A videli smo da algoritamske predrasude 00:06:04.681 --> 00:06:07.995 ne dovode nužno uvek do pravednih ishoda. NOTE Paragraph 00:06:08.049 --> 00:06:10.013 Šta možemo da uradimo u vezi sa time? 00:06:10.057 --> 00:06:13.737 Pa, možemo početi da razmišljamo o tome kako da stvorimo inkluzivniji kod 00:06:13.771 --> 00:06:16.761 i da upotrebimo inkluzivne postupke kodiranja. 00:06:16.775 --> 00:06:19.084 To zapravo počinje od ljudi. 00:06:19.628 --> 00:06:21.589 Zato je bitno ko kodira. 00:06:21.613 --> 00:06:25.536 Da li kreiramo timove celokupnog spektra sa različitim pojedincima 00:06:25.566 --> 00:06:28.377 koji mogu da jedno drugome ispitaju stvari za koje su slepi? 00:06:28.397 --> 00:06:31.736 Sa tehničke strane, bitno je kako kodiramo. 00:06:31.770 --> 00:06:35.421 Da li uzimamo u obzir pravičnost dok razvijamo sisteme? 00:06:35.455 --> 00:06:38.658 I najzad, bitno je zašto kodiramo. 00:06:38.705 --> 00:06:43.788 Koristili smo alate računarskog stvaranja da bismo otključali ogromno bogatstvo. 00:06:43.822 --> 00:06:48.269 Sada imamo priliku da otključamo još veću ravnopravnost 00:06:48.283 --> 00:06:51.213 ako učinimo društvene promene prioritetom, 00:06:51.257 --> 00:06:53.427 a ne da ih naknadno promišljamo. 00:06:54.008 --> 00:06:58.530 Dakle, ovo su tri principa koji će sačinjavati pokret „inkodiranja“. 00:06:58.554 --> 00:07:00.206 Bitno je ko kodira, 00:07:00.230 --> 00:07:01.773 kako kodiramo 00:07:01.797 --> 00:07:03.644 i zašto kodiramo. NOTE Paragraph 00:07:03.644 --> 00:07:07.033 Stoga, da bismo išli u pravcu inkodiranja, možemo početi da razmišljamo 00:07:07.033 --> 00:07:10.131 o izgradnji platforma koje mogu da identifikuju pristrasnost 00:07:10.155 --> 00:07:13.233 prikupljanjem iskustava ljudi poput onih koje sam podelila, 00:07:13.257 --> 00:07:16.327 ali i pregledom postojećeg softvera. 00:07:16.351 --> 00:07:20.116 Takođe možemo početi da stvaramo inkluzivnije komplete za vežbanje. 00:07:20.140 --> 00:07:22.943 Zamislite kampanju „Selfiji za inkluziju“ 00:07:22.967 --> 00:07:26.302 u kojoj vi i ja možemo pomoći programerima da testiraju i naprave 00:07:26.316 --> 00:07:28.409 inkluzivnije komplete za vežbanje. 00:07:29.302 --> 00:07:32.130 Takođe možemo početi da savesnije razmišljamo 00:07:32.154 --> 00:07:37.545 o društvenom uticaju tehnologije koju razvijamo. NOTE Paragraph 00:07:37.569 --> 00:07:39.962 Da bih otpočela pokret inkodiranja, 00:07:39.986 --> 00:07:42.833 pokrenula sam Ligu za algoritamsku pravdu, 00:07:42.857 --> 00:07:45.753 gde svako ko se brine o pravičnosti 00:07:45.753 --> 00:07:48.753 može pomoći u borbi protiv kodiranog pogleda. 00:07:48.753 --> 00:07:52.049 Na codedgaze.com možete prijaviti pristrasnost, 00:07:52.073 --> 00:07:54.518 zatražiti proveru, postati tester 00:07:54.542 --> 00:07:57.313 i pridružiti se aktuelnom razgovoru, 00:07:57.337 --> 00:07:59.624 #codedgaze. NOTE Paragraph 00:08:00.742 --> 00:08:03.079 Pozivam vas da mi se pridružite 00:08:03.113 --> 00:08:06.832 u stvaranju sveta u kome tehnologija radi za sve nas, 00:08:06.856 --> 00:08:08.753 a ne samo za neke od nas, 00:08:08.787 --> 00:08:13.415 sveta u kome cenimo inkluziju i stavljamo u središte društvene promene. NOTE Paragraph 00:08:13.449 --> 00:08:14.624 Hvala. NOTE Paragraph 00:08:14.648 --> 00:08:16.949 (Aplauz) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 Ali imam jedno pitanje. 00:08:23.751 --> 00:08:25.810 Hoćete li mi se pridružiti u borbi? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (Smeh) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (Aplauz)