WEBVTT 00:00:01.041 --> 00:00:04.175 Ahoj, jsem Joy, básnířka kódu, 00:00:04.199 --> 00:00:09.192 na misi usilující o zastavení síly, která je na vzestupu, 00:00:09.216 --> 00:00:12.072 síle zvané „zakódovaný pohled“, 00:00:12.096 --> 00:00:15.405 můj termín pro algoritmický předsudek. NOTE Paragraph 00:00:15.429 --> 00:00:19.729 Algoritmický předsudek, stejně jako lidský směřuje k neférovosti. 00:00:19.753 --> 00:00:25.775 Nicméně, podobně jako virusy, algoritmy mohou šířit předsudky 00:00:25.799 --> 00:00:27.381 masově a velmi rychle. 00:00:27.943 --> 00:00:32.330 Algoritmický předsudek může také vést k vyloučení 00:00:32.354 --> 00:00:34.482 a diskriminujícím praktikám. 00:00:34.506 --> 00:00:36.567 Ukážu vám, co mám na mysli. NOTE Paragraph 00:00:36.980 --> 00:00:39.416 (video) Joy: Ahoj, kamero. Mám obličej. 00:00:40.162 --> 00:00:42.026 Vidíte můj obličej? 00:00:42.051 --> 00:00:43.676 Obličej bez brýlí? 00:00:43.701 --> 00:00:45.915 Vidíte i její tvář. 00:00:46.237 --> 00:00:48.482 A co tu mou? 00:00:51.890 --> 00:00:55.640 Mám masku. Vidíte tu masku? NOTE Paragraph 00:00:56.474 --> 00:00:58.839 Joy: Jak se to přihodilo? 00:00:58.863 --> 00:01:02.004 Proč sedím před počítačem 00:01:02.028 --> 00:01:03.452 v bílé masce ve snaze 00:01:03.476 --> 00:01:07.126 nechat se identifikovat levnou webkamerou? 00:01:07.150 --> 00:01:09.441 Když nebojuji proti zakódovanému pohledu 00:01:09.465 --> 00:01:10.985 jako básnířka kódu, 00:01:11.009 --> 00:01:14.281 jsem studentkou Media Lab na MIT, 00:01:14.305 --> 00:01:19.222 kde mám možnost pracovat na celé řadě zvláštních projektů, 00:01:19.246 --> 00:01:21.273 třeba i na projektu Zrcadla Aspire, 00:01:21.297 --> 00:01:26.431 kde jsem se pokusila promítnout digitální masku na můj odraz. 00:01:26.455 --> 00:01:28.805 Takže ráno, když jsem se chtěla cítit silná, 00:01:28.829 --> 00:01:30.263 mohla jsem si nasadit lva. 00:01:30.287 --> 00:01:33.783 Pokud jsem chtěla povzbudit, mohla jsem mít citát. 00:01:33.807 --> 00:01:36.796 Takže jsem použila generický software na rozpoznávání obličeje 00:01:36.820 --> 00:01:38.171 pro výstavbu tohoto systému, 00:01:38.195 --> 00:01:43.298 ale bylo obtížné jej testovat, pokud jsem neměla bílou masku. NOTE Paragraph 00:01:44.282 --> 00:01:48.628 Naneštěstí jsem na tento problém narazila již dříve. 00:01:48.652 --> 00:01:52.955 Když jsem studovala na Georgia Tech počítačovou vědu, 00:01:52.979 --> 00:01:55.034 pracovala jsem na sociálních robotech 00:01:55.058 --> 00:01:58.835 a jedním z mých úkolů bylo přimět robota hrát na schovávanou, 00:01:58.859 --> 00:02:00.542 jednoduchou hru, 00:02:00.566 --> 00:02:04.887 kde si partneři zahalí své tváře a po odhalení říkají „Ku ku ku!!“ 00:02:04.911 --> 00:02:09.340 Problém je, že to nefunguje, pokud se nevidíte, 00:02:09.364 --> 00:02:11.863 a můj robot mne nemohl vidět. 00:02:11.887 --> 00:02:15.837 Abych dokončila tento projekt, půjčila jsem si obličej spolubydlícího, 00:02:15.861 --> 00:02:17.241 odevzdala úkol 00:02:17.265 --> 00:02:21.018 a řekla si, že někdo jiný jistě vyřeší tento problém. NOTE Paragraph 00:02:21.669 --> 00:02:23.672 Zanedlouho jsem byla v Hong Kongu 00:02:23.696 --> 00:02:27.855 na podnikatelské soutěži. 00:02:28.339 --> 00:02:31.033 Organizátoři vzali účastníky 00:02:31.057 --> 00:02:33.429 na prohlídku místních start-upů. 00:02:33.453 --> 00:02:36.168 Jeden ze start-upů měl společenského robota 00:02:36.192 --> 00:02:38.104 a rozhodli se nám jej ukázat. 00:02:38.128 --> 00:02:41.108 Demo pracovalo na každém, než se dostali ke mně 00:02:41.132 --> 00:02:43.055 a asi uhádnete, co se stalo. 00:02:43.079 --> 00:02:46.044 Nedokázala detekovat mou tvář. 00:02:46.068 --> 00:02:48.579 Zeptala jsem se developerů, co se děje a ukázalo se, 00:02:48.603 --> 00:02:53.620 že použili stejný generický software pro rozpoznávání obličeje. 00:02:53.620 --> 00:02:55.810 Na druhé straně polokoule jsem zjistila, 00:02:55.834 --> 00:02:59.686 že algoritmický předsudek může cestovat tak rychle, 00:02:59.710 --> 00:03:02.880 jak dlouho trvá stažení několika souborů na počítači. NOTE Paragraph 00:03:03.745 --> 00:03:06.821 Takže co se děje? Proč můj obličej nebyl rozpoznán? 00:03:06.845 --> 00:03:10.201 Musíme se podívat na to, jak umožňujeme strojům vidět. 00:03:10.225 --> 00:03:13.634 Počítačový zrak používá techniky strojového učení, 00:03:13.658 --> 00:03:15.538 aby rozpoznal obličeje. 00:03:15.562 --> 00:03:19.459 Funguje to tak, že vytvoříte tréninkovou sadu s ukázkami tváří. 00:03:19.483 --> 00:03:22.301 To je tvář. To je tvář. To není tvář. 00:03:22.325 --> 00:03:26.844 A za čas můžete naučit počítač, jak rozpoznat jiné tváře. 00:03:26.868 --> 00:03:30.857 Ale pokud nejsou tréninkové sady dost rozmanité, 00:03:30.881 --> 00:03:34.230 každá tvář, která se příliš vzdaluje od etablované normy 00:03:34.254 --> 00:03:35.903 bude obtížně zjistitelná, 00:03:35.927 --> 00:03:37.890 což je to, co se stává mně. NOTE Paragraph 00:03:37.914 --> 00:03:40.296 Ale nebojte se - jsou i dobré zprávy. 00:03:40.320 --> 00:03:43.091 Tréningové sety se neobjevují z ničeho. 00:03:43.115 --> 00:03:44.903 Ve skutečnosti je tvoříme my. 00:03:44.927 --> 00:03:49.103 Existuje tedy příležitost vytvořit plné spektrum tréninkových setů, 00:03:49.127 --> 00:03:52.951 které reflektují pestřejší obraz lidstva. NOTE Paragraph 00:03:52.975 --> 00:03:55.196 Jak vidíte, díky společenským robotům 00:03:55.220 --> 00:03:56.988 jsem přišla na vyloučení 00:03:57.012 --> 00:04:01.623 způsobené algoritmickým předsudkem. 00:04:01.647 --> 00:04:06.462 Tento předsudek může ale také vést k diskriminačním praktikám. 00:04:07.437 --> 00:04:08.890 Policejní oddělení v USA 00:04:08.914 --> 00:04:13.112 začínají používat software na rozpoznávání obličeje 00:04:13.136 --> 00:04:15.595 jako nástroj boje proti zločinu. 00:04:15.619 --> 00:04:18.062 Gergetown Law publikovalo zprávu ukazující, 00:04:18.062 --> 00:04:24.419 že jeden ze dvou dospělých v USA - to je ze 117 milionů lidí - 00:04:24.443 --> 00:04:27.977 mají svou tvář v sítích na rozpoznávání tváře. 00:04:28.001 --> 00:04:32.553 Policie se na tyto sítě může dívat bez regulace, 00:04:32.577 --> 00:04:36.863 při použití algoritmů, které nebyly auditovány na přesnost. 00:04:36.887 --> 00:04:40.751 A to víme, že rozpoznání tváře není neomylné 00:04:40.775 --> 00:04:44.954 a označování tváří stále zůstává výzvou. 00:04:44.978 --> 00:04:46.740 Mohli jste to vidět na facebooku. 00:04:46.764 --> 00:04:49.752 S přáteli se vždy smějeme, 00:04:49.776 --> 00:04:52.234 když vidíme špatně označené lidi na fotkách. 00:04:52.258 --> 00:04:57.849 Ale není k smíchu špatně označený podezřelý, 00:04:57.873 --> 00:05:00.700 ani porušování našich občanských práv. NOTE Paragraph 00:05:00.724 --> 00:05:03.929 Pro rozpoznání tváře je používáno strojové učení, 00:05:03.953 --> 00:05:08.458 ale toto zasahuje za říši vidění počítače. 00:05:09.266 --> 00:05:13.282 Ve své knize „Zbraně matematického ničení“ 00:05:13.306 --> 00:05:19.987 Cathy O´Neil, analytička dat, hovoří o vzestupu nových zbraní - 00:05:20.011 --> 00:05:24.364 široce rozšířených, záhadných a destruktivních algoritmů, 00:05:24.388 --> 00:05:27.352 které mají dopad na více aspektů našich životů 00:05:27.376 --> 00:05:30.553 a jsou ve vzrůstající míře užívány pro rozhodování. 00:05:30.577 --> 00:05:32.447 Takže koho přijmou, koho vyhodí? 00:05:32.471 --> 00:05:34.583 Kdo dostane půjčku? Kdo bude pojištěn? 00:05:34.607 --> 00:05:38.110 Budete přijati na školu, na kterou chcete? 00:05:38.134 --> 00:05:41.643 Zaplatíme vy i já stejnou cenu za stejný produkt, 00:05:41.667 --> 00:05:44.109 zakoupený na stejné platformě? NOTE Paragraph 00:05:44.133 --> 00:05:47.892 Policie také začíná využívat strojové učení 00:05:47.916 --> 00:05:50.205 pro prediktivní ochranu. 00:05:50.229 --> 00:05:53.723 Někteří soudci využívají strojem generované hodnocení rizik pro určení, 00:05:53.747 --> 00:05:58.149 jak dlouho má člověk zůstat ve vězení. 00:05:58.173 --> 00:06:00.627 Opravdu musíme přemýšlet o těchto rozhodnutích. 00:06:00.651 --> 00:06:01.833 Jsou férová? 00:06:01.857 --> 00:06:04.747 Viděli jsme, že algoritmický předsudek 00:06:04.771 --> 00:06:08.145 nemusí vždy vést k férovým výsledkům. NOTE Paragraph 00:06:08.169 --> 00:06:10.133 Co s tím můžeme dělat? 00:06:10.157 --> 00:06:13.837 Můžeme začít uvažovat o tvorbě inkluzivnějšího kódu 00:06:13.861 --> 00:06:16.851 a užívat inkluzivní techniky kódování. 00:06:16.875 --> 00:06:19.184 Opravdu to začíná lidmi. 00:06:19.708 --> 00:06:21.669 Záleží na tom, kdo kóduje. 00:06:21.693 --> 00:06:25.812 Vytváříme široké týmy s různými osobnostmi, 00:06:25.836 --> 00:06:28.247 kteří si vzájemně mohou kontrolovat slepá místa? 00:06:28.271 --> 00:06:31.816 Po technické stránce záleží na tom, jak kódujeme. 00:06:31.840 --> 00:06:35.491 Zahrnujeme férovost do vyvíjených systémů? 00:06:35.515 --> 00:06:38.428 Nakonec záleží na tom, proč kódujeme. 00:06:38.785 --> 00:06:43.868 Využili jsme nástroje pro tvorbu, odemykající obrovské bohatství. 00:06:43.892 --> 00:06:48.339 Máme příležitost otevřít ještě větší rovnost, 00:06:48.363 --> 00:06:51.293 pokud sociální změně dáme prioritu 00:06:51.317 --> 00:06:53.487 a nebudeme na ni pouze vzpomínat. 00:06:54.008 --> 00:06:58.530 To jsou tři zásady, které jsou součástí tohoto hnutí. 00:06:58.554 --> 00:07:00.206 Záleží na tom, kdo kóduje, 00:07:00.230 --> 00:07:01.773 jak kódujeme 00:07:01.797 --> 00:07:03.820 a proč kódujeme. NOTE Paragraph 00:07:03.844 --> 00:07:06.943 Takže můžeme začít přemýšlet 00:07:06.967 --> 00:07:10.131 o vytváření platformy identifikující předsudky, 00:07:10.155 --> 00:07:13.233 sbírání takových zkušeností, kterou jsem vám vyprávěla, 00:07:13.257 --> 00:07:16.327 ale také auditování existujícího software. 00:07:16.351 --> 00:07:20.116 Také můžeme vytvářet inkluzivnější tréninkové sety. 00:07:20.140 --> 00:07:22.943 Přestavte si kampaň „Selfie pro inkluzi“, 00:07:22.967 --> 00:07:26.622 kde já a vy můžeme pomoci developerům testovat a vytvořit 00:07:26.646 --> 00:07:28.739 inkluzivnější tréninkové sety. 00:07:29.302 --> 00:07:32.130 Také můžeme začít přemýšlet svědomitěji 00:07:32.154 --> 00:07:37.545 o sociálních důsledcích technologií, které vytváříme. NOTE Paragraph 00:07:37.569 --> 00:07:39.962 K nastartování tohoto hnutí 00:07:39.986 --> 00:07:42.833 jsem vytvořila algoritmickou Ligu spravedlivých, 00:07:42.857 --> 00:07:48.729 kde kdokoli může pomoci proti „zakódovanému pohledu“. 00:07:48.753 --> 00:07:52.049 Na codedgaze.com můžete dát vědět o předsudku, 00:07:52.073 --> 00:07:54.518 požádat si o audit, stát se testerem, 00:07:54.542 --> 00:07:57.313 nebo se zapojit do probíhající diskuse, 00:07:57.337 --> 00:07:59.624 #codedgaze. NOTE Paragraph 00:08:00.742 --> 00:08:03.229 Takže vás zvu, abyste se ke mně přidali 00:08:03.253 --> 00:08:06.972 ve vytváření světa, kde technologie pracuje pro všechny, 00:08:06.996 --> 00:08:08.893 ne jen pro některé, 00:08:08.917 --> 00:08:13.505 svět, ve kterém si ceníme inkluze a soustředíme se na sociální změnu. NOTE Paragraph 00:08:13.529 --> 00:08:14.704 Děkuji. NOTE Paragraph 00:08:14.728 --> 00:08:18.999 (potlesk) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 Mám ale jednu otázku: 00:08:23.751 --> 00:08:25.810 Přidáte se k mému boji? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (smích) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (potlesk)