0:00:01.041,0:00:04.175 Olá, sou a Joy, uma poetisa de código, 0:00:04.280,0:00:09.192 numa missão de fazer parar[br]uma força invisível em ascensão, 0:00:09.279,0:00:12.072 uma força a que eu chamo[br]"olhar codificado," 0:00:12.141,0:00:15.405 o meu termo para preconceito algorítmico. 0:00:15.547,0:00:19.729 O preconceito algorítmico, como o[br]preconceito humano, resulta da injustiça. 0:00:19.971,0:00:22.753 Porém, os algoritmos, tal como os vírus, 0:00:22.799,0:00:25.835 podem espalhar preconceitos[br]numa grande escala 0:00:25.908,0:00:27.644 num ritmo rápido. 0:00:27.943,0:00:32.330 O preconceito em algoritmos também[br]pode levar a experiências de exclusão 0:00:32.354,0:00:34.482 e a práticas discriminatórias. 0:00:34.687,0:00:36.748 Vou mostrar o que quero dizer. 0:00:36.980,0:00:39.479 (Vídeo) Olá, câmara, eu tenho um rosto. 0:00:40.162,0:00:41.880 Podes ver o meu rosto? 0:00:42.051,0:00:43.885 Um rosto sem óculos? 0:00:43.955,0:00:45.915 Podes ver o rosto dela. 0:00:46.237,0:00:48.145 E o meu rosto? 0:00:51.890,0:00:55.294 Tenho uma máscara.[br]Vês a minha máscara? 0:00:56.474,0:00:58.839 Joy: Então, como é que isso aconteceu? 0:00:58.863,0:01:02.004 Porque é que eu estou em frente[br]de um computador 0:01:02.028,0:01:03.652 com uma máscara branca, 0:01:03.694,0:01:07.126 a tentar ser detetada por[br]uma câmara de vídeo barata? 0:01:07.359,0:01:09.731 Quando não estou a lutar[br]contra o olhar codificado 0:01:09.755,0:01:11.294 como uma poetisa de código, 0:01:11.318,0:01:14.535 sou uma estudante de pós-graduação[br]no laboratório de "media" do MIT. 0:01:14.586,0:01:19.222 Aí tenho a oportunidade de trabalhar[br]em todo tipo de projetos bizarros, 0:01:19.246,0:01:21.427 incluindo o Espelho de Desejar, 0:01:21.460,0:01:26.431 um projeto que fiz para poder projetar[br]máscaras digitais para o meu reflexo. 0:01:26.455,0:01:28.805 Então, pela manhã,[br]se quisesse sentir-me poderosa, 0:01:28.829,0:01:30.344 eu podia usar um leão. 0:01:30.396,0:01:33.783 Se quisesse ficar inspirada,[br]podia ter uma citação. 0:01:33.961,0:01:36.796 Então eu usei o software[br]genérico de reconhecimento facial 0:01:36.820,0:01:38.389 para construir o sistema, 0:01:38.458,0:01:43.298 mas descobri que era difícil testá-lo[br]a menos que usasse uma máscara branca. 0:01:44.282,0:01:48.382 Infelizmente, eu já tinha esbarrado[br]nesse problema. 0:01:48.652,0:01:52.955 Quando era universitária em Georgia Tech[br]e estudava ciência informática, 0:01:52.979,0:01:55.079 eu costumava trabalhar em robôs sociais, 0:01:55.139,0:01:58.835 e uma das minhas tarefas era fazer[br]com que um robô jogasse às escondidas, 0:01:58.859,0:02:00.742 um simples jogo de turnos 0:02:00.775,0:02:04.887 em que os parceiros escondem a cara[br]e depois destapam-na, dizendo "Espreita!" 0:02:04.947,0:02:09.340 O problema é que isso só[br]funciona se eu puder ver o outro, 0:02:09.464,0:02:11.753 e o meu robô não me via. 0:02:11.887,0:02:15.837 Pedi emprestada a cara da minha[br]colega de quarto para terminar o projeto, 0:02:15.861,0:02:17.713 apresentei a tarefa e pensei: 0:02:17.774,0:02:21.208 "Sabem que mais,[br]outra pessoa que resolva esse problema". 0:02:21.669,0:02:23.672 Pouco tempo depois, 0:02:23.696,0:02:27.927 eu estava em Hong Kong para uma[br]competição de empreendedorismo. 0:02:28.339,0:02:31.033 Os organizadores decidiram[br]levar os participantes 0:02:31.057,0:02:33.429 numa visita às "start-ups" locais. 0:02:33.453,0:02:36.168 Uma das "start-ups" tinha um robô social, 0:02:36.192,0:02:38.285 e decidiram fazer uma demonstração. 0:02:38.328,0:02:41.444 A demonstração funcionou com toda a gente[br]até chegar a minha vez. 0:02:41.495,0:02:43.309 Provavelmente já adivinham. 0:02:43.351,0:02:45.980 Não conseguiu detetar o meu rosto. 0:02:46.068,0:02:48.760 Perguntei aos responsáveis[br]o que é que se passava, 0:02:48.793,0:02:54.236 e acontece que tínhamos usado o mesmo[br]software genérico de reconhecimento facial. 0:02:54.314,0:02:56.046 Do outro lado do mundo, 0:02:56.097,0:02:59.831 aprendi que o preconceito do algoritmo[br]pode viajar tão depressa 0:02:59.882,0:03:03.261 quanto uma descarga[br]de ficheiros da Internet. 0:03:03.745,0:03:07.084 Então, o que é que se passa?[br]Porque é que a minha cara não é detetada? 0:03:07.126,0:03:10.255 Temos de olhar para o modo[br]como damos visão às máquinas. 0:03:10.325,0:03:13.634 A visão informática usa[br]técnicas de aprendizagem de máquina 0:03:13.658,0:03:15.710 para fazer o reconhecimento facial. 0:03:15.771,0:03:19.568 Funciona assim: criamos um grupo[br]de formação com exemplos de rostos. 0:03:19.637,0:03:22.337 Isto é um rosto. Isto é um rosto.[br]Isto não é um rosto. 0:03:22.415,0:03:26.844 Com o tempo, podemos ensinar[br]o computador a reconhecer rostos. 0:03:26.868,0:03:30.857 Contudo, se os grupos de formação[br]não forem diversificados, 0:03:30.881,0:03:34.230 qualquer rosto que se desvie[br]demasiado da norma estabelecida 0:03:34.254,0:03:35.903 será difícil de detetar. 0:03:36.099,0:03:38.008 Era o que estava a acontecer comigo. 0:03:38.068,0:03:40.296 Mas não se preocupem,[br]há boas notícias. 0:03:40.320,0:03:43.091 Os grupos de formação[br]não se materializam do nada. 0:03:43.115,0:03:45.103 Na verdade, podemos criá-los. 0:03:45.163,0:03:49.303 Portanto, há a oportunidade de criar[br]grupos de formação com um espetro completo 0:03:49.354,0:03:52.951 que reflitam um retrato[br]mais rico da humanidade. 0:03:52.975,0:03:55.196 Vocês viram nos meus exemplos 0:03:55.220,0:03:56.988 com os robôs sociais 0:03:57.012,0:04:01.623 que foi como eu descobri a exclusão[br]com o preconceito algorítmico. 0:04:01.765,0:04:06.362 Mas o preconceito algorítmico também[br]pode levar a práticas discriminatórias. 0:04:07.437,0:04:09.062 Nos Estados Unidos da América, 0:04:09.123,0:04:13.112 os departamentos da polícia começam[br]a usar o software de reconhecimento facial 0:04:13.136,0:04:15.595 no seu arsenal de luta contra o crime. 0:04:15.619,0:04:18.395 A Faculdade de Direito de Georgetown[br]publicou um relatório 0:04:18.437,0:04:21.443 mostrando que um[br]em dois adultos, nos EUA 0:04:21.479,0:04:24.443 — ou seja, 117 milhões de pessoas — 0:04:24.506,0:04:27.977 têm os rostos em redes[br]de reconhecimento facial. 0:04:28.064,0:04:32.634 Os departamentos da polícia podem procurar[br]nessas redes não regulamentadas, 0:04:32.667,0:04:36.863 usando algoritmos que não foram[br]auditados quanto ao seu rigor. 0:04:37.041,0:04:40.869 No entanto, sabemos que o reconhecimento[br]facial não é à prova de falhas, 0:04:40.929,0:04:45.099 e rotular rostos consistentemente[br]continua a ser um problema. 0:04:45.214,0:04:46.858 Podem ter visto isto no Facebook. 0:04:46.918,0:04:50.142 Os meus amigos e eu estamos sempre a rir[br]quando vemos outras pessoas 0:04:50.166,0:04:52.388 mal rotuladas nas nossas fotos. 0:04:52.512,0:04:57.849 Mas a má identificação de um possível[br]criminoso não é motivo para rir, 0:04:57.873,0:05:00.954 e o mesmo acontece com[br]a violação das liberdades civis. 0:05:01.014,0:05:04.356 A aprendizagem de máquinas está a ser[br]usada para reconhecimento facial, 0:05:04.416,0:05:08.558 mas está a estender-se para além[br]do domínio da visão por computador. 0:05:09.266,0:05:13.363 No seu livro, "Armas de[br]Destruição Matemática" (ADM), 0:05:13.424,0:05:19.768 a cientista de dados Cathy O'Neil[br]fala sobre o aumento de novas ADM 0:05:20.011,0:05:24.436 algoritmos difundidos,[br]misteriosos e destrutivos 0:05:24.515,0:05:27.533 que estão a ser cada vez mais usados[br]para tomar decisões 0:05:27.576,0:05:30.553 que afetam mais aspetos da nossa vida. 0:05:30.577,0:05:32.683 Por exemplo, quem é contratado[br]ou despedido? 0:05:32.725,0:05:34.883 Recebemos esse empréstimo?[br]Recebemos o seguro? 0:05:34.934,0:05:38.273 Somos admitidos na faculdade[br]em que queremos entrar? 0:05:38.415,0:05:41.643 Pagamos todos o mesmo preço[br]para o mesmo produto 0:05:41.667,0:05:44.036 comprado na mesma plataforma? 0:05:44.133,0:05:47.892 A polícia também está a começar[br]a usar a aprendizagem de máquinas 0:05:47.916,0:05:50.150 para policiamento preditivo. 0:05:50.229,0:05:53.886 Alguns juízes usam a avaliação de risco[br]gerada por máquinas para determinar 0:05:53.928,0:05:58.149 quanto tempo um indivíduo[br]vai passar na prisão. 0:05:58.227,0:06:00.745 Portanto, temos mesmo que pensar[br]nessas decisões. 0:06:00.796,0:06:02.233 Elas sãos justas? 0:06:02.293,0:06:04.965 Já vimos que o preconceito algorítmico 0:06:04.989,0:06:08.145 nem sempre conduz[br]a resultados justos. 0:06:08.250,0:06:10.214 Então, o que podemos fazer quanto a isso? 0:06:10.366,0:06:13.837 Podemos começar a pensar [br]em criar códigos mais inclusivos 0:06:13.897,0:06:16.851 e usar práticas de codificação inclusiva. 0:06:16.993,0:06:19.402 Isto começa com as pessoas. 0:06:19.708,0:06:21.778 Por isso, é importante quem codifica. 0:06:21.820,0:06:25.812 Estaremos a criar equipas de espetro[br]completo com diversos indivíduos 0:06:25.836,0:06:28.510 que podem verificar os pontos cegos[br]uns dos outros? 0:06:28.571,0:06:31.816 No lado técnico,[br]é importante a forma como codificamos. 0:06:31.930,0:06:35.491 Estaremos a considerar a equidade[br]enquanto desenvolvemos os sistemas? 0:06:35.615,0:06:38.728 E, finalmente, é importante a razão[br]por que codificamos. 0:06:38.785,0:06:41.382 Temos usado ferramentas[br]de criação informática 0:06:41.409,0:06:44.019 para desbloquear uma riqueza imensa. 0:06:44.046,0:06:48.393 Agora temos a oportunidade[br]de desbloquear uma igualdade ainda maior 0:06:48.453,0:06:51.502 se dermos prioridade à mudança social 0:06:51.526,0:06:53.914 e não uma reflexão tardia. 0:06:54.008,0:06:58.530 Portanto, estes são os três princípios[br]que formam o movimento "de codificação". 0:06:58.554,0:07:00.306 É importante quem codifica, 0:07:00.357,0:07:02.045 é importante como codificamos, 0:07:02.097,0:07:04.220 e é importante a razão[br]por que codificamos. 0:07:04.262,0:07:07.088 Para avançarmos para a codificação,[br]podemos começar a pensar 0:07:07.139,0:07:10.221 em construir plataformas que[br]possam identificar preconceitos 0:07:10.282,0:07:13.469 reunindo as experiências de pessoas[br]como as que eu contei, 0:07:13.547,0:07:16.327 e também auditando[br]os softwares existentes. 0:07:16.423,0:07:20.116 Também podemos começar a criar[br]grupos de formação mais inclusivos. 0:07:20.258,0:07:23.106 Imaginem uma campanha[br]"Selfies para Inclusão" 0:07:23.157,0:07:26.740 em que qualquer um pode ajudar[br]os desenvolvedores a criar e testar 0:07:26.800,0:07:29.111 grupos de formação mais inclusivos. 0:07:29.302,0:07:32.230 Também podemos começar[br]a pensar com maior consciência 0:07:32.263,0:07:37.226 no impacto social da tecnologia[br]que estamos a desenvolver. 0:07:37.569,0:07:39.962 Para iniciar o movimento de codificação, 0:07:39.986,0:07:42.996 lancei o Algoritmo Liga da Justiça, 0:07:43.047,0:07:45.916 em que todos os que[br]se interessam pela justiça 0:07:45.962,0:07:48.753 podem ajudar a lutar[br]contra o olhar codificado. 0:07:48.916,0:07:52.203 Em codedgaze.com,[br]podem relatar preconceitos, 0:07:52.282,0:07:54.681 exigir auditos, fazerem testes 0:07:54.742,0:07:57.503 e participar das conversas em curso, 0:07:57.609,0:07:59.896 #codedgaze. 0:08:00.742,0:08:03.347 Portanto, convido-os a juntarem-se a mim 0:08:03.407,0:08:07.099 para criar um mundo em que a tecnologia[br]funcione para todos nós, 0:08:07.150,0:08:09.120 não apenas para alguns, 0:08:09.162,0:08:13.505 um mundo em que valorizamos a inclusão[br]e nos centramos na mudança social. 0:08:13.647,0:08:14.704 Obrigada. 0:08:14.873,0:08:17.871 (Aplausos). 0:08:20.873,0:08:23.336 Mas eu tenho uma pergunta: 0:08:23.751,0:08:25.937 Vão juntar-se a mim nesta luta? 0:08:26.006,0:08:27.119 (Risos) 0:08:27.215,0:08:29.993 (Aplausos)