1 00:00:00,975 --> 00:00:03,071 Os algoritmos estão em todo o lado. 2 00:00:04,111 --> 00:00:07,236 Eles classificam e separam os vencedores dos perdedores. 3 00:00:08,019 --> 00:00:10,283 Os vencedores ficam com o emprego 4 00:00:10,283 --> 00:00:12,306 ou uma boa oferta para o cartão de crédito. 5 00:00:12,306 --> 00:00:14,701 Os que perdem nem sequer vão à entrevista 6 00:00:15,590 --> 00:00:17,367 mas pagam mais pelo seguro. 7 00:00:18,197 --> 00:00:21,746 Estamos a ser marcados com fórmulas secretas que não entendemos 8 00:00:22,675 --> 00:00:25,892 e que, muitas vezes, não têm sistemas de recurso. 9 00:00:27,240 --> 00:00:28,536 Isto traz-nos a pergunta: 10 00:00:28,560 --> 00:00:31,473 E se os algoritmos estão errados? 11 00:00:33,100 --> 00:00:35,140 Para criar um algoritmo é preciso: 12 00:00:35,164 --> 00:00:37,145 dados — o que aconteceu no passado; 13 00:00:37,169 --> 00:00:38,730 e uma definição de sucesso, 14 00:00:38,754 --> 00:00:41,371 aquilo de que estamos à procura e que queremos atingir. 15 00:00:41,411 --> 00:00:46,272 Um algoritmo treina-se com a procura, com a descoberta. 16 00:00:46,296 --> 00:00:49,715 O algoritmo descobre o que está associado ao sucesso. 17 00:00:49,739 --> 00:00:52,202 Qual a situação que leva ao sucesso? 18 00:00:52,881 --> 00:00:54,643 Na verdade, todos usam algoritmos. 19 00:00:54,667 --> 00:00:57,385 Só que as pessoas não os formalizam em código escrito. 20 00:00:57,409 --> 00:00:58,757 Deixem-me dar um exemplo. 21 00:00:58,781 --> 00:01:02,097 Eu uso um algoritmo todos os dias para cozinhar para a minha família. 22 00:01:02,121 --> 00:01:03,597 Os dados que eu uso 23 00:01:04,394 --> 00:01:06,053 são os ingredientes que tenho, 24 00:01:06,077 --> 00:01:07,604 o tempo disponível, 25 00:01:07,628 --> 00:01:08,861 a minha ambição, 26 00:01:08,885 --> 00:01:10,594 e junto esses dados todos. 27 00:01:10,618 --> 00:01:14,869 Não contabilizo aqueles pacotes pequenos de "noodles" como comida. 28 00:01:14,893 --> 00:01:16,762 (Risos) 29 00:01:16,786 --> 00:01:18,631 A minha definição de sucesso é: 30 00:01:18,655 --> 00:01:21,314 a refeição é conseguida se os filhos comerem vegetais. 31 00:01:22,181 --> 00:01:25,035 Seria diferente se o meu filho mais novo fosse o responsável. 32 00:01:25,059 --> 00:01:27,847 Ele diria que o sucesso seria ele comer muita Nutella. 33 00:01:29,179 --> 00:01:31,405 Mas eu posso escolher o sucesso. 34 00:01:31,429 --> 00:01:34,136 Sou eu a responsável. A minha opinião conta. 35 00:01:34,160 --> 00:01:36,835 Essa é a primeira regra dos algoritmos. 36 00:01:36,859 --> 00:01:40,039 Os algoritmos são opiniões embutidas em código. 37 00:01:41,562 --> 00:01:45,225 É muito diferente daquilo que muitos pensam sobre este assunto. 38 00:01:45,249 --> 00:01:49,753 As pessoas pensam que os algoritmos são objetivos, verdadeiros e científicos. 39 00:01:50,387 --> 00:01:52,086 Isso é um truque de "marketing". 40 00:01:53,269 --> 00:01:55,394 O que também é um truque 41 00:01:55,418 --> 00:01:58,572 é o facto de os algoritmos nos intimidarem, 42 00:01:58,596 --> 00:02:02,257 para nos fazer ter confiança e medo deles, 43 00:02:02,281 --> 00:02:04,299 porque confiamos e receamos a matemática. 44 00:02:05,567 --> 00:02:10,397 Muita coisa pode correr mal se confiarmos cegamente nos "big data". 45 00:02:11,684 --> 00:02:15,057 Esta é Kiri Soares e é diretora de uma escola secundária em Brooklyn. 46 00:02:15,081 --> 00:02:17,667 Em 2011, ela disse-me que os professores eram avaliados 47 00:02:17,691 --> 00:02:20,418 com um algoritmo secreto e complexo 48 00:02:20,442 --> 00:02:22,331 chamado "modelo de valor acrescentado". 49 00:02:22,505 --> 00:02:25,597 Eu disse-lhe: "Bem, se descobrir a fórmula, mostre-ma". 50 00:02:25,621 --> 00:02:27,162 "Eu explico-lha". 51 00:02:27,186 --> 00:02:29,327 Ela respondeu: "Bom, eu tentei obtê-la" 52 00:02:29,351 --> 00:02:32,123 "mas o Departamento de Educação disse que era matemática" 53 00:02:32,147 --> 00:02:33,693 "e que eu não iria entendê-la". 54 00:02:35,266 --> 00:02:36,604 E ainda é pior. 55 00:02:36,628 --> 00:02:40,158 O jornal "The New York Post" invocou a lei da Liberdade de Informação, 56 00:02:40,182 --> 00:02:43,141 reuniu os nomes de todos os professores e os seus resultados 57 00:02:43,165 --> 00:02:46,857 e publicou todas essas informações como forma de envergonhar os professores. 58 00:02:47,084 --> 00:02:50,944 Quando tentei aceder às fórmulas, ao código-fonte, através dos mesmos meios, 59 00:02:50,968 --> 00:02:53,117 disseram-me que não podia fazê-lo. 60 00:02:53,141 --> 00:02:54,377 Foi-me negado. 61 00:02:54,401 --> 00:02:55,575 Mais tarde, descobri 62 00:02:55,599 --> 00:02:58,465 que ninguém em Nova Iorque teve acesso a essa fórmula. 63 00:02:58,489 --> 00:02:59,794 Ninguém a percebia. 64 00:03:01,929 --> 00:03:05,153 Então, envolveu-se um tipo muito inteligente: Gary Rubenstein. 65 00:03:05,177 --> 00:03:08,798 Ele descobriu 665 professores, através dos dados publicados no jornal, 66 00:03:08,822 --> 00:03:10,688 que tiveram dois resultados diferentes. 67 00:03:10,712 --> 00:03:12,593 Podia acontecer se estivessem a lecionar 68 00:03:12,617 --> 00:03:15,056 matemática de sétimo e matemática de oitavo ano. 69 00:03:15,080 --> 00:03:16,998 Decidiu representá-los graficamente 70 00:03:17,012 --> 00:03:18,995 em que cada ponto representa um professor. 71 00:03:19,104 --> 00:03:21,163 (Risos) 72 00:03:21,507 --> 00:03:22,988 O que é isto? 73 00:03:23,052 --> 00:03:24,329 (Risos) 74 00:03:24,353 --> 00:03:27,799 Isto nunca poderia ter sido usado para uma avaliação individual. 75 00:03:27,823 --> 00:03:29,749 É como um gerador de números aleatórios. 76 00:03:29,773 --> 00:03:32,719 (Aplausos) 77 00:03:32,743 --> 00:03:33,905 Mas foi utilizado. 78 00:03:33,929 --> 00:03:35,105 Esta é Sarah Wysocki. 79 00:03:35,129 --> 00:03:37,304 Foi despedida, juntamente com 205 professores 80 00:03:37,328 --> 00:03:39,990 de escolas do distrito de Washington, DC, 81 00:03:40,014 --> 00:03:42,923 embora tivesse excelentes recomendações do seu diretor 82 00:03:42,947 --> 00:03:44,375 e dos pais dos seus alunos. 83 00:03:44,930 --> 00:03:46,482 Sei o que muitos estão a pensar, 84 00:03:46,482 --> 00:03:50,009 sobretudo os cientistas de dados especialistas em Inteligência Artificial. 85 00:03:50,009 --> 00:03:54,183 Estão a pensar: "Eu nunca faria um algoritmo tão inconsistente". 86 00:03:54,853 --> 00:03:56,536 Mas os algoritmos podem correr mal, 87 00:03:56,560 --> 00:04:01,158 chegando a ter efeitos profundamente destrutivos, cheios de boas intenções. 88 00:04:02,531 --> 00:04:04,910 Enquanto que um avião que é mal arquitetado 89 00:04:04,934 --> 00:04:06,935 se despenha e todos veem, 90 00:04:06,959 --> 00:04:08,809 um algoritmo mal projetado 91 00:04:10,245 --> 00:04:14,110 pode ser utilizado durante muito tempo, causando estragos silenciosamente. 92 00:04:15,748 --> 00:04:17,318 Este é Roger Ailes. 93 00:04:17,342 --> 00:04:19,342 (Risos) 94 00:04:20,524 --> 00:04:22,912 Fundou a Fox News em 1996. 95 00:04:23,436 --> 00:04:26,017 Mais de 20 mulheres queixaram-se de assédio sexual. 96 00:04:26,041 --> 00:04:29,276 Diziam que, na Fox News, não lhes era permitido terem sucesso. 97 00:04:29,300 --> 00:04:31,820 Ailes foi despedido no ano passado, mas, recentemente, 98 00:04:31,844 --> 00:04:34,514 temos visto que os problemas persistem. 99 00:04:35,654 --> 00:04:37,054 Isto leva-nos a perguntar: 100 00:04:37,078 --> 00:04:39,962 O que é que a Fox News deveria fazer para virar a página? 101 00:04:41,245 --> 00:04:44,286 E se tivessem substituído o seu processo de recrutamento 102 00:04:44,286 --> 00:04:46,350 por um algoritmo de aprendizagem automática? 103 00:04:46,380 --> 00:04:47,583 Parece-vos bem, não é? 104 00:04:47,607 --> 00:04:48,907 Pensem nisso. 105 00:04:48,931 --> 00:04:51,036 Que dados poderiam ser? 106 00:04:51,060 --> 00:04:56,007 Uma escolha razoável seriam os currículos recebidos nos últimos 21 anos. 107 00:04:56,031 --> 00:04:57,533 Razoável. 108 00:04:57,557 --> 00:04:59,495 E qual seria a definição de sucesso? 109 00:04:59,921 --> 00:05:01,245 A escolha razoável seria... 110 00:05:01,269 --> 00:05:03,047 Bem, quem tem sucesso na Fox News? 111 00:05:03,071 --> 00:05:06,651 Eu diria alguém que lá trabalhou durante quatro anos 112 00:05:06,675 --> 00:05:08,809 e que foi promovido, pelo menos, uma vez. 113 00:05:08,816 --> 00:05:10,377 Parece razoável. 114 00:05:10,401 --> 00:05:12,755 E aí, o algoritmo seria treinado. 115 00:05:12,779 --> 00:05:16,656 Seria treinado para procurar pessoas e perceber o que levava ao sucesso, 116 00:05:17,219 --> 00:05:21,537 que tipo de currículos eram propícios a isso, 117 00:05:21,561 --> 00:05:22,855 seguindo essa definição. 118 00:05:24,200 --> 00:05:25,975 Pensem no que poderia acontecer 119 00:05:25,999 --> 00:05:28,554 se o aplicássemos ao conjunto atual de candidaturas. 120 00:05:29,119 --> 00:05:30,748 Filtraria as mulheres, 121 00:05:31,663 --> 00:05:35,593 porque não foram as pessoas que tiveram sucesso no passado. 122 00:05:39,752 --> 00:05:42,289 Os algoritmos não são justos, 123 00:05:42,313 --> 00:05:45,007 se os aplicarmos de ânimo leve e às cegas. 124 00:05:45,031 --> 00:05:46,513 Eles não agem com justiça. 125 00:05:46,537 --> 00:05:48,665 Eles repetem o que fizemos no passado, 126 00:05:48,689 --> 00:05:49,872 os nossos padrões. 127 00:05:49,896 --> 00:05:51,835 Eles automatizam o "status quo". 128 00:05:52,718 --> 00:05:55,107 Isso seria incrível se o mundo fosse perfeito. 129 00:05:55,905 --> 00:05:57,217 Mas não é. 130 00:05:57,241 --> 00:06:01,343 E digo-vos mais: a maioria das empresas não têm processos legais em curso, 131 00:06:02,446 --> 00:06:05,034 mas essas empresas dizem aos seus cientistas de dados 132 00:06:05,058 --> 00:06:07,247 para seguirem os dados, 133 00:06:07,271 --> 00:06:09,414 para se focarem na precisão. 134 00:06:10,273 --> 00:06:11,654 Pensem no que isso significa. 135 00:06:11,678 --> 00:06:15,705 Como todos temos preconceitos, eles podiam codificar o sexismo 136 00:06:15,729 --> 00:06:17,565 ou qualquer outro tipo de sectarismo. 137 00:06:19,488 --> 00:06:20,909 Um exercício intelectual, 138 00:06:20,933 --> 00:06:22,442 porque gosto de fazer isso: 139 00:06:23,574 --> 00:06:26,549 uma sociedade inteiramente segregada 140 00:06:28,247 --> 00:06:31,575 — todas as cidades, os bairros, tudo segregado racialmente — 141 00:06:31,599 --> 00:06:34,636 e onde só enviamos a polícia a bairros minoritários 142 00:06:34,660 --> 00:06:35,853 para combater o crime. 143 00:06:36,451 --> 00:06:38,670 Os dados sobre os detidos seriam tendenciosos. 144 00:06:39,851 --> 00:06:42,426 E se tivéssemos cientistas de dados para esta situação 145 00:06:42,450 --> 00:06:46,611 e lhes pagássemos para preverem onde iria ocorrer o crime seguinte? 146 00:06:47,275 --> 00:06:48,762 Num bairro minoritário. 147 00:06:49,285 --> 00:06:52,410 Ou para preverem quem seria o criminoso seguinte? 148 00:06:52,888 --> 00:06:54,283 Alguém da minoria. 149 00:06:55,949 --> 00:07:00,490 Os cientistas de dados iriam vangloriar-se da eficiência e precisão do seu modelo 150 00:07:00,835 --> 00:07:02,134 e teriam razão. 151 00:07:03,951 --> 00:07:08,566 A realidade não é tão drástica, mas temos segregações graves 152 00:07:08,590 --> 00:07:09,877 em várias cidades e vilas, 153 00:07:09,901 --> 00:07:11,794 e existem inúmeras provas 154 00:07:11,818 --> 00:07:14,506 de que os dados do sistema de justiça são tendenciosos. 155 00:07:15,632 --> 00:07:18,447 E nós prevemos lugares críticos, 156 00:07:18,471 --> 00:07:20,001 locais onde irão ocorrer crimes. 157 00:07:20,401 --> 00:07:24,267 E prevemos a criminalidade individual, 158 00:07:24,291 --> 00:07:26,061 a criminalidade de indivíduos. 159 00:07:26,972 --> 00:07:30,935 A agência de notícias ProPublica analisou recentemente 160 00:07:30,959 --> 00:07:32,983 um algoritmo de "risco de reincidência", 161 00:07:33,007 --> 00:07:34,170 como lhe chamam, 162 00:07:34,194 --> 00:07:37,388 que os júris usam na Flórida, durante os julgamentos. 163 00:07:38,411 --> 00:07:41,996 À esquerda, temos Bernard, de cor negra, que teve uma pontuação de 10 em 10. 164 00:07:43,119 --> 00:07:45,486 Dylan, à direita, teve uma pontuação de 3 em 10. 165 00:07:45,526 --> 00:07:48,021 10 em 10 é risco elevado. 3 em 10 é risco reduzido. 166 00:07:48,598 --> 00:07:50,983 Foram ambos a julgamento por posse de droga. 167 00:07:51,007 --> 00:07:52,161 Ambos tinham cadastro, 168 00:07:52,185 --> 00:07:54,991 mas Dylan já tinha cometido um assalto à mão armada 169 00:07:55,015 --> 00:07:56,191 e o Bernard não. 170 00:07:57,818 --> 00:08:00,884 Isto é importante, porque, quanto mais alta é a pontuação, 171 00:08:00,908 --> 00:08:04,381 maior a probabilidade de a sentença ser mais longa. 172 00:08:06,294 --> 00:08:07,588 O que está a acontecer? 173 00:08:08,526 --> 00:08:09,858 Lavagem de dados. 174 00:08:10,930 --> 00:08:15,357 É um processo em que os tecnólogos escondem verdades muito graves 175 00:08:15,381 --> 00:08:17,202 dentro de algoritmos de caixa negra 176 00:08:17,226 --> 00:08:18,516 e chamam-lhes objetivos; 177 00:08:19,320 --> 00:08:20,888 chamam-lhes meritocráticos. 178 00:08:23,118 --> 00:08:25,503 Quando são secretos, importantes e destrutivos 179 00:08:25,527 --> 00:08:28,014 eu chamo-lhes da seguinte maneira: 180 00:08:28,038 --> 00:08:30,037 "armas de destruição maciça". 181 00:08:30,061 --> 00:08:31,625 (Risos) 182 00:08:31,649 --> 00:08:34,703 (Aplausos) 183 00:08:34,727 --> 00:08:37,081 Estão por todo o lado e não são um erro. 184 00:08:37,695 --> 00:08:41,418 São empresas privadas que estão a criar algoritmos privados 185 00:08:41,442 --> 00:08:42,834 para objetivos privados. 186 00:08:43,214 --> 00:08:46,428 Mesmo os que mencionei aqui para os professores e a polícia, 187 00:08:46,452 --> 00:08:48,321 foram criados por empresas privadas 188 00:08:48,345 --> 00:08:50,576 e vendidos a instituições governamentais. 189 00:08:50,600 --> 00:08:52,473 Chamam-lhes o seu "molho secreto" 190 00:08:52,497 --> 00:08:54,625 — é por isso que não nos podem contar. 191 00:08:54,649 --> 00:08:56,869 Trata-se, também, de poder privado. 192 00:08:57,924 --> 00:09:02,619 Estão a lucrar para dominarem a autoridade do inescrutável. 193 00:09:05,114 --> 00:09:06,648 Agora, vocês podem pensar: 194 00:09:06,682 --> 00:09:09,230 se tudo isto é privado e existe concorrência, 195 00:09:09,254 --> 00:09:11,560 talvez o mercado livre corrija este problema. 196 00:09:11,584 --> 00:09:12,833 Não, não o fará. 197 00:09:12,857 --> 00:09:15,977 Pode fazer-se muito dinheiro com a injustiça. 198 00:09:17,127 --> 00:09:20,496 Além disso, nós não somos agentes económicos racionais. 199 00:09:21,031 --> 00:09:22,323 Somos todos tendenciosos. 200 00:09:22,960 --> 00:09:26,337 Somos racistas e intolerantes em proporções horríveis, 201 00:09:26,361 --> 00:09:28,380 em proporções que nem nós sabemos. 202 00:09:29,352 --> 00:09:32,433 Mas sabemos que isto acontece em níveis agregados, 203 00:09:32,457 --> 00:09:35,501 porque os sociólogos têm vindo a demonstrá-lo, 204 00:09:35,501 --> 00:09:37,160 através de experiências, 205 00:09:37,160 --> 00:09:39,892 em que se enviam vários currículos em resposta a anúncios, 206 00:09:39,892 --> 00:09:42,583 igualmente qualificados, mas alguns com nomes caucasianos 207 00:09:42,583 --> 00:09:44,213 e outros com nomes de raça negra, 208 00:09:44,237 --> 00:09:46,931 e os resultados são sempre desconcertantes... Sempre! 209 00:09:47,510 --> 00:09:49,281 Somos nós que somos tendenciosos 210 00:09:49,305 --> 00:09:52,734 e estamos a colocar esses preconceitos nos algoritmos, 211 00:09:52,758 --> 00:09:54,570 ao escolhermos os dados, 212 00:09:54,594 --> 00:09:57,337 tal como eu decidi em relação aos "noodles" 213 00:09:57,361 --> 00:09:58,986 — decidi que eram irrelevantes. 214 00:09:59,010 --> 00:10:04,694 Mas, ao confiarmos em dados que têm, por base, acontecimentos passados 215 00:10:04,718 --> 00:10:06,732 e ao escolhermos a definição de sucesso, 216 00:10:06,756 --> 00:10:10,739 como é que podemos esperar que os algoritmos saiam ilesos? 217 00:10:10,763 --> 00:10:13,119 Não podemos. Temos de os verificar. 218 00:10:14,165 --> 00:10:15,874 Temos de ver o nível de justiça. 219 00:10:15,898 --> 00:10:18,609 A boa notícia é que podemos fazer isso. 220 00:10:18,633 --> 00:10:21,985 Os algoritmos podem ser questionados 221 00:10:22,009 --> 00:10:24,043 e as respostas são sempre verdadeiras. 222 00:10:24,067 --> 00:10:26,560 Podemos corrigi-los. Podemos torná-los melhores. 223 00:10:26,584 --> 00:10:28,959 Posso chamar-lhe "auditoria algorítmica" 224 00:10:28,983 --> 00:10:30,662 e explico-vos em que consiste. 225 00:10:30,686 --> 00:10:32,882 Primeiro, verificar a integridade dos dados. 226 00:10:34,132 --> 00:10:36,789 Em relação ao risco de reincidência de que já vos falei, 227 00:10:37,582 --> 00:10:41,155 verificar a integridade dos dados significa que concordamos com o facto 228 00:10:41,179 --> 00:10:44,705 de que, nos EUA, tanto os brancos como os negros fumam erva, 229 00:10:44,709 --> 00:10:47,214 mas os negros têm maior probabilidade de ser detidos 230 00:10:47,238 --> 00:10:50,422 — quatro ou cinco vezes mais probabilidades, dependendo da zona. 231 00:10:51,317 --> 00:10:54,143 Como é que se comporta esta tendência, noutros crimes 232 00:10:54,167 --> 00:10:55,618 e como é que lidamos com isso? 233 00:10:56,162 --> 00:10:59,201 Segundo, devemos pensar na definição de sucesso, 234 00:10:59,225 --> 00:11:00,606 rever esse conceito. 235 00:11:00,630 --> 00:11:03,382 Lembrem-se do algoritmo de contratação de que já falámos. 236 00:11:03,386 --> 00:11:06,651 Alguém que fica na empresa durante quatro anos e é promovido uma vez? 237 00:11:06,651 --> 00:11:08,364 É um trabalhador bem-sucedido, 238 00:11:08,388 --> 00:11:11,467 mas também é alguém que apoia a cultura da empresa. 239 00:11:11,929 --> 00:11:13,979 Assim, vemos que também é muito tendencioso. 240 00:11:13,979 --> 00:11:16,104 É necessário separar estas duas coisas. 241 00:11:16,128 --> 00:11:17,944 Tomemos como exemplo 242 00:11:17,968 --> 00:11:19,774 uma audição às cegas de uma orquestra 243 00:11:19,798 --> 00:11:22,794 As pessoas que fazem a audição escondem-se atrás duma cortina. 244 00:11:22,946 --> 00:11:24,877 O que é importante reter 245 00:11:24,901 --> 00:11:28,318 é que as pessoas que estão a ouvir decidiram o que é importante 246 00:11:28,342 --> 00:11:30,371 e o que não é importante, 247 00:11:30,395 --> 00:11:32,454 e não se deixam distrair. 248 00:11:32,961 --> 00:11:35,710 Quando as audições às cegas começaram, 249 00:11:35,734 --> 00:11:39,178 o número de mulheres em orquestras aumentou cinco vezes. 250 00:11:40,253 --> 00:11:42,268 Em seguida, temos de considerar a precisão. 251 00:11:43,233 --> 00:11:46,967 É aqui que falharia o "modelo de valor acrescentado" dos professores. 252 00:11:47,578 --> 00:11:49,740 Claro que nenhum algoritmo é perfeito, 253 00:11:50,620 --> 00:11:54,225 é por isso que temos de considerar os erros de cada um. 254 00:11:54,836 --> 00:11:59,195 Com que frequência existem erros e com quem é que este modelo falha? 255 00:11:59,850 --> 00:12:01,568 Qual é o custo desta falha? 256 00:12:02,434 --> 00:12:04,641 Por último, temos de considerar 257 00:12:05,973 --> 00:12:08,159 os efeitos a longo prazo dos algoritmos, 258 00:12:08,866 --> 00:12:11,073 o "feedback" que está programado. 259 00:12:11,586 --> 00:12:12,822 Isto parece abstrato, 260 00:12:12,846 --> 00:12:15,510 mas imaginem se os engenheiros do Facebook consideravam 261 00:12:16,270 --> 00:12:21,125 mostrar-nos apenas o que os nossos amigos publicam. 262 00:12:21,761 --> 00:12:24,995 Tenho mais duas mensagens, uma delas para os cientistas de dados. 263 00:12:25,450 --> 00:12:28,859 Cientistas de dados: nós não devemos ser os árbitros da verdade. 264 00:12:29,520 --> 00:12:32,453 Devemos ser tradutores de discussões éticas 265 00:12:32,477 --> 00:12:34,881 que acontecem em sociedades mais amplas. 266 00:12:35,579 --> 00:12:37,712 (Aplausos) 267 00:12:37,736 --> 00:12:39,292 E aos restantes, 268 00:12:39,841 --> 00:12:41,617 aos que não são cientistas de dados: 269 00:12:41,651 --> 00:12:43,369 isto não é um teste matemático. 270 00:12:43,632 --> 00:12:45,170 É uma luta política. 271 00:12:46,587 --> 00:12:50,494 Precisamos de exigir a responsabilização dos soberanos dos nossos algoritmos. 272 00:12:52,118 --> 00:12:53,617 (Aplausos) 273 00:12:53,641 --> 00:12:57,866 A era da fé cega nos "big data" tem de acabar. 274 00:12:57,890 --> 00:12:59,057 Muito obrigada. 275 00:12:59,081 --> 00:13:04,384 (Aplausos)