1 00:00:01,567 --> 00:00:04,880 Comecei a trabalhar como programadora informática 2 00:00:04,913 --> 00:00:07,126 no meu primeiro ano de faculdade 3 00:00:07,160 --> 00:00:08,829 — basicamente uma adolescente. 4 00:00:08,889 --> 00:00:10,840 Pouco depois de começar a trabalhar, 5 00:00:10,892 --> 00:00:12,750 a programar software numa empresa. 6 00:00:12,799 --> 00:00:16,434 um gestor que trabalhava na empresa 7 00:00:16,458 --> 00:00:18,154 veio ter comigo e segredou-me: 8 00:00:18,229 --> 00:00:21,251 "Ele consegue saber se eu estou a mentir?" 9 00:00:21,806 --> 00:00:24,149 Não havia mais ninguém na sala. 10 00:00:25,032 --> 00:00:29,706 "Quem poderá saber que você está a mentir? Porque é que está a segredar?" 11 00:00:30,266 --> 00:00:33,373 O gestor apontou para o computador na sala. 12 00:00:33,482 --> 00:00:36,978 "Ele consegue saber se eu estou a mentir?" 13 00:00:38,517 --> 00:00:41,975 Aquele gestor tinha um caso romântico com a rececionista. 14 00:00:42,103 --> 00:00:43,311 (Risos) 15 00:00:43,335 --> 00:00:45,119 Eu ainda era uma adolescente. 16 00:00:45,447 --> 00:00:47,570 Por isso, sussurrei-gritei: 17 00:00:47,690 --> 00:00:51,114 "Sim, o computador sabe que você está a mentir." 18 00:00:51,242 --> 00:00:52,877 (Risos) 19 00:00:52,968 --> 00:00:55,995 Bem, eu ri-me, mas, na verdade, hoje riem-se de mim. 20 00:00:56,760 --> 00:00:59,344 Hoje em dia, há sistemas informáticos 21 00:00:59,407 --> 00:01:02,955 que conseguem detetar estados emocionais e mesmo a mentira 22 00:01:02,998 --> 00:01:05,145 processando apenas os rostos humanos. 23 00:01:05,248 --> 00:01:09,724 Os publicitários e mesmo os governos estão muito interessados nesta tecnologia. 24 00:01:10,319 --> 00:01:12,342 Tornei-me programadora informática 25 00:01:12,385 --> 00:01:15,394 porque era uma criança louca por matemática e ciências. 26 00:01:15,942 --> 00:01:19,145 Mas, ao longo do caminho descobri as armas nucleares 27 00:01:19,197 --> 00:01:22,026 e fiquei muito preocupada com a ética da ciência. 28 00:01:22,056 --> 00:01:23,454 Fiquei perturbada. 29 00:01:23,487 --> 00:01:26,176 No entanto, devido a circunstâncias familiares, 30 00:01:26,219 --> 00:01:29,241 também precisava de começar a trabalhar o mais cedo possível. 31 00:01:29,369 --> 00:01:32,602 Então pensei: "Bem, vou escolher uma área técnica 32 00:01:32,654 --> 00:01:34,603 "onde facilmente consiga um emprego 33 00:01:34,646 --> 00:01:38,702 "e onde não tenha que lidar com essas questões incómodas da ética". 34 00:01:39,022 --> 00:01:40,665 Escolhi a informática. 35 00:01:40,746 --> 00:01:41,917 (Risos) 36 00:01:41,960 --> 00:01:45,460 Bem, ha, ha, ha! Riam-se todos de mim. 37 00:01:45,551 --> 00:01:48,614 Hoje, os cientistas de informática estão a construir plataformas 38 00:01:48,643 --> 00:01:52,390 que controlam o que mil milhões de pessoas veem todos os dias. 39 00:01:53,052 --> 00:01:57,102 Estão a desenvolver carros que podem decidir quem atropelar. 40 00:01:57,707 --> 00:02:01,309 Estão inclusive a construir máquinas, armas, 41 00:02:01,360 --> 00:02:03,448 que poderão matar seres humanos, em guerras. 42 00:02:03,519 --> 00:02:06,166 Há ética por todo o lado. 43 00:02:07,183 --> 00:02:09,517 A inteligência artificial já chegou. 44 00:02:09,823 --> 00:02:13,297 Estamos a usar a informática para tomar todo o tipo de decisões, 45 00:02:13,321 --> 00:02:15,378 mas também novos tipos de decisões. 46 00:02:15,440 --> 00:02:20,403 Estamos a fazer perguntas que não têm uma resposta certa, 47 00:02:20,427 --> 00:02:21,829 que são subjetivas, 48 00:02:21,876 --> 00:02:24,216 estão em aberto e assentam em valores. 49 00:02:24,259 --> 00:02:25,950 Fazemos perguntas como: 50 00:02:26,220 --> 00:02:28,134 "Quem é que a empresa deve contratar?" 51 00:02:28,219 --> 00:02:30,635 "Que notícias de que amigo devemos mostrar?" 52 00:02:30,900 --> 00:02:33,487 "Qual o prisioneiro que reincidirá mais facilmente?"" 53 00:02:33,514 --> 00:02:36,568 "Que notícia ou filme deve ser recomendado?" 54 00:02:36,839 --> 00:02:39,964 Sim, já utilizamos os computadores há algum tempo, 55 00:02:39,988 --> 00:02:41,638 mas isto é diferente. 56 00:02:41,671 --> 00:02:43,719 Esta é uma mudança histórica, 57 00:02:43,762 --> 00:02:46,838 porque não podemos apoiar-nos na informática 58 00:02:46,876 --> 00:02:49,133 para decisões tão subjetivas, 59 00:02:49,171 --> 00:02:51,567 do mesmo modo que podemos apoiar-nos na informática 60 00:02:51,625 --> 00:02:54,691 para pôr aviões no ar, para construir pontes, 61 00:02:54,710 --> 00:02:56,360 para voar até à lua. 62 00:02:56,449 --> 00:02:59,708 Os aviões são mais seguros? Será que a ponte vai balançar e cair? 63 00:02:59,827 --> 00:03:04,325 Nestes casos, chegámos a acordo sobre referências bastante claras, 64 00:03:04,358 --> 00:03:06,721 tendo as leis da natureza para nos guiar. 65 00:03:06,774 --> 00:03:10,530 Não temos esses apoios e referências 66 00:03:10,569 --> 00:03:14,590 para as decisões sobre os complexos assuntos humanos. 67 00:03:14,531 --> 00:03:18,254 Para complicar ainda mais, o software está cada vez mais poderoso, 68 00:03:18,306 --> 00:03:21,956 mas também está a ficar menos transparente e mais complexo. 69 00:03:22,542 --> 00:03:24,743 Recentemente, na última década, 70 00:03:24,815 --> 00:03:27,335 os algoritmos complexos alcançaram grandes feitos. 71 00:03:27,492 --> 00:03:29,625 Conseguem reconhecer rostos humanos. 72 00:03:29,985 --> 00:03:32,259 Podem decifrar a caligrafia. 73 00:03:32,436 --> 00:03:35,711 Detetam fraudes de cartões de crédito e bloqueiam "spam". 74 00:03:35,758 --> 00:03:37,776 Conseguem traduzir idiomas. 75 00:03:37,800 --> 00:03:40,374 Conseguem detetar tumores em imagens médicas. 76 00:03:40,398 --> 00:03:42,869 Vencem os humanos no xadrez e no "Go". 77 00:03:43,264 --> 00:03:45,622 Grande parte deste progresso obteve-se 78 00:03:45,679 --> 00:03:48,175 com o método chamado "aprendizagem de máquina." 79 00:03:48,289 --> 00:03:51,590 A "aprendizagem de máquina" é diferente da programação tradicional, 80 00:03:51,638 --> 00:03:55,275 na qual se dá ao computador instruções detalhadas, meticulosas e exatas. 81 00:03:55,378 --> 00:03:59,607 Com este novo método, disponibilizam-se grandes quantidades de dados ao sistema, 82 00:03:59,650 --> 00:04:01,459 — incluindo dados não estruturados, 83 00:04:01,483 --> 00:04:03,761 como os que geramos na nossa vida digital. 84 00:04:03,794 --> 00:04:06,457 O sistema aprende analisando esses dados. 85 00:04:06,669 --> 00:04:08,328 Para além disso, 86 00:04:08,380 --> 00:04:12,599 estes sistemas não funcionam sob uma lógica de resposta única. 87 00:04:12,746 --> 00:04:15,820 Não produzem uma resposta única; é mais probabilista: 88 00:04:15,882 --> 00:04:19,327 "Isto, provavelmente, está mais próximo do que procura." 89 00:04:20,118 --> 00:04:23,640 A vantagem é que este método é muito poderoso. 90 00:04:23,117 --> 00:04:25,754 O chefe de sistemas da IA do Google, chamou-lhe: 91 00:04:25,850 --> 00:04:27,709 "A eficácia irracional dos dados". 92 00:04:27,791 --> 00:04:29,534 A desvantagem é que 93 00:04:29,738 --> 00:04:32,809 não entendemos concretamente o que o sistema aprendeu. 94 00:04:32,833 --> 00:04:34,705 Na verdade, é essa a sua força. 95 00:04:34,946 --> 00:04:38,972 É menos como dar instruções ao computador 96 00:04:39,238 --> 00:04:43,416 e mais como treinar um filhote de máquina-criatura 97 00:04:43,506 --> 00:04:45,849 que não entendemos nem controlamos. 98 00:04:46,362 --> 00:04:48,236 Portanto, este é o problema. 99 00:04:48,427 --> 00:04:52,517 É problemático quando a IA compreende mal as coisas. 100 00:04:52,713 --> 00:04:56,491 É também um problema quando as compreende bem, 101 00:04:56,524 --> 00:05:00,200 porque nem sabemos o que é o quê quando se trata de um problema subjetivo. 102 00:05:00,262 --> 00:05:02,829 Nós não sabemos o que a máquina está a pensar. 103 00:05:03,493 --> 00:05:07,356 Assim, considerem um algoritmo de contratação 104 00:05:08,123 --> 00:05:12,557 — um sistema usado para contratar pessoas, utilizando a aprendizagem de máquina. 105 00:05:13,052 --> 00:05:16,631 Tal sistema teria sido treinado com dados dos empregados anteriores 106 00:05:16,655 --> 00:05:19,569 e instruído para encontrar e contratar pessoas 107 00:05:19,607 --> 00:05:22,546 semelhantes aos melhores profissionais da empresa. 108 00:05:22,814 --> 00:05:23,866 Parece bem. 109 00:05:24,190 --> 00:05:26,161 Uma vez, fui a uma conferência 110 00:05:26,194 --> 00:05:29,073 que juntou gestores de recursos humanos e executivos. 111 00:05:29,088 --> 00:05:31,959 Pessoas de alto nível, que usam esses sistemas para contratar 112 00:05:31,995 --> 00:05:33,850 Estavam super entusiasmados, 113 00:05:33,893 --> 00:05:38,403 Achavam que isto tornaria a contratação mais objetiva, menos tendenciosa, 114 00:05:38,437 --> 00:05:41,323 e daria mais hipóteses às mulheres e minorias, 115 00:05:41,347 --> 00:05:43,706 ao contrário dos gestores de RH tendenciosos. 116 00:05:43,749 --> 00:05:46,630 Notem, a contratação humana é tendenciosa. 117 00:05:47,099 --> 00:05:48,407 Eu bem sei. 118 00:05:48,536 --> 00:05:51,551 Num dos meus primeiros empregos como programadora, 119 00:05:51,632 --> 00:05:55,357 a minha chefe imediata, às vezes vinha ter comigo, 120 00:05:55,400 --> 00:05:58,982 muito cedo de manhã ou muito ao final da tarde, 121 00:05:59,006 --> 00:06:02,068 e dizia: "Zeynep, vamos almoçar!" 122 00:06:02,724 --> 00:06:05,110 Eu ficava intrigada com aquele horário estranho. 123 00:06:05,162 --> 00:06:07,253 São 16 horas. Almoço? 124 00:06:07,296 --> 00:06:10,457 Como estava sem dinheiro — almoço grátis — aceitava sempre. 125 00:06:10,618 --> 00:06:12,799 Mais tarde percebi porquê: 126 00:06:12,880 --> 00:06:17,255 Os meus chefes diretos não tinham informado os superiores 127 00:06:17,279 --> 00:06:19,802 que o programador contratado para um trabalho sério 128 00:06:19,802 --> 00:06:21,619 era uma garota adolescente 129 00:06:21,619 --> 00:06:24,812 que usava "jeans" e ténis para trabalhar. 130 00:06:24,888 --> 00:06:27,804 Eu fazia um bom trabalho, mas tinha um aspeto não convencional 131 00:06:27,861 --> 00:06:29,527 e tinha a idade e sexo errados. 132 00:06:29,575 --> 00:06:32,659 Logo, contratar sem olhar ao sexo e à etnia 133 00:06:32,693 --> 00:06:34,796 claro que me soa bem. 134 00:06:35,031 --> 00:06:38,581 Mas com estes sistemas, é mais complicado. E porquê? 135 00:06:38,968 --> 00:06:41,602 Atualmente, os sistemas informáticos 136 00:06:41,640 --> 00:06:44,783 conseguem inferir todo o tipo de coisas sobre a pessoa 137 00:06:44,783 --> 00:06:46,778 a partir das suas migalhas digitais, 138 00:06:46,821 --> 00:06:49,421 mesmo que a pessoa não tenha divulgado essas coisas. 139 00:06:49,506 --> 00:06:52,661 Conseguem inferir a sua orientação sexual, 140 00:06:52,994 --> 00:06:54,709 os seus traços de personalidade, 141 00:06:54,859 --> 00:06:56,612 as inclinações políticas. 142 00:06:56,830 --> 00:07:00,515 Conseguem prever com elevados níveis de precisão. 143 00:07:01,362 --> 00:07:04,187 Notem... coisas que nem sequer divulgámos conscientemente. 144 00:07:04,230 --> 00:07:05,745 Isto é dedução. 145 00:07:05,798 --> 00:07:08,887 Tenho uma amiga que desenvolveu esses sistemas informáticos, 146 00:07:08,940 --> 00:07:12,571 para prever a probabilidade de depressão clínica ou pós-parto 147 00:07:12,633 --> 00:07:14,592 a partir de dados de redes sociais. 148 00:07:14,676 --> 00:07:16,464 Os resultados são impressionantes. 149 00:07:16,492 --> 00:07:19,849 O sistema consegue prever a probabilidade de depressão 150 00:07:19,873 --> 00:07:23,776 meses antes do início de quaisquer sintomas 151 00:07:23,800 --> 00:07:25,173 — meses antes. 152 00:07:25,368 --> 00:07:27,452 Não há sintomas. Há previsão. 153 00:07:27,828 --> 00:07:32,602 Ela espera que isso seja usado para intervenção precoce. Ótimo! 154 00:07:32,911 --> 00:07:35,627 Mas agora coloquem isto no contexto da contratação. 155 00:07:36,027 --> 00:07:39,196 Na conferência de gestores de recursos humanos, 156 00:07:39,277 --> 00:07:44,691 aproximei-me de uma gestora de alto nível de uma grande empresa e disse-lhe: 157 00:07:45,172 --> 00:07:48,550 "O que acha se, sem o seu conhecimento, 158 00:07:48,603 --> 00:07:55,181 "o seu sistema estiver a excluir pessoas com alto risco de futura depressão? 159 00:07:55,761 --> 00:07:59,546 "Não estão deprimidas agora, mas talvez no futuro, seja mais provável. 160 00:07:59,923 --> 00:08:03,443 "E se está a excluir as mulheres com maior probabilidade de engravidar 161 00:08:03,486 --> 00:08:06,596 "dentro de um ou dois anos mas que não estão grávidas agora? 162 00:08:06,844 --> 00:08:12,527 "E se está a contratar pessoas agressivas porque essa é a cultura da empresa? 163 00:08:12,982 --> 00:08:15,937 "Não nos apercebemos disso olhando par a repartição por sexos. 164 00:08:15,937 --> 00:08:17,728 Aí até pode estar equilibrado. 165 00:08:17,766 --> 00:08:21,180 Como isto é aprendizagem de máquina, e não codificação tradicional, 166 00:08:21,204 --> 00:08:25,787 não há lá nenhuma variável intitulada "maior risco de depressão", 167 00:08:25,859 --> 00:08:27,873 "maior risco de gravidez", 168 00:08:27,906 --> 00:08:29,831 "escala de agressividade". 169 00:08:29,995 --> 00:08:33,578 Não só não se sabe o que é que o sistema está a selecionar, 170 00:08:33,698 --> 00:08:36,020 como não se sabe por onde começar a procurar. 171 00:08:36,110 --> 00:08:37,595 É uma caixa preta. 172 00:08:37,648 --> 00:08:40,416 Tem poder preditivo, mas não conseguimos entendê-la. 173 00:08:40,486 --> 00:08:43,640 "Que garantia você tem", perguntei, 174 00:08:43,970 --> 00:08:46,780 "de que a sua caixa negra não está a fazer algo sombrio?" 175 00:08:48,863 --> 00:08:52,683 Ela olhou para mim como se eu a tivesse ofendido. 176 00:08:52,765 --> 00:08:54,013 (Risos) 177 00:08:54,037 --> 00:08:56,335 Olhou para mim e disse: 178 00:08:56,556 --> 00:09:00,936 "Não quero ouvir nem mais uma palavra sobre isso." 179 00:09:01,308 --> 00:09:03,862 Virou-me as costas e foi-se embora. 180 00:09:04,064 --> 00:09:06,692 Ela não foi indelicada. Foi claramente: 181 00:09:06,840 --> 00:09:11,882 "O que eu não sei, não é problema meu. Desapareça." Olhar de morte. 182 00:09:12,153 --> 00:09:13,399 (Risos) 183 00:09:13,862 --> 00:09:17,701 Notem que estes sistemas podem ser menos tendenciosos 184 00:09:17,725 --> 00:09:19,923 do que os gestores humanos, nalguns aspetos. 185 00:09:19,975 --> 00:09:22,435 E isso pode fazer sentido economicamente. 186 00:09:22,573 --> 00:09:24,489 Mas também pode levar 187 00:09:24,537 --> 00:09:28,995 ao fecho constante mas furtivo do mercado de trabalho 188 00:09:29,019 --> 00:09:31,512 para as pessoas com maior risco de depressão. 189 00:09:31,753 --> 00:09:34,349 Será este o tipo de sociedade que queremos construir, 190 00:09:34,373 --> 00:09:36,658 sem sequer saber que o fizemos, 191 00:09:36,682 --> 00:09:39,331 porque demos às máquinas a tomada de decisões 192 00:09:39,331 --> 00:09:41,331 que não compreendemos totalmente? 193 00:09:41,465 --> 00:09:43,113 Outro problema é o seguinte: 194 00:09:43,314 --> 00:09:47,766 estes sistemas são treinados frequentemente com dados gerados pelas nossas ações, 195 00:09:47,790 --> 00:09:49,843 impressões humanas. 196 00:09:50,188 --> 00:09:53,996 Assim, poderão estar a refletir os nossos preconceitos. 197 00:09:54,020 --> 00:09:57,613 poderão estar a aprender os nossos preconceitos, 198 00:09:57,637 --> 00:10:00,407 a amplificá-los e a mostrá-los de novo, 199 00:10:00,416 --> 00:10:02,680 enquanto nós pensamos: 200 00:10:02,102 --> 00:10:04,942 "Estamos a ser objetivos, a informática é neutra". 201 00:10:06,314 --> 00:10:09,343 Investigadores verificaram que, no Google, 202 00:10:10,134 --> 00:10:13,263 os anúncios para empregos com salários elevados 203 00:10:13,263 --> 00:10:16,272 aparecem mais para homens do que para mulheres. 204 00:10:16,463 --> 00:10:19,780 E se procurarmos nomes de afro-americano 205 00:10:19,131 --> 00:10:23,723 encontramos mais resultados de anúncios sugerindo antecedentes criminais, 206 00:10:23,747 --> 00:10:25,733 mesmo quando não há nenhum. 207 00:10:26,693 --> 00:10:30,242 Estes preconceitos escondidos e algoritmos de caixa-negra 208 00:10:30,266 --> 00:10:34,343 que os investigadores por vezes descobrem, mas que por vezes nós não descobrimos, 209 00:10:34,396 --> 00:10:37,124 podem ter consequências capazes de mudar uma vida. 210 00:10:37,958 --> 00:10:42,231 No Wisconsin, um réu foi condenado a seis anos de prisão 211 00:10:42,274 --> 00:10:43,962 por fugir da polícia. 212 00:10:44,824 --> 00:10:46,124 Podem não saber, 213 00:10:46,186 --> 00:10:47,798 mas os algoritmos são utilizados 214 00:10:47,836 --> 00:10:50,389 para a liberdade condicional e as condenações. 215 00:10:50,484 --> 00:10:53,468 Este réu queria saber como era calculada a pontuação. 216 00:10:53,795 --> 00:10:55,679 É uma caixa preta comercial. 217 00:10:55,712 --> 00:11:00,136 A empresa recusou-se a ver o seu algoritmo questionado em tribunal aberto. 218 00:11:00,396 --> 00:11:04,313 Mas a ProPublica, uma agência de investigação sem fins lucrativos, 219 00:11:04,361 --> 00:11:07,942 auditou esse algoritmo com os dados públicos que encontrou, 220 00:11:07,992 --> 00:11:10,774 e descobriu que os resultados eram tendenciosos 221 00:11:10,822 --> 00:11:13,961 e o poder de previsão era pouco melhor que o acaso. 222 00:11:14,320 --> 00:11:18,401 E que estava a sinalizar erradamente réus negros como futuros criminosos 223 00:11:18,425 --> 00:11:22,320 duas vezes mais do que réus brancos. 224 00:11:23,891 --> 00:11:25,883 Considerem o seguinte caso: 225 00:11:26,103 --> 00:11:29,955 Esta mulher estava atrasada para ir buscar a afilhada 226 00:11:30,261 --> 00:11:32,530 a uma escola no condado de Broward, Flórida 227 00:11:32,757 --> 00:11:35,113 e corria pela rua abaixo com uma amiga. 228 00:11:35,232 --> 00:11:39,236 Avistaram uma bicicleta e uma scooter, não amarradas, numa varanda 229 00:11:39,260 --> 00:11:41,187 e, parvoíce... levaram-nas. 230 00:11:41,211 --> 00:11:43,895 Quando estavam a acelerar, apareceu uma mulher que disse: 231 00:11:43,972 --> 00:11:46,770 "Ei! Essa bicicleta é do meu filho!" 232 00:11:46,120 --> 00:11:49,204 Largaram-nas e seguiram caminho, mas acabaram por ser presas. 233 00:11:49,276 --> 00:11:52,846 Foi errado, foi uma parvoíce, mas ela só tinha 18 anos. 234 00:11:52,947 --> 00:11:55,452 Tinha alguns delitos juvenis. 235 00:11:55,808 --> 00:11:57,797 Entretanto, aquele homem 236 00:11:57,845 --> 00:12:01,112 já tinha sido preso por furto no Home Depot 237 00:12:01,159 --> 00:12:04,226 — um roubo de 85 dólares, um crime menor. 238 00:12:04,766 --> 00:12:09,734 Mas, para além disso, já tinha duas sentenças por assalto à mão armada. 239 00:12:09,955 --> 00:12:13,703 Mas o algoritmo marcou-a como de alto risco, e não a ele. 240 00:12:14,746 --> 00:12:18,343 Dois anos depois, a ProPublica verificou que ela não tinha reincidido, 241 00:12:18,358 --> 00:12:21,489 mas tinha dificuldade em conseguir um emprego, devido ao cadastro. 242 00:12:21,522 --> 00:12:23,474 Ele, por outro lado, reincidiu 243 00:12:23,508 --> 00:12:27,592 e agora está a cumprir pena de oito anos por um crime cometido mais tarde. 244 00:12:28,088 --> 00:12:31,457 Necessitamos, claramente, de auditar as nossas caixas-negras 245 00:12:31,481 --> 00:12:33,991 e não deixá-las ter este poder sem controlo. 246 00:12:34,215 --> 00:12:36,767 (Aplausos) 247 00:12:38,087 --> 00:12:42,329 As auditorias são ótimas e importantes, mas não solucionam todos os problemas. 248 00:12:42,391 --> 00:12:45,205 Considerem o poderoso algoritmo de notícias do Facebook, 249 00:12:45,258 --> 00:12:49,206 aquele que classifica e decide tudo o que vos mostram 250 00:12:49,601 --> 00:12:52,276 de todos os amigos e das páginas que vocês seguem. 251 00:12:52,898 --> 00:12:55,173 Deverão mostrar-vos outra foto de um bebé? 252 00:12:55,235 --> 00:12:56,469 (Risos) 253 00:12:56,550 --> 00:12:59,241 Uma nota mal-humorado de um conhecido? 254 00:12:59,449 --> 00:13:01,409 Uma notícia importante, mas incomodativa? 255 00:13:01,462 --> 00:13:03,100 Não há uma resposta certa. 256 00:13:03,440 --> 00:13:05,817 O Facebook otimiza para manter-vos ligado ao site: 257 00:13:05,860 --> 00:13:07,656 "likes", partilhas, comentários. 258 00:13:07,758 --> 00:13:10,864 Em agosto de 2014, 259 00:13:10,888 --> 00:13:13,550 estalaram manifestações em Ferguson, no Missouri, 260 00:13:13,574 --> 00:13:17,991 após a morte de um jovem afro-americano infligida por um polícia branco, 261 00:13:18,015 --> 00:13:19,870 em circunstâncias pouco claras. 262 00:13:19,974 --> 00:13:22,457 As notícias dos protestos apareceram de todos o lados 263 00:13:22,504 --> 00:13:25,147 na minha conta de Twitter sem filtro de algoritmos, 264 00:13:25,171 --> 00:13:27,178 mas em parte alguma no meu Facebook. 265 00:13:27,225 --> 00:13:29,154 Foram os meus amigos no Facebook? 266 00:13:29,197 --> 00:13:31,343 Desativei o algoritmo do Facebook 267 00:13:31,376 --> 00:13:34,529 — o que é difícil, pois o Facebook insiste em voltar a incluir-nos 268 00:13:34,572 --> 00:13:36,456 sob o controlo do algoritmo — 269 00:13:36,499 --> 00:13:38,775 e vi que os meus amigos falavam disso. 270 00:13:38,808 --> 00:13:41,175 O algoritmo é que não me mostrava essa informação. 271 00:13:41,199 --> 00:13:44,880 Fiz pesquisas e verifiquei que era um problema generalizado. 272 00:13:44,265 --> 00:13:47,973 A história de Ferguson não agradava ao algoritmo. 273 00:13:48,160 --> 00:13:49,530 Não era "simpática". 274 00:13:49,563 --> 00:13:51,363 Quem ia clicar em "Gosto"?" 275 00:13:51,500 --> 00:13:53,706 Nem é fácil de comentar. 276 00:13:53,730 --> 00:13:55,443 Sem "gosto" e sem comentários, 277 00:13:55,481 --> 00:13:58,417 o algoritmo, provavelmente, mostrá-la-ia a menos pessoas, 278 00:13:58,441 --> 00:14:00,459 e assim nós não a conseguimos ver. 279 00:14:00,946 --> 00:14:02,374 Em vez disso, nessa semana, 280 00:14:02,416 --> 00:14:04,696 o algoritmo do Facebook destacava isto, 281 00:14:04,739 --> 00:14:06,936 o Desafio do Balde de Água Gelada. 282 00:14:06,970 --> 00:14:10,645 Uma causa digna: despejar água gelada; doar para a caridade. Tudo bem. 283 00:14:10,697 --> 00:14:13,780 Mas, para o algoritmo, era super amigável. 284 00:14:13,219 --> 00:14:15,670 A máquina tomou essa decisão por nós. 285 00:14:15,856 --> 00:14:19,353 Uma conversa muito importante mas também difícil 286 00:14:19,377 --> 00:14:21,132 poderia ter sido abafada, 287 00:14:21,184 --> 00:14:23,985 se o Facebook fosse o único canal. 288 00:14:24,117 --> 00:14:27,914 Finalmente, estes sistemas também podem cometer erros 289 00:14:27,938 --> 00:14:30,674 diferentes dos erros dos sistemas humanos. 290 00:14:30,698 --> 00:14:33,705 Lembram-se do Watson, a máquina de IA da IBM 291 00:14:33,739 --> 00:14:36,972 que eliminou os concorrentes humanos no Jeopardy? 292 00:14:37,131 --> 00:14:38,711 Foi um grande jogador. 293 00:14:38,754 --> 00:14:42,152 Mas depois, na final do Jeopardy, quando perguntaram ao Watson: 294 00:14:42,535 --> 00:14:45,591 "O maior aeroporto com o nome de um herói da II Guerra Mundial, 295 00:14:45,615 --> 00:14:48,819 "o segundo maior com o nome de uma batalha da II Guerra Mundial." 296 00:14:49,705 --> 00:14:50,897 Chicago. 297 00:14:50,968 --> 00:14:52,596 Os dois seres humanos acertaram. 298 00:14:52,697 --> 00:14:56,873 Watson, por outro lado, respondeu "Toronto" 299 00:14:57,069 --> 00:14:59,467 — para uma pergunta sobre cidades dos EUA! 300 00:14:59,596 --> 00:15:02,649 O impressionante sistema também cometeu um erro 301 00:15:02,711 --> 00:15:06,591 que um ser humano nunca iria fazer, que uma criança do 1.º ciclo não faria. 302 00:15:06,823 --> 00:15:09,951 A inteligência artificial pode falhar 303 00:15:09,975 --> 00:15:13,246 de formas que não se encaixam nos padrões de erro dos seres humanos. 304 00:15:13,289 --> 00:15:16,030 de formas inesperadas e imprevistas. 305 00:15:16,158 --> 00:15:19,692 Seria péssimo não conseguir um emprego para o qual estamos qualificados, 306 00:15:19,716 --> 00:15:23,443 mas seria três vezes pior se fosse por causa de um erro 307 00:15:23,467 --> 00:15:25,422 de processamento de alguma sub-rotina. 308 00:15:25,475 --> 00:15:26,692 (Risos) 309 00:15:26,754 --> 00:15:29,312 Em maio de 2010, 310 00:15:29,336 --> 00:15:33,560 um acidente relâmpago em Wall Street provocado por uma auto alimentação 311 00:15:33,623 --> 00:15:36,593 no algoritmo de "vender", em Wall Street, 312 00:15:36,627 --> 00:15:40,840 fez perder um bilião de dólares em 36 minutos. 313 00:15:41,722 --> 00:15:44,800 Eu nem quero pensar o que significa "erro" 314 00:15:44,123 --> 00:15:47,645 no contexto de armas mortais autónomas. 315 00:15:49,894 --> 00:15:53,684 Sim. Os seres humanos sempre alimentaram preconceitos. 316 00:15:53,708 --> 00:15:55,960 Quem toma decisões e controla 317 00:15:56,300 --> 00:16:00,277 nos tribunais, nas notícias, na guerra ... comete erros. 318 00:16:00,358 --> 00:16:02,624 É esse exatamente o meu ponto. 319 00:16:02,687 --> 00:16:06,188 Nós não podemos fugir destas perguntas difíceis. 320 00:16:06,596 --> 00:16:10,188 Não podemos atribuir as nossas responsabilidades às máquinas. 321 00:16:11,247 --> 00:16:14,398 (Aplausos) 322 00:16:17,089 --> 00:16:21,536 A inteligência artificial não nos dá um cartão "Liberte-se da ética". 323 00:16:22,742 --> 00:16:26,123 O cientista de dados Fred Benenson chama-lhe "lavagem de matemática". 324 00:16:26,147 --> 00:16:27,840 Precisamos é do oposto. 325 00:16:27,912 --> 00:16:32,995 Temos de cultivar algoritmos de suspeita, de análise e de investigação. 326 00:16:33,265 --> 00:16:36,787 Precisamos de garantir que assumimos a responsabilidade dos algoritmos, 327 00:16:36,830 --> 00:16:39,199 da auditoria e da transparência relevante. 328 00:16:39,380 --> 00:16:42,775 Precisamos de aceitar que trazer a matemática e a informática 329 00:16:42,780 --> 00:16:45,750 para os assuntos humanos, complicados e carregados de valores, 330 00:16:45,793 --> 00:16:48,016 não nos dá objetividade. 331 00:16:48,201 --> 00:16:51,891 Em vez disso, a complexidade dos assuntos humanos invade os algoritmos. 332 00:16:52,148 --> 00:16:55,635 Sim, podemos e devemos usar a informática 333 00:16:55,659 --> 00:16:57,758 para nos ajudar a tomar melhores decisões. 334 00:16:57,830 --> 00:17:03,029 Mas temos que assumir a responsabilidade moral do julgamento. 335 00:17:03,053 --> 00:17:05,871 e usar os algoritmos nesse âmbito, 336 00:17:05,895 --> 00:17:10,829 não como um meio para abdicar e subcontratar a nossa responsabilidade 337 00:17:10,854 --> 00:17:13,479 de ser humano para ser humano. 338 00:17:13,807 --> 00:17:16,415 A inteligência artificial já chegou. 339 00:17:16,440 --> 00:17:19,861 O que significa que mais que nunca temos de nos agarrar afincadamente 340 00:17:19,885 --> 00:17:22,031 aos valores e à ética humana. 341 00:17:22,151 --> 00:17:23,286 Obrigada. 342 00:17:23,356 --> 00:17:26,453 (Aplausos)