WEBVTT 00:00:01.567 --> 00:00:04.880 Comecei a trabalhar como programadora informática 00:00:04.913 --> 00:00:07.126 no meu primeiro ano de faculdade 00:00:07.160 --> 00:00:08.829 — basicamente uma adolescente. 00:00:08.889 --> 00:00:10.840 Pouco depois de começar a trabalhar, 00:00:10.892 --> 00:00:12.750 a programar software numa empresa. 00:00:12.799 --> 00:00:16.434 um gestor que trabalhava na empresa 00:00:16.458 --> 00:00:18.154 veio ter comigo e segredou-me: 00:00:18.229 --> 00:00:21.251 "Ele consegue saber se eu estou a mentir?" 00:00:21.806 --> 00:00:24.149 Não havia mais ninguém na sala. 00:00:25.032 --> 00:00:29.706 "Quem poderá saber que você está a mentir? Porque é que está a segredar?" 00:00:30.266 --> 00:00:33.373 O gestor apontou para o computador na sala. 00:00:33.482 --> 00:00:36.978 "Ele consegue saber se eu estou a mentir?" 00:00:38.517 --> 00:00:41.975 Aquele gestor tinha um caso romântico com a rececionista. 00:00:42.103 --> 00:00:43.311 (Risos) 00:00:43.335 --> 00:00:45.119 Eu ainda era uma adolescente. 00:00:45.447 --> 00:00:47.570 Por isso, sussurrei-gritei: 00:00:47.690 --> 00:00:51.114 "Sim, o computador sabe que você está a mentir." 00:00:51.242 --> 00:00:52.877 (Risos) 00:00:52.968 --> 00:00:55.995 Bem, eu ri-me, mas, na verdade, hoje riem-se de mim. 00:00:56.760 --> 00:00:59.344 Hoje em dia, há sistemas informáticos 00:00:59.407 --> 00:01:02.955 que conseguem detetar estados emocionais e mesmo a mentira 00:01:02.998 --> 00:01:05.145 processando apenas os rostos humanos. 00:01:05.248 --> 00:01:09.724 Os publicitários e mesmo os governos estão muito interessados nesta tecnologia. 00:01:10.319 --> 00:01:12.342 Tornei-me programadora informática 00:01:12.385 --> 00:01:15.394 porque era uma criança louca por matemática e ciências. 00:01:15.942 --> 00:01:19.145 Mas, ao longo do caminho descobri as armas nucleares 00:01:19.197 --> 00:01:22.026 e fiquei muito preocupada com a ética da ciência. 00:01:22.056 --> 00:01:23.454 Fiquei perturbada. 00:01:23.487 --> 00:01:26.176 No entanto, devido a circunstâncias familiares, 00:01:26.219 --> 00:01:29.241 também precisava de começar a trabalhar o mais cedo possível. 00:01:29.369 --> 00:01:32.602 Então pensei: "Bem, vou escolher uma área técnica 00:01:32.654 --> 00:01:34.603 "onde facilmente consiga um emprego 00:01:34.646 --> 00:01:38.702 "e onde não tenha que lidar com essas questões incómodas da ética". 00:01:39.022 --> 00:01:40.665 Escolhi a informática. 00:01:40.746 --> 00:01:41.917 (Risos) 00:01:41.960 --> 00:01:45.460 Bem, ha, ha, ha! Riam-se todos de mim. 00:01:45.551 --> 00:01:48.614 Hoje, os cientistas de informática estão a construir plataformas 00:01:48.643 --> 00:01:52.390 que controlam o que mil milhões de pessoas veem todos os dias. 00:01:53.052 --> 00:01:57.102 Estão a desenvolver carros que podem decidir quem atropelar. 00:01:57.707 --> 00:02:01.309 Estão inclusive a construir máquinas, armas, 00:02:01.360 --> 00:02:03.448 que poderão matar seres humanos, em guerras. 00:02:03.519 --> 00:02:06.166 Há ética por todo o lado. 00:02:07.183 --> 00:02:09.517 A inteligência artificial já chegou. 00:02:09.823 --> 00:02:13.297 Estamos a usar a informática para tomar todo o tipo de decisões, 00:02:13.321 --> 00:02:15.378 mas também novos tipos de decisões. 00:02:15.440 --> 00:02:20.403 Estamos a fazer perguntas que não têm uma resposta certa, 00:02:20.427 --> 00:02:21.829 que são subjetivas, 00:02:21.876 --> 00:02:24.216 estão em aberto e assentam em valores. 00:02:24.259 --> 00:02:25.950 Fazemos perguntas como: 00:02:26.220 --> 00:02:28.134 "Quem é que a empresa deve contratar?" 00:02:28.219 --> 00:02:30.635 "Que notícias de que amigo devemos mostrar?" 00:02:30.900 --> 00:02:33.487 "Qual o prisioneiro que reincidirá mais facilmente?"" 00:02:33.514 --> 00:02:36.568 "Que notícia ou filme deve ser recomendado?" 00:02:36.839 --> 00:02:39.964 Sim, já utilizamos os computadores há algum tempo, 00:02:39.988 --> 00:02:41.638 mas isto é diferente. 00:02:41.671 --> 00:02:43.719 Esta é uma mudança histórica, 00:02:43.762 --> 00:02:46.838 porque não podemos apoiar-nos na informática 00:02:46.876 --> 00:02:49.133 para decisões tão subjetivas, 00:02:49.171 --> 00:02:51.567 do mesmo modo que podemos apoiar-nos na informática 00:02:51.625 --> 00:02:54.691 para pôr aviões no ar, para construir pontes, 00:02:54.710 --> 00:02:56.360 para voar até à lua. 00:02:56.449 --> 00:02:59.708 Os aviões são mais seguros? Será que a ponte vai balançar e cair? 00:02:59.827 --> 00:03:04.325 Nestes casos, chegámos a acordo sobre referências bastante claras, 00:03:04.358 --> 00:03:06.721 tendo as leis da natureza para nos guiar. 00:03:06.774 --> 00:03:10.530 Não temos esses apoios e referências 00:03:10.569 --> 00:03:14.590 para as decisões sobre os complexos assuntos humanos. 00:03:14.531 --> 00:03:18.254 Para complicar ainda mais, o software está cada vez mais poderoso, 00:03:18.306 --> 00:03:21.956 mas também está a ficar menos transparente e mais complexo. 00:03:22.542 --> 00:03:24.743 Recentemente, na última década, 00:03:24.815 --> 00:03:27.335 os algoritmos complexos alcançaram grandes feitos. 00:03:27.492 --> 00:03:29.625 Conseguem reconhecer rostos humanos. 00:03:29.985 --> 00:03:32.259 Podem decifrar a caligrafia. 00:03:32.436 --> 00:03:35.711 Detetam fraudes de cartões de crédito e bloqueiam "spam". 00:03:35.758 --> 00:03:37.776 Conseguem traduzir idiomas. 00:03:37.800 --> 00:03:40.374 Conseguem detetar tumores em imagens médicas. 00:03:40.398 --> 00:03:42.869 Vencem os humanos no xadrez e no "Go". 00:03:43.264 --> 00:03:45.622 Grande parte deste progresso obteve-se 00:03:45.679 --> 00:03:48.175 com o método chamado "aprendizagem de máquina." 00:03:48.289 --> 00:03:51.590 A "aprendizagem de máquina" é diferente da programação tradicional, 00:03:51.638 --> 00:03:55.275 na qual se dá ao computador instruções detalhadas, meticulosas e exatas. 00:03:55.378 --> 00:03:59.607 Com este novo método, disponibilizam-se grandes quantidades de dados ao sistema, 00:03:59.650 --> 00:04:01.459 — incluindo dados não estruturados, 00:04:01.483 --> 00:04:03.761 como os que geramos na nossa vida digital. 00:04:03.794 --> 00:04:06.457 O sistema aprende analisando esses dados. 00:04:06.669 --> 00:04:08.328 Para além disso, 00:04:08.380 --> 00:04:12.599 estes sistemas não funcionam sob uma lógica de resposta única. 00:04:12.746 --> 00:04:15.820 Não produzem uma resposta única; é mais probabilista: 00:04:15.882 --> 00:04:19.327 "Isto, provavelmente, está mais próximo do que procura." 00:04:20.118 --> 00:04:23.640 A vantagem é que este método é muito poderoso. 00:04:23.117 --> 00:04:25.754 O chefe de sistemas da IA do Google, chamou-lhe: 00:04:25.850 --> 00:04:27.709 "A eficácia irracional dos dados". 00:04:27.791 --> 00:04:29.534 A desvantagem é que 00:04:29.738 --> 00:04:32.809 não entendemos concretamente o que o sistema aprendeu. 00:04:32.833 --> 00:04:34.705 Na verdade, é essa a sua força. 00:04:34.946 --> 00:04:38.972 É menos como dar instruções ao computador 00:04:39.238 --> 00:04:43.416 e mais como treinar um filhote de máquina-criatura 00:04:43.506 --> 00:04:45.849 que não entendemos nem controlamos. 00:04:46.362 --> 00:04:48.236 Portanto, este é o problema. 00:04:48.427 --> 00:04:52.517 É problemático quando a IA compreende mal as coisas. 00:04:52.713 --> 00:04:56.491 É também um problema quando as compreende bem, 00:04:56.524 --> 00:05:00.200 porque nem sabemos o que é o quê quando se trata de um problema subjetivo. 00:05:00.262 --> 00:05:02.829 Nós não sabemos o que a máquina está a pensar. 00:05:03.493 --> 00:05:07.356 Assim, considerem um algoritmo de contratação 00:05:08.123 --> 00:05:12.557 — um sistema usado para contratar pessoas, utilizando a aprendizagem de máquina. 00:05:13.052 --> 00:05:16.631 Tal sistema teria sido treinado com dados dos empregados anteriores 00:05:16.655 --> 00:05:19.569 e instruído para encontrar e contratar pessoas 00:05:19.607 --> 00:05:22.546 semelhantes aos melhores profissionais da empresa. 00:05:22.814 --> 00:05:23.866 Parece bem. 00:05:24.190 --> 00:05:26.161 Uma vez, fui a uma conferência 00:05:26.194 --> 00:05:29.073 que juntou gestores de recursos humanos e executivos. 00:05:29.088 --> 00:05:31.959 Pessoas de alto nível, que usam esses sistemas para contratar 00:05:31.995 --> 00:05:33.850 Estavam super entusiasmados, 00:05:33.893 --> 00:05:38.403 Achavam que isto tornaria a contratação mais objetiva, menos tendenciosa, 00:05:38.437 --> 00:05:41.323 e daria mais hipóteses às mulheres e minorias, 00:05:41.347 --> 00:05:43.706 ao contrário dos gestores de RH tendenciosos. 00:05:43.749 --> 00:05:46.630 Notem, a contratação humana é tendenciosa. 00:05:47.099 --> 00:05:48.407 Eu bem sei. 00:05:48.536 --> 00:05:51.551 Num dos meus primeiros empregos como programadora, 00:05:51.632 --> 00:05:55.357 a minha chefe imediata, às vezes vinha ter comigo, 00:05:55.400 --> 00:05:58.982 muito cedo de manhã ou muito ao final da tarde, 00:05:59.006 --> 00:06:02.068 e dizia: "Zeynep, vamos almoçar!" 00:06:02.724 --> 00:06:05.110 Eu ficava intrigada com aquele horário estranho. 00:06:05.162 --> 00:06:07.253 São 16 horas. Almoço? 00:06:07.296 --> 00:06:10.457 Como estava sem dinheiro — almoço grátis — aceitava sempre. 00:06:10.618 --> 00:06:12.799 Mais tarde percebi porquê: 00:06:12.880 --> 00:06:17.255 Os meus chefes diretos não tinham informado os superiores 00:06:17.279 --> 00:06:19.802 que o programador contratado para um trabalho sério 00:06:19.802 --> 00:06:21.619 era uma garota adolescente 00:06:21.619 --> 00:06:24.812 que usava "jeans" e ténis para trabalhar. 00:06:24.888 --> 00:06:27.804 Eu fazia um bom trabalho, mas tinha um aspeto não convencional 00:06:27.861 --> 00:06:29.527 e tinha a idade e sexo errados. 00:06:29.575 --> 00:06:32.659 Logo, contratar sem olhar ao sexo e à etnia 00:06:32.693 --> 00:06:34.796 claro que me soa bem. 00:06:35.031 --> 00:06:38.581 Mas com estes sistemas, é mais complicado. E porquê? 00:06:38.968 --> 00:06:41.602 Atualmente, os sistemas informáticos 00:06:41.640 --> 00:06:44.783 conseguem inferir todo o tipo de coisas sobre a pessoa 00:06:44.783 --> 00:06:46.778 a partir das suas migalhas digitais, 00:06:46.821 --> 00:06:49.421 mesmo que a pessoa não tenha divulgado essas coisas. 00:06:49.506 --> 00:06:52.661 Conseguem inferir a sua orientação sexual, 00:06:52.994 --> 00:06:54.709 os seus traços de personalidade, 00:06:54.859 --> 00:06:56.612 as inclinações políticas. 00:06:56.830 --> 00:07:00.515 Conseguem prever com elevados níveis de precisão. 00:07:01.362 --> 00:07:04.187 Notem... coisas que nem sequer divulgámos conscientemente. 00:07:04.230 --> 00:07:05.745 Isto é dedução. 00:07:05.798 --> 00:07:08.887 Tenho uma amiga que desenvolveu esses sistemas informáticos, 00:07:08.940 --> 00:07:12.571 para prever a probabilidade de depressão clínica ou pós-parto 00:07:12.633 --> 00:07:14.592 a partir de dados de redes sociais. 00:07:14.676 --> 00:07:16.464 Os resultados são impressionantes. 00:07:16.492 --> 00:07:19.849 O sistema consegue prever a probabilidade de depressão 00:07:19.873 --> 00:07:23.776 meses antes do início de quaisquer sintomas 00:07:23.800 --> 00:07:25.173 — meses antes. 00:07:25.368 --> 00:07:27.452 Não há sintomas. Há previsão. 00:07:27.828 --> 00:07:32.602 Ela espera que isso seja usado para intervenção precoce. Ótimo! 00:07:32.911 --> 00:07:35.627 Mas agora coloquem isto no contexto da contratação. 00:07:36.027 --> 00:07:39.196 Na conferência de gestores de recursos humanos, 00:07:39.277 --> 00:07:44.691 aproximei-me de uma gestora de alto nível de uma grande empresa e disse-lhe: 00:07:45.172 --> 00:07:48.550 "O que acha se, sem o seu conhecimento, 00:07:48.603 --> 00:07:55.181 "o seu sistema estiver a excluir pessoas com alto risco de futura depressão? 00:07:55.761 --> 00:07:59.546 "Não estão deprimidas agora, mas talvez no futuro, seja mais provável. 00:07:59.923 --> 00:08:03.443 "E se está a excluir as mulheres com maior probabilidade de engravidar 00:08:03.486 --> 00:08:06.596 "dentro de um ou dois anos mas que não estão grávidas agora? 00:08:06.844 --> 00:08:12.527 "E se está a contratar pessoas agressivas porque essa é a cultura da empresa? 00:08:12.982 --> 00:08:15.937 "Não nos apercebemos disso olhando par a repartição por sexos. 00:08:15.937 --> 00:08:17.728 Aí até pode estar equilibrado. 00:08:17.766 --> 00:08:21.180 Como isto é aprendizagem de máquina, e não codificação tradicional, 00:08:21.204 --> 00:08:25.787 não há lá nenhuma variável intitulada "maior risco de depressão", 00:08:25.859 --> 00:08:27.873 "maior risco de gravidez", 00:08:27.906 --> 00:08:29.831 "escala de agressividade". 00:08:29.995 --> 00:08:33.578 Não só não se sabe o que é que o sistema está a selecionar, 00:08:33.698 --> 00:08:36.020 como não se sabe por onde começar a procurar. 00:08:36.110 --> 00:08:37.595 É uma caixa preta. 00:08:37.648 --> 00:08:40.416 Tem poder preditivo, mas não conseguimos entendê-la. 00:08:40.486 --> 00:08:43.640 "Que garantia você tem", perguntei, 00:08:43.970 --> 00:08:46.780 "de que a sua caixa negra não está a fazer algo sombrio?" 00:08:48.863 --> 00:08:52.683 Ela olhou para mim como se eu a tivesse ofendido. 00:08:52.765 --> 00:08:54.013 (Risos) 00:08:54.037 --> 00:08:56.335 Olhou para mim e disse: 00:08:56.556 --> 00:09:00.936 "Não quero ouvir nem mais uma palavra sobre isso." 00:09:01.308 --> 00:09:03.862 Virou-me as costas e foi-se embora. 00:09:04.064 --> 00:09:06.692 Ela não foi indelicada. Foi claramente: 00:09:06.840 --> 00:09:11.882 "O que eu não sei, não é problema meu. Desapareça." Olhar de morte. 00:09:12.153 --> 00:09:13.399 (Risos) 00:09:13.862 --> 00:09:17.701 Notem que estes sistemas podem ser menos tendenciosos 00:09:17.725 --> 00:09:19.923 do que os gestores humanos, nalguns aspetos. 00:09:19.975 --> 00:09:22.435 E isso pode fazer sentido economicamente. 00:09:22.573 --> 00:09:24.489 Mas também pode levar 00:09:24.537 --> 00:09:28.995 ao fecho constante mas furtivo do mercado de trabalho 00:09:29.019 --> 00:09:31.512 para as pessoas com maior risco de depressão. 00:09:31.753 --> 00:09:34.349 Será este o tipo de sociedade que queremos construir, 00:09:34.373 --> 00:09:36.658 sem sequer saber que o fizemos, 00:09:36.682 --> 00:09:39.331 porque demos às máquinas a tomada de decisões 00:09:39.331 --> 00:09:41.331 que não compreendemos totalmente? 00:09:41.465 --> 00:09:43.113 Outro problema é o seguinte: 00:09:43.314 --> 00:09:47.766 estes sistemas são treinados frequentemente com dados gerados pelas nossas ações, 00:09:47.790 --> 00:09:49.843 impressões humanas. 00:09:50.188 --> 00:09:53.996 Assim, poderão estar a refletir os nossos preconceitos. 00:09:54.020 --> 00:09:57.613 poderão estar a aprender os nossos preconceitos, 00:09:57.637 --> 00:10:00.407 a amplificá-los e a mostrá-los de novo, 00:10:00.416 --> 00:10:02.680 enquanto nós pensamos: 00:10:02.102 --> 00:10:04.942 "Estamos a ser objetivos, a informática é neutra". 00:10:06.314 --> 00:10:09.343 Investigadores verificaram que, no Google, 00:10:10.134 --> 00:10:13.263 os anúncios para empregos com salários elevados 00:10:13.263 --> 00:10:16.272 aparecem mais para homens do que para mulheres. 00:10:16.463 --> 00:10:19.780 E se procurarmos nomes de afro-americano 00:10:19.131 --> 00:10:23.723 encontramos mais resultados de anúncios sugerindo antecedentes criminais, 00:10:23.747 --> 00:10:25.733 mesmo quando não há nenhum. 00:10:26.693 --> 00:10:30.242 Estes preconceitos escondidos e algoritmos de caixa-negra 00:10:30.266 --> 00:10:34.343 que os investigadores por vezes descobrem, mas que por vezes nós não descobrimos, 00:10:34.396 --> 00:10:37.124 podem ter consequências capazes de mudar uma vida. 00:10:37.958 --> 00:10:42.231 No Wisconsin, um réu foi condenado a seis anos de prisão 00:10:42.274 --> 00:10:43.962 por fugir da polícia. 00:10:44.824 --> 00:10:46.124 Podem não saber, 00:10:46.186 --> 00:10:47.798 mas os algoritmos são utilizados 00:10:47.836 --> 00:10:50.389 para a liberdade condicional e as condenações. 00:10:50.484 --> 00:10:53.468 Este réu queria saber como era calculada a pontuação. 00:10:53.795 --> 00:10:55.679 É uma caixa preta comercial. 00:10:55.712 --> 00:11:00.136 A empresa recusou-se a ver o seu algoritmo questionado em tribunal aberto. 00:11:00.396 --> 00:11:04.313 Mas a ProPublica, uma agência de investigação sem fins lucrativos, 00:11:04.361 --> 00:11:07.942 auditou esse algoritmo com os dados públicos que encontrou, 00:11:07.992 --> 00:11:10.774 e descobriu que os resultados eram tendenciosos 00:11:10.822 --> 00:11:13.961 e o poder de previsão era pouco melhor que o acaso. 00:11:14.320 --> 00:11:18.401 E que estava a sinalizar erradamente réus negros como futuros criminosos 00:11:18.425 --> 00:11:22.320 duas vezes mais do que réus brancos. 00:11:23.891 --> 00:11:25.883 Considerem o seguinte caso: 00:11:26.103 --> 00:11:29.955 Esta mulher estava atrasada para ir buscar a afilhada 00:11:30.261 --> 00:11:32.530 a uma escola no condado de Broward, Flórida 00:11:32.757 --> 00:11:35.113 e corria pela rua abaixo com uma amiga. 00:11:35.232 --> 00:11:39.236 Avistaram uma bicicleta e uma scooter, não amarradas, numa varanda 00:11:39.260 --> 00:11:41.187 e, parvoíce... levaram-nas. 00:11:41.211 --> 00:11:43.895 Quando estavam a acelerar, apareceu uma mulher que disse: 00:11:43.972 --> 00:11:46.770 "Ei! Essa bicicleta é do meu filho!" 00:11:46.120 --> 00:11:49.204 Largaram-nas e seguiram caminho, mas acabaram por ser presas. 00:11:49.276 --> 00:11:52.846 Foi errado, foi uma parvoíce, mas ela só tinha 18 anos. 00:11:52.947 --> 00:11:55.452 Tinha alguns delitos juvenis. 00:11:55.808 --> 00:11:57.797 Entretanto, aquele homem 00:11:57.845 --> 00:12:01.112 já tinha sido preso por furto no Home Depot 00:12:01.159 --> 00:12:04.226 — um roubo de 85 dólares, um crime menor. 00:12:04.766 --> 00:12:09.734 Mas, para além disso, já tinha duas sentenças por assalto à mão armada. 00:12:09.955 --> 00:12:13.703 Mas o algoritmo marcou-a como de alto risco, e não a ele. 00:12:14.746 --> 00:12:18.343 Dois anos depois, a ProPublica verificou que ela não tinha reincidido, 00:12:18.358 --> 00:12:21.489 mas tinha dificuldade em conseguir um emprego, devido ao cadastro. 00:12:21.522 --> 00:12:23.474 Ele, por outro lado, reincidiu 00:12:23.508 --> 00:12:27.592 e agora está a cumprir pena de oito anos por um crime cometido mais tarde. 00:12:28.088 --> 00:12:31.457 Necessitamos, claramente, de auditar as nossas caixas-negras 00:12:31.481 --> 00:12:33.991 e não deixá-las ter este poder sem controlo. 00:12:34.215 --> 00:12:36.767 (Aplausos) 00:12:38.087 --> 00:12:42.329 As auditorias são ótimas e importantes, mas não solucionam todos os problemas. 00:12:42.391 --> 00:12:45.205 Considerem o poderoso algoritmo de notícias do Facebook, 00:12:45.258 --> 00:12:49.206 aquele que classifica e decide tudo o que vos mostram 00:12:49.601 --> 00:12:52.276 de todos os amigos e das páginas que vocês seguem. 00:12:52.898 --> 00:12:55.173 Deverão mostrar-vos outra foto de um bebé? 00:12:55.235 --> 00:12:56.469 (Risos) 00:12:56.550 --> 00:12:59.241 Uma nota mal-humorado de um conhecido? 00:12:59.449 --> 00:13:01.409 Uma notícia importante, mas incomodativa? 00:13:01.462 --> 00:13:03.100 Não há uma resposta certa. 00:13:03.440 --> 00:13:05.817 O Facebook otimiza para manter-vos ligado ao site: 00:13:05.860 --> 00:13:07.656 "likes", partilhas, comentários. 00:13:07.758 --> 00:13:10.864 Em agosto de 2014, 00:13:10.888 --> 00:13:13.550 estalaram manifestações em Ferguson, no Missouri, 00:13:13.574 --> 00:13:17.991 após a morte de um jovem afro-americano infligida por um polícia branco, 00:13:18.015 --> 00:13:19.870 em circunstâncias pouco claras. 00:13:19.974 --> 00:13:22.457 As notícias dos protestos apareceram de todos o lados 00:13:22.504 --> 00:13:25.147 na minha conta de Twitter sem filtro de algoritmos, 00:13:25.171 --> 00:13:27.178 mas em parte alguma no meu Facebook. 00:13:27.225 --> 00:13:29.154 Foram os meus amigos no Facebook? 00:13:29.197 --> 00:13:31.343 Desativei o algoritmo do Facebook 00:13:31.376 --> 00:13:34.529 — o que é difícil, pois o Facebook insiste em voltar a incluir-nos 00:13:34.572 --> 00:13:36.456 sob o controlo do algoritmo — 00:13:36.499 --> 00:13:38.775 e vi que os meus amigos falavam disso. 00:13:38.808 --> 00:13:41.175 O algoritmo é que não me mostrava essa informação. 00:13:41.199 --> 00:13:44.880 Fiz pesquisas e verifiquei que era um problema generalizado. 00:13:44.265 --> 00:13:47.973 A história de Ferguson não agradava ao algoritmo. 00:13:48.160 --> 00:13:49.530 Não era "simpática". 00:13:49.563 --> 00:13:51.363 Quem ia clicar em "Gosto"?" 00:13:51.500 --> 00:13:53.706 Nem é fácil de comentar. 00:13:53.730 --> 00:13:55.443 Sem "gosto" e sem comentários, 00:13:55.481 --> 00:13:58.417 o algoritmo, provavelmente, mostrá-la-ia a menos pessoas, 00:13:58.441 --> 00:14:00.459 e assim nós não a conseguimos ver. 00:14:00.946 --> 00:14:02.374 Em vez disso, nessa semana, 00:14:02.416 --> 00:14:04.696 o algoritmo do Facebook destacava isto, 00:14:04.739 --> 00:14:06.936 o Desafio do Balde de Água Gelada. 00:14:06.970 --> 00:14:10.645 Uma causa digna: despejar água gelada; doar para a caridade. Tudo bem. 00:14:10.697 --> 00:14:13.780 Mas, para o algoritmo, era super amigável. 00:14:13.219 --> 00:14:15.670 A máquina tomou essa decisão por nós. 00:14:15.856 --> 00:14:19.353 Uma conversa muito importante mas também difícil 00:14:19.377 --> 00:14:21.132 poderia ter sido abafada, 00:14:21.184 --> 00:14:23.985 se o Facebook fosse o único canal. 00:14:24.117 --> 00:14:27.914 Finalmente, estes sistemas também podem cometer erros 00:14:27.938 --> 00:14:30.674 diferentes dos erros dos sistemas humanos. 00:14:30.698 --> 00:14:33.705 Lembram-se do Watson, a máquina de IA da IBM 00:14:33.739 --> 00:14:36.972 que eliminou os concorrentes humanos no Jeopardy? 00:14:37.131 --> 00:14:38.711 Foi um grande jogador. 00:14:38.754 --> 00:14:42.152 Mas depois, na final do Jeopardy, quando perguntaram ao Watson: 00:14:42.535 --> 00:14:45.591 "O maior aeroporto com o nome de um herói da II Guerra Mundial, 00:14:45.615 --> 00:14:48.819 "o segundo maior com o nome de uma batalha da II Guerra Mundial." 00:14:49.705 --> 00:14:50.897 Chicago. 00:14:50.968 --> 00:14:52.596 Os dois seres humanos acertaram. 00:14:52.697 --> 00:14:56.873 Watson, por outro lado, respondeu "Toronto" 00:14:57.069 --> 00:14:59.467 — para uma pergunta sobre cidades dos EUA! 00:14:59.596 --> 00:15:02.649 O impressionante sistema também cometeu um erro 00:15:02.711 --> 00:15:06.591 que um ser humano nunca iria fazer, que uma criança do 1.º ciclo não faria. 00:15:06.823 --> 00:15:09.951 A inteligência artificial pode falhar 00:15:09.975 --> 00:15:13.246 de formas que não se encaixam nos padrões de erro dos seres humanos. 00:15:13.289 --> 00:15:16.030 de formas inesperadas e imprevistas. 00:15:16.158 --> 00:15:19.692 Seria péssimo não conseguir um emprego para o qual estamos qualificados, 00:15:19.716 --> 00:15:23.443 mas seria três vezes pior se fosse por causa de um erro 00:15:23.467 --> 00:15:25.422 de processamento de alguma sub-rotina. 00:15:25.475 --> 00:15:26.692 (Risos) 00:15:26.754 --> 00:15:29.312 Em maio de 2010, 00:15:29.336 --> 00:15:33.560 um acidente relâmpago em Wall Street provocado por uma auto alimentação 00:15:33.623 --> 00:15:36.593 no algoritmo de "vender", em Wall Street, 00:15:36.627 --> 00:15:40.840 fez perder um bilião de dólares em 36 minutos. 00:15:41.722 --> 00:15:44.800 Eu nem quero pensar o que significa "erro" 00:15:44.123 --> 00:15:47.645 no contexto de armas mortais autónomas. 00:15:49.894 --> 00:15:53.684 Sim. Os seres humanos sempre alimentaram preconceitos. 00:15:53.708 --> 00:15:55.960 Quem toma decisões e controla 00:15:56.300 --> 00:16:00.277 nos tribunais, nas notícias, na guerra ... comete erros. 00:16:00.358 --> 00:16:02.624 É esse exatamente o meu ponto. 00:16:02.687 --> 00:16:06.188 Nós não podemos fugir destas perguntas difíceis. 00:16:06.596 --> 00:16:10.188 Não podemos atribuir as nossas responsabilidades às máquinas. 00:16:11.247 --> 00:16:14.398 (Aplausos) 00:16:17.089 --> 00:16:21.536 A inteligência artificial não nos dá um cartão "Liberte-se da ética". 00:16:22.742 --> 00:16:26.123 O cientista de dados Fred Benenson chama-lhe "lavagem de matemática". 00:16:26.147 --> 00:16:27.840 Precisamos é do oposto. 00:16:27.912 --> 00:16:32.995 Temos de cultivar algoritmos de suspeita, de análise e de investigação. 00:16:33.265 --> 00:16:36.787 Precisamos de garantir que assumimos a responsabilidade dos algoritmos, 00:16:36.830 --> 00:16:39.199 da auditoria e da transparência relevante. 00:16:39.380 --> 00:16:42.775 Precisamos de aceitar que trazer a matemática e a informática 00:16:42.780 --> 00:16:45.750 para os assuntos humanos, complicados e carregados de valores, 00:16:45.793 --> 00:16:48.016 não nos dá objetividade. 00:16:48.201 --> 00:16:51.891 Em vez disso, a complexidade dos assuntos humanos invade os algoritmos. 00:16:52.148 --> 00:16:55.635 Sim, podemos e devemos usar a informática 00:16:55.659 --> 00:16:57.758 para nos ajudar a tomar melhores decisões. 00:16:57.830 --> 00:17:03.029 Mas temos que assumir a responsabilidade moral do julgamento. 00:17:03.053 --> 00:17:05.871 e usar os algoritmos nesse âmbito, 00:17:05.895 --> 00:17:10.829 não como um meio para abdicar e subcontratar a nossa responsabilidade 00:17:10.854 --> 00:17:13.479 de ser humano para ser humano. 00:17:13.807 --> 00:17:16.415 A inteligência artificial já chegou. 00:17:16.440 --> 00:17:19.861 O que significa que mais que nunca temos de nos agarrar afincadamente 00:17:19.885 --> 00:17:22.031 aos valores e à ética humana. 00:17:22.151 --> 00:17:23.286 Obrigada. 00:17:23.356 --> 00:17:26.453 (Aplausos)