A era da fé cega no Big data tem de acabar
-
0:01 - 0:03Os algoritmos estão por toda parte.
-
0:04 - 0:07Eles selecionam e separam
os vencedores dos perdedores. -
0:08 - 0:12Os vencedores conseguem o emprego
ou a oferta de um bom cartão de crédito. -
0:12 - 0:15Os perdedores não conseguem
nem mesmo uma entrevista. -
0:16 - 0:18Ou pagam mais caro pelo seu seguro.
-
0:18 - 0:22Estamos sendo avaliados
com fórmulas secretas que não entendemos, -
0:23 - 0:27que geralmente não têm
como serem contestadas. -
0:27 - 0:29Isso coloca uma questão:
-
0:29 - 0:31e se os algoritmos estiverem errados?
-
0:33 - 0:35Precisamos de duas coisas
para criar um algoritmo: -
0:35 - 0:39de dados, o que aconteceu no passado,
e uma definição de sucesso, -
0:39 - 0:41aquilo que estamos procurando
e geralmente esperando. -
0:41 - 0:46Treinamos um algoritmo
procurando, calculando. -
0:46 - 0:50O algoritmo descobre
o que está associado com o sucesso, -
0:50 - 0:53que situação leva ao sucesso.
-
0:53 - 0:55Na verdade, todos usamos algoritmos,
-
0:55 - 0:57apenas não os formalizamos
num código escrito. -
0:57 - 0:58Querem um exemplo?
-
0:58 - 1:02Todo dia uso um algoritmo pra preparar
as refeições da minha família. -
1:02 - 1:04Os dados que uso
-
1:04 - 1:07são os ingredientes da minha cozinha,
o tempo disponível, -
1:08 - 1:09minha ambição,
-
1:09 - 1:11e quem seleciona os dados sou eu.
-
1:11 - 1:15Não conto um pacote de Miojo como comida.
-
1:15 - 1:17(Risos)
-
1:17 - 1:19Minha definição de sucesso é:
-
1:19 - 1:22uma refeição é um sucesso
quando meus filhos comem verduras. -
1:22 - 1:25Muito diferente se meu filho
mais novo estiver no comando. -
1:25 - 1:28Para ele, sucesso
é comer montes de Nutella. -
1:29 - 1:31Mas eu é que escolho o que é sucesso.
-
1:31 - 1:34Eu estou no comando; minha opinião conta.
-
1:34 - 1:37Essa é a primeira regra dos algoritmos.
-
1:37 - 1:40Algoritmos são opiniões
embutidas num código. -
1:42 - 1:45Bem diferente do que a maioria
de nós pensa sobre os algoritmos. -
1:45 - 1:50Achamos que os algoritmos são
objetivos, verdadeiros e científicos. -
1:50 - 1:53Esse é um truque de marketing.
-
1:53 - 1:55É também um truque de marketing
-
1:55 - 1:59intimidar vocês com algoritmos,
-
1:59 - 2:02fazê-los acreditar nos algoritmos
ou ter medo deles -
2:02 - 2:05porque acreditamos
na matemática, e temos medo dela. -
2:05 - 2:11Muita coisa pode dar errado
quando confiamos cegamente no Big Data. -
2:12 - 2:15Esta é Kiri Soares,
diretora de um colégio no Brooklyn. -
2:15 - 2:17Em 2011, ela me disse que seus professores
-
2:17 - 2:20estavam sendo avaliados
por um algoritmo complexo e secreto, -
2:20 - 2:22chamado "modelo de valor agregado".
-
2:22 - 2:25Disse a ela: "Descubra
a fórmula dele e me mostre. -
2:25 - 2:27Aí, posso explicá-lo a você".
-
2:27 - 2:31Ela disse: "Tentei conseguir a fórmula,
mas meu contato na Secretaria de Educação -
2:31 - 2:34me falou que era matemática
e que eu não iria entender". -
2:35 - 2:37E a história só fica pior.
-
2:37 - 2:40O "New York Post" protocolou
um pedido de transparência, -
2:40 - 2:43pegou o nome de todos os professores,
e todas suas avaliações -
2:43 - 2:46e publicou como um ato
para expor os professores. -
2:47 - 2:51Quando tentei conseguir as fórmulas,
o código-fonte, através dos mesmos meios, -
2:51 - 2:54me disseram que não podia, me foi negado.
-
2:54 - 2:58Descobri mais tarde que ninguém em
Nova Iorque tinha acesso àquela fórmula. -
2:58 - 3:00Ninguém a entendia.
-
3:02 - 3:05Então, Gary Rubenstein,
um cara muito inteligente, se envolveu. -
3:05 - 3:09Ele descobriu 665 professores
naqueles dados do "New York Post" -
3:09 - 3:11que na verdade tinham duas avaliações.
-
3:11 - 3:15Aquilo podia acontecer se eles ensinavam
matemática na sétima e na oitava série. -
3:15 - 3:17Ele decidiu marcá-los.
-
3:17 - 3:19Cada ponto representa um professor.
-
3:19 - 3:21(Risos)
-
3:22 - 3:23O que é isto?
-
3:23 - 3:24(Risos)
-
3:24 - 3:28Isso nunca deveria ter sido usado
numa avaliação individual. -
3:28 - 3:30É quase um gerador aleatório de número.
-
3:30 - 3:32(Aplausos) (Vivas)
-
3:32 - 3:33Mas foi usado.
-
3:33 - 3:35Esta é Sarah Wysocki.
-
3:35 - 3:37Ela foi demitida, juntamente
com 205 outros professores, -
3:37 - 3:40da superintendência de ensino
de Washington, D.C., -
3:40 - 3:45mesmo tendo excelente recomendação
de sua diretora e dos pais das crianças. -
3:45 - 3:48Muitos aqui devem estar pensando,
especialmente cientistas de dados, -
3:48 - 3:50os especialistas em IA:
-
3:50 - 3:54"Eu nunca faria um algoritmo
inconsistente assim". -
3:55 - 3:56Mas os algoritmos podem dar errado,
-
3:56 - 4:01mesmo os bem-intencionados podem ter
efeitos profundamente destrutivos. -
4:03 - 4:07E enquanto um avião mal projetado
cai, e todo mundo vê, -
4:07 - 4:09um algoritmo mal projetado
-
4:10 - 4:14pode continuar a causar destruição
de forma silenciosa, por um longo tempo. -
4:16 - 4:17Este é Roger Ailes.
-
4:17 - 4:19(Risos)
-
4:21 - 4:23Ele fundou a Fox News em 1996.
-
4:23 - 4:26Mais de 20 mulheres
reclamaram de assédio sexual. -
4:26 - 4:29Elas disseram que não lhes foi
permitido subir na Fox News. -
4:29 - 4:32Ele foi afastado ano passado,
mas vimos recentemente -
4:32 - 4:35que os problemas continuaram.
-
4:36 - 4:37Uma pergunta se impõe aqui:
-
4:37 - 4:40o que a Fox News deveria fazer
para virar essa página? -
4:41 - 4:44Que tal se eles substituírem
seu processo de contratação -
4:44 - 4:48por um algoritmo de aprendizado
de máquina? Parece boa ideia, né? -
4:48 - 4:49Pensem bem.
-
4:49 - 4:51Os dados, quais seriam os dados?
-
4:51 - 4:56Uma escolha razoável seria os últimos
21 anos de contratação da Fox News. -
4:56 - 4:58Bem razoável.
-
4:58 - 5:00E a definição de sucesso?
-
5:00 - 5:03Seria uma escolha racional:
quem é bem-sucedido para a Fox News? -
5:03 - 5:07Digamos que seja alguém
que tenha ficado lá por quatro anos -
5:07 - 5:09e promovido pelo menos uma vez.
-
5:09 - 5:10Parece razoável.
-
5:10 - 5:13E então o algoritmo poderia ser treinado.
-
5:13 - 5:17Seria treinado para procurar pessoas
para aprender o que leva ao sucesso, -
5:17 - 5:21que tipo de contratações
historicamente levaram ao sucesso -
5:21 - 5:23segundo aquela definição.
-
5:24 - 5:26Agora pensem sobre o que aconteceria
-
5:26 - 5:29se aplicado a um conjunto
atual de pedidos de emprego. -
5:29 - 5:31Ele filtraria as mulheres,
-
5:32 - 5:36pois aparentemente elas não
tiveram sucesso no passado. -
5:40 - 5:42Os algoritmos não tornam as coisas justas
-
5:42 - 5:45se forem aplicados
de forma cega e displicente. -
5:45 - 5:47Não tornam as coisas justas.
-
5:47 - 5:50Eles repetem nossas práticas
passadas, nossos padrões. -
5:50 - 5:52Eles automatizam o status quo.
-
5:53 - 5:55Isso seria ótimo se tivéssemos
um mundo perfeito, -
5:56 - 5:57mas não temos.
-
5:57 - 6:01E mais: a maioria das empresas
não inclui os litígios constrangedores, -
6:02 - 6:05mas os cientistas de dados dessas empresas
-
6:05 - 6:07são orientados a seguirem os dados,
-
6:07 - 6:09a terem rigor.
-
6:10 - 6:12Pensem no que isso significa.
-
6:12 - 6:16Como todos somos tendenciosos, significa
que poderiam estar codificando sexismo -
6:16 - 6:18ou qualquer outro tipo de intolerância.
-
6:19 - 6:22Vamos fazer um exercício
intelectual, pois gosto deles: -
6:24 - 6:27uma sociedade inteiramente segregada,
-
6:28 - 6:32racialmente segregada,
todas as cidades, todos os bairros, -
6:32 - 6:36e onde enviamos a polícia apenas
a bairros de minorias atrás de crimes. -
6:36 - 6:39Os dados sobre os presos
seriam muito tendenciosos. -
6:40 - 6:42E se, além disso, pegássemos
cientistas de dados -
6:42 - 6:47e pagássemos a eles para predizerem
onde vai ocorrer o próximo crime? -
6:47 - 6:49Bairros de minorias.
-
6:49 - 6:53Ou predizer quem será o próximo criminoso?
-
6:53 - 6:54Alguém das minorias.
-
6:56 - 7:00Os cientistas de dados se gabariam
da excelência e da precisão de seu modelo, -
7:01 - 7:02e estariam certos.
-
7:04 - 7:09Bem, a realidade não é drástica assim,
mas temos graves segregações -
7:09 - 7:11em muitas cidades e vilas,
e muitas evidências -
7:12 - 7:15de dados policiais
e judiciários tendenciosos. -
7:16 - 7:18Na verdade, predizemos focos de crise,
-
7:18 - 7:20lugares onde crimes podem ocorrer.
-
7:20 - 7:24E predizemos, de fato,
a criminalidade individual, -
7:24 - 7:27a criminalidade dos indivíduos.
-
7:27 - 7:31A organização de notícias ProPublica
recentemente estudou -
7:31 - 7:34um desses algoritmos,
chamados de "risco de recidiva", -
7:34 - 7:38que têm sido usados por juízes
na Flórida para proferirem sentenças. -
7:38 - 7:42Bernard, à esquerda,
o homem negro, atingiu dez em dez. -
7:43 - 7:45Dylan, à direita, três em dez.
-
7:45 - 7:48Então, dez em dez, alto risco;
três em dez, baixo risco. -
7:49 - 7:51Ambos foram pegos por posse de droga.
-
7:51 - 7:55Ambos tinham antecedentes,
e Dylan tinha um delito grave, -
7:55 - 7:57mas Bernard não.
-
7:58 - 8:01Isso é importante,
pois, quanto maior a pontuação, -
8:01 - 8:04maior a chance de se receber
uma sentença mais severa. -
8:06 - 8:08O que que está havendo?
-
8:08 - 8:10Branqueamento dos dados.
-
8:11 - 8:15É um processo por meio do qual tecnólogos
escondem verdades sujas -
8:15 - 8:19dentro da caixa-preta dos algoritmos,
e os chamam de objetivos, -
8:19 - 8:22de meritocráticos.
-
8:23 - 8:28Cunhei um termo para esses algoritmos
secretos, importantes e destrutivos: -
8:28 - 8:30"armas de destruição em matemática".
-
8:30 - 8:33(Aplausos) (Vivas)
-
8:35 - 8:37Eles estão por toda parte,
e isso não é um erro. -
8:38 - 8:41Trata-se de empresas privadas
criando algoritmos privados -
8:41 - 8:43para fins privados.
-
8:43 - 8:46Mesmos aqueles que mencionei,
para os professores e a polícia, -
8:46 - 8:50foram criados por empresas privadas
e vendidos a instituições governamentais. -
8:50 - 8:55Eles os chamam de seu "molho secreto",
e por isso não nos contam sobre eles. -
8:55 - 8:58Isso é poder privado também.
-
8:58 - 9:03Eles estão lucrando para exercerem
a autoridade do inescrutável. -
9:05 - 9:09Vocês podem achar, já que isso é privado
e não há competição, -
9:09 - 9:11que talvez o livre comércio
resolva o problema. -
9:12 - 9:13Não vai resolver.
-
9:13 - 9:16Há muito dinheiro
a ser ganho com a injustiça. -
9:17 - 9:21Além disso, não somos
agentes econômicos racionais. -
9:21 - 9:23Somos todos tendenciosos.
-
9:23 - 9:26Somos todos racistas e intolerantes
de maneiras que desejávamos não ser, -
9:26 - 9:29de maneiras das nem temos consciência.
-
9:29 - 9:32No entanto, sabemos disso
-
9:32 - 9:36porque os sociólogos têm
demonstrado isso consistentemente -
9:36 - 9:40com experimentos nos quais
enviam um monte de currículos, -
9:40 - 9:41todos igualmente qualificados,
-
9:41 - 9:45mas alguns com nomes que parecem
ser de brancos, e outros, de negros, -
9:45 - 9:47e os resultados são sempre frustrantes.
-
9:47 - 9:49Então, nós somos tendenciosos,
-
9:49 - 9:53e estamos instilando
esses preconceitos nos algoritmos -
9:53 - 9:55quando escolhemos quais dados coletar,
-
9:55 - 9:59como quando escolhi descartar o Miojo,
porque decidi que ele era irrelevante. -
9:59 - 10:05Mas, ao confiar em dados
que se baseiam em práticas do passado -
10:05 - 10:07e ao escolher a definição de sucesso,
-
10:07 - 10:11como podemos esperar
que os algoritmos saiam incólumes? -
10:11 - 10:14Não dá, temos de fiscalizá-los.
-
10:14 - 10:16Temos de checar se são justos.
-
10:16 - 10:19A boa notícia é que isso é possível.
-
10:19 - 10:22Os algoritmos podem ser questionados,
-
10:22 - 10:24e eles sempre vão nos dizer a verdade.
-
10:24 - 10:27E podemos repará-los, aperfeiçoá-los.
-
10:27 - 10:29Podemos chamar de auditoria de algoritmos,
-
10:29 - 10:31e vou mostrar como seria.
-
10:31 - 10:34Primeiro, temos de checar
a integridade dos dados. -
10:34 - 10:37Para o algoritmo de risco
de recidiva que mencionei, -
10:38 - 10:41checar a integridade dos dados
significa aceitarmos o fato -
10:41 - 10:45de que, nos EUA, brancos e negros
fumam maconha na mesma proporção, -
10:45 - 10:47mas os negros têm
muito mais chance de serem presos, -
10:47 - 10:51quatro ou cinco vezes mais,
dependendo da região. -
10:51 - 10:54E como esse viés surge
em outras categorias de crime -
10:54 - 10:56e como justificamos isso?
-
10:56 - 10:59Segundo, devemos pensar
na definição de sucesso, -
10:59 - 11:01auditar esse conceito.
-
11:01 - 11:03Lembram-se do algoritmo
de contratação de que falei? -
11:03 - 11:07Alguém que trabalhou por quatro anos
e foi promovido uma vez? -
11:07 - 11:08Bem, esse é um empregado de sucesso,
-
11:08 - 11:11mas é também um empregado
que tem apoio da cultura da empresa. -
11:12 - 11:14Isso pode ser bem tendencioso.
-
11:14 - 11:16Precisamos separar essas duas coisas.
-
11:16 - 11:20Deveríamos nos mirar
na audição às cegas de orquestras. -
11:20 - 11:23É quando os examinadores
ficam atrás de uma planilha. -
11:23 - 11:25O importante aí
-
11:25 - 11:28é que os examinadores
decidem o que é importante -
11:28 - 11:30e o que não é,
-
11:30 - 11:33e não se distraem com outras coisas.
-
11:33 - 11:36Quando as audições às cegas
de orquestras começaram, -
11:36 - 11:39o número de mulheres em orquestras
cresceu cinco vezes mais. -
11:40 - 11:43Depois, temos de considerar o rigor.
-
11:43 - 11:47É aí que o modelo valor agregado para
professores fracassaria imediatamente. -
11:48 - 11:50Nenhum algoritmo é perfeito, claro,
-
11:51 - 11:55assim, temos de partir
do pressuposto de que todos erram. -
11:55 - 11:59Qual a frequência desses erros,
e com quem esse modelo falha? -
12:00 - 12:02Qual o preço desse fracasso?
-
12:02 - 12:05E, finalmente, temos de considerar
-
12:06 - 12:09os efeitos de longo prazo dos algoritmos,
-
12:09 - 12:11os círculos viciosos que são gerados.
-
12:11 - 12:14Isso parece abstrato, mas imaginem
se os engenheiros do Facebook -
12:14 - 12:16tivessem considerado isso
-
12:16 - 12:21antes de decidirem nos mostrar
apenas coisas que nossos amigos postam. -
12:22 - 12:25Tenho mais duas mensagens,
uma para os cientistas de dados. -
12:25 - 12:29Cientistas de dados: não devemos
ser os árbitros da verdade. -
12:30 - 12:33Devemos ser tradutores
dos debates éticos que ocorrem -
12:33 - 12:35na sociedade como um todo.
-
12:36 - 12:38(Aplausos) (Vivas)
-
12:38 - 12:40E os demais,
-
12:40 - 12:44os que não são cientistas de dados:
isso não é um teste de matemática. -
12:44 - 12:46Essa é uma luta política.
-
12:47 - 12:51Precisamos exigir prestação de contas
dos "senhores dos algoritmos". -
12:51 - 12:54(Aplausos) (Vivas)
-
12:54 - 12:58A era da fé cega
no Big Data tem de acabar. -
12:58 - 12:59Muito obrigada.
-
12:59 - 13:02(Aplausos) (Vivas)
- Title:
- A era da fé cega no Big data tem de acabar
- Speaker:
- Cathy O'Neil
- Description:
-
Os algoritmos decidem quem vai receber um empréstimo, quem vai ser selecionado para uma entrevista de emprego, quem vai ter direito ao seguro, e muito mais -- mas eles não garantem automaticamente que as coisas sejam justas. Cathy O'Neil, matemática e engenheira de dados, cunhou um termo para esses algoritmos secretos, importantes e nocivos: "armas de destruição em matemática". Saiba mais sobre as agendas secretas por trás das fórmulas dos algoritmos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Raissa Mendes approved Portuguese, Brazilian subtitles for The era of blind faith in big data must end | ||
Raissa Mendes edited Portuguese, Brazilian subtitles for The era of blind faith in big data must end | ||
Raissa Mendes edited Portuguese, Brazilian subtitles for The era of blind faith in big data must end | ||
Raissa Mendes edited Portuguese, Brazilian subtitles for The era of blind faith in big data must end | ||
Raissa Mendes edited Portuguese, Brazilian subtitles for The era of blind faith in big data must end | ||
Raissa Mendes edited Portuguese, Brazilian subtitles for The era of blind faith in big data must end | ||
Raissa Mendes edited Portuguese, Brazilian subtitles for The era of blind faith in big data must end | ||
Raissa Mendes edited Portuguese, Brazilian subtitles for The era of blind faith in big data must end |