A inteligência de máquina ressalta a importância da moral humana
-
0:01 - 0:05Meu primeiro emprego na vida foi
como programadora de computador -
0:05 - 0:07já no primeiro ano de faculdade,
-
0:07 - 0:08praticamente uma adolescente.
-
0:09 - 0:11Logo que comecei a trabalhar,
-
0:11 - 0:12escrevendo software numa empresa,
-
0:13 - 0:16um gerente que trabalhava lá
se aproximou de mim -
0:16 - 0:18e começou a sussurrar:
-
0:18 - 0:21"Ele consegue dizer se estou mentindo?"
-
0:22 - 0:24Não havia mais ninguém na sala.
-
0:24 - 0:25(Risos)
-
0:25 - 0:29"Quem consegue dizer se você está
mentindo? E por que estamos sussurrando?" -
0:30 - 0:33O gerente apontou
para o computador na sala. -
0:33 - 0:36"Ele consegue dizer se estou mentindo?"
-
0:38 - 0:42Bem, aquele gerente estava tendo
um caso com a recepcionista. -
0:42 - 0:43(Risos)
-
0:43 - 0:45E eu ainda era uma adolescente.
-
0:45 - 0:47Assim, gritei sussurrando de volta:
-
0:47 - 0:51"Sim, o computador sabe
se você está mentindo". -
0:51 - 0:53(Risos)
-
0:53 - 0:56Eu ri, mas, na verdade,
estava rindo de mim mesma. -
0:56 - 0:59Atualmente, há sistemas computacionais
-
0:59 - 1:03que conseguem perceber
estados emocionais e até mentiras -
1:03 - 1:05ao processar rostos humanos.
-
1:05 - 1:10Anunciantes e até governos
estão muito interessados nisso. -
1:10 - 1:12Tornei-me programadora de computador,
-
1:12 - 1:15pois era uma dessas crianças
loucas por matemática e ciências. -
1:16 - 1:19Mas, a uma certa altura,
descobri as armas nucleares -
1:19 - 1:22e passei a me preocupar
com a ética da ciência. -
1:22 - 1:23Aquilo me perturbou.
-
1:23 - 1:26No entanto, devido
a circunstâncias familiares, -
1:26 - 1:29eu também precisava começar
a trabalhar o mais rápido possível. -
1:29 - 1:32Assim, pensei comigo mesma:
"Ei, vou escolher a área técnica, -
1:32 - 1:34onde posso conseguir
um emprego facilmente -
1:34 - 1:38e não tenho de lidar com quaisquer
questões éticas perturbadoras". -
1:39 - 1:41Então escolhi os computadores.
-
1:41 - 1:42(Risos)
-
1:42 - 1:45Bem, ha, ha, ha! Eu virei a piada.
-
1:45 - 1:48Hoje, os cientistas da computação
constroem plataformas -
1:48 - 1:52que controlam o que um bilhão
de pessoas veem todos os dias. -
1:53 - 1:57Eles estão desenvolvendo carros
que poderiam decidir quem atropelar. -
1:57 - 1:58(Risos)
-
1:58 - 2:01Estão construindo até mesmo
máquinas e armas -
2:01 - 2:03que podem matar seres humanos na guerra.
-
2:03 - 2:06É ética o tempo todo.
-
2:07 - 2:09A inteligência de máquina chegou.
-
2:10 - 2:13Hoje em dia usamos a computação
para tomar todo tipo de decisão, -
2:13 - 2:15mas também novos tipos de decisão.
-
2:15 - 2:20Perguntamos aos computadores coisas
que não têm apenas uma resposta correta, -
2:20 - 2:24que são subjetivas, abertas
e que envolvem julgamento de valor. -
2:24 - 2:27Perguntamos coisas do tipo:
"Quem a empresa deve contratar?" -
2:28 - 2:31"Que atualização de qual amigo
deve ser mostrada?" -
2:31 - 2:34"Qual condenado tem mais chance
de reincidir num crime?" -
2:34 - 2:37"Quais notícias ou filmes devem
ser recomendados às pessoas?" -
2:37 - 2:40Sim, temos usado os computadores
já faz um bom tempo, -
2:40 - 2:42mas isso é diferente.
-
2:42 - 2:44Essa é uma virada histórica,
-
2:44 - 2:49pois não podemos confiar na computação
para essas decisões subjetivas -
2:49 - 2:53da mesma forma que podemos confiar
na computação para pilotar aviões, -
2:53 - 2:56construir pontes, ir à Lua.
-
2:56 - 3:00Os aviões estão mais seguros?
A ponte balançou e caiu? -
3:00 - 3:04Nesses casos, concordamos de forma
bem clara com os parâmetros, -
3:04 - 3:06e temos as leis da natureza como baliza.
-
3:07 - 3:10Nós não temos tais âncoras ou marcos
-
3:10 - 3:14para a tomada de decisões
em negócios humanos confusos. -
3:14 - 3:18Para complicar ainda mais as coisas,
nosso software está ficando mais poderoso, -
3:18 - 3:22mas também menos transparente
e mais complexo. -
3:23 - 3:25Recentemente, na década passada,
-
3:25 - 3:27algoritmos complexos deram passos enormes.
-
3:27 - 3:30Eles conseguem reconhecer rostos humanos.
-
3:30 - 3:32Eles conseguem decifrar caligrafia.
-
3:32 - 3:36Eles conseguem detectar fraude
de cartão de crédito, bloquear spam, -
3:36 - 3:38conseguem traduzir línguas
-
3:38 - 3:40e detectar tumores em exames de imagem.
-
3:40 - 3:43Conseguem vencer humanos
em jogos de xadrez e Go. -
3:43 - 3:48Muito desse progresso vem de um método
chamado "aprendizado de máquina". -
3:48 - 3:51O aprendizado de máquina é diferente
da programação tradicional -
3:51 - 3:55em que instruções detalhadas, exatas
e meticulosas são dadas ao computador. -
3:55 - 4:00É mais como pegar um sistema
e alimentá-lo com montes de dados, -
4:00 - 4:01incluindo dados não estruturados,
-
4:01 - 4:04como os que geramos
em nossas vidas digitais. -
4:04 - 4:06E o sistema aprende revirando esses dados.
-
4:07 - 4:08Além disso, fundamentalmente,
-
4:08 - 4:13esses sistemas não operam
sob a lógica de uma resposta única. -
4:13 - 4:16Eles não produzem uma resposta
simples; é mais probabilidade: -
4:16 - 4:19"É provável que isto aqui seja
o que você está procurando". -
4:20 - 4:23Bem, a vantagem é que esse método
é realmente poderoso. -
4:23 - 4:25O responsável pela IA do Google o chamou
-
4:25 - 4:27de "a eficácia irracional dos dados".
-
4:28 - 4:29O lado negativo é
-
4:30 - 4:33não sabermos realmente
o que o sistema aprendeu. -
4:33 - 4:35Na realidade, é aí que está seu poder.
-
4:35 - 4:39Isso tem pouco a ver com dar
instruções a um computador; -
4:39 - 4:43é mais como adestrar uma máquina-filhote
-
4:43 - 4:46que não controlamos
ou conhecemos de verdade. -
4:46 - 4:46(Risos)
-
4:46 - 4:48Então, este é o nosso problema.
-
4:48 - 4:49É um problema
-
4:49 - 4:53quando esse sistema de inteligência
artificial entende as coisas errado. -
4:53 - 4:56Também é um problema
quando ele entende certo, -
4:56 - 5:00pois não sabemos distinguir os dois
quando se trata de um problema subjetivo. -
5:00 - 5:02Não sabemos o que esta coisa
está pensando. -
5:03 - 5:07Por exemplo, vamos imaginar
um algoritmo de contratação, -
5:08 - 5:11um sistema usado para contratar pessoas,
-
5:11 - 5:13usando o aprendizado de máquina.
-
5:13 - 5:17Tal sistema teria sido treinado
em dados prévios dos empregados -
5:17 - 5:19e treinado para encontrar e contratar
-
5:19 - 5:22pessoas como os atuais empregados
com alto desempenho na empresa. -
5:23 - 5:24Parece uma coisa boa.
-
5:24 - 5:26Uma vez, fui a um seminário
-
5:26 - 5:29que reuniu gerentes e executivos
da área de recursos humanos, -
5:29 - 5:32pessoas de alto nível,
usando tais sistemas para contratar. -
5:32 - 5:34Eles estavam muito empolgados.
-
5:34 - 5:38Achavam que isso tornaria a contratação
mais objetiva, menos parcial, -
5:38 - 5:41e daria a mulheres e minorias
uma melhor oportunidade -
5:41 - 5:44versus gerentes humanos tendenciosos.
-
5:44 - 5:46Pois vejam: a contratação
humana é tendenciosa. -
5:47 - 5:48Sei bem disso.
-
5:48 - 5:51Quero dizer, num dos meus primeiros
empregos como programadora, -
5:51 - 5:55minha gerente imediata
às vezes vinha ao meu setor -
5:55 - 5:59bem cedinho pela manhã
ou bem no final da tarde, -
5:59 - 6:02e me chamava: "Zeynep, vamos almoçar!"
-
6:03 - 6:05Eu ficava atônita com o horário estranho.
-
6:05 - 6:07Eram quatro da tarde. Almoço?
-
6:07 - 6:10Eu não tinha grana, então,
almoço grátis, eu sempre ia. -
6:10 - 6:13Só mais tarde percebi
o que estava acontecendo. -
6:13 - 6:17Meus gerentes imediatos não tinham
confessado a seus superiores -
6:17 - 6:21que a programadora que tinham contratado
para um emprego sério era uma adolescente -
6:22 - 6:25que vinha trabalhar de jeans e tênis.
-
6:25 - 6:27Eu trabalhava direito, só parecia errada,
-
6:27 - 6:29e tinha a idade e o gênero errados.
-
6:29 - 6:32Assim, contratar independente
da raça e do gênero -
6:32 - 6:35certamente me parece uma coisa boa.
-
6:35 - 6:39Mas, com esses sistemas,
é mais complicado, e eis a razão: -
6:39 - 6:45hoje, sistemas de computador podem
inferir todo tipo de coisas sobre nós -
6:45 - 6:47por meio de nossas pegadas digitais,
-
6:47 - 6:49mesmo coisas que não tivermos revelado.
-
6:50 - 6:52Eles podem inferir
nossa orientação sexual, -
6:53 - 6:55os traços de nossa personalidade,
-
6:55 - 6:56nossas tendências políticas.
-
6:57 - 7:01Eles têm poder preditivo
com altos níveis de precisão. -
7:01 - 7:06Vejam bem, para coisas
que não revelamos: isso é inferência. -
7:06 - 7:09Tenho uma amiga que desenvolveu
um sistema de computador -
7:09 - 7:13para predizer a probabilidade
de depressão clínica pós-parto -
7:13 - 7:14com base em dados de mídia social.
-
7:15 - 7:16Os resultados são impressionantes.
-
7:16 - 7:20O sistema dela prevê
a probabilidade de depressão -
7:20 - 7:24meses antes do surgimento
de quaisquer sintomas, -
7:24 - 7:25meses antes.
-
7:25 - 7:27Mesmo sem sintomas, ele prevê.
-
7:27 - 7:31Ela espera que isso seja usado
para intervenção precoce. -
7:31 - 7:32Ótimo!
-
7:33 - 7:35Mas coloque isso
no contexto da contratação. -
7:36 - 7:39Então, nesse seminário
de gerentes de recursos humanos, -
7:39 - 7:43eu me aproximei de uma gerente
com alto cargo numa grande empresa, -
7:44 - 7:48e perguntei a ela: "Olhe,
e se, sem seu conhecimento, -
7:48 - 7:55seu sistema estiver cortando pessoas
com probabilidade de depressão futura? -
7:56 - 8:00Elas não estão deprimidas agora,
mas, no futuro, bem provavelmente. -
8:00 - 8:03E se estiver cortando mulheres
com maior probabilidade de engravidar -
8:03 - 8:06dentro de um ou dois anos,
mas que não estejam grávidas agora? -
8:07 - 8:12E se contratar pessoas agressivas
por causa da cultura da empresa? -
8:13 - 8:16Não se pode saber isso
com análises de gênero. -
8:16 - 8:17Isso pode estar equacionado.
-
8:17 - 8:21E, como isso é aprendizado de máquina,
não é codificação tradicional, -
8:21 - 8:26não há uma variável chamada
'alto risco de depressão', -
8:26 - 8:28'maior risco de gravidez',
-
8:28 - 8:30'pessoa altamente agressiva'.
-
8:30 - 8:34Não só você não sabe o que
seu sistema está selecionando, -
8:34 - 8:36como também não sabe onde começar a olhar.
-
8:36 - 8:37É uma caixa-preta.
-
8:37 - 8:40Ele tem poder preditivo,
mas você não o entende. -
8:40 - 8:43Que salvaguardas", perguntei, "você teria
-
8:43 - 8:47para se assegurar de que sua caixa-preta
não está fazendo algo suspeito?" -
8:49 - 8:53Ela olhou para mim como se eu tivesse
pisado no rabo de dez cachorrinhos. -
8:53 - 8:54(Risos)
-
8:54 - 8:56Ela olhou bem pra mim e falou:
-
8:57 - 9:01"Eu não quero ouvir
nem mais uma palavra sobre isso". -
9:01 - 9:04E virou as costas e foi embora.
-
9:04 - 9:06Vejam bem, ela não foi rude.
-
9:06 - 9:07Era claramente:
-
9:07 - 9:12"O que eu não sei não é problema meu,
vai embora, agourenta". -
9:12 - 9:13(Risos)
-
9:14 - 9:18Vejam, tal sistema pode até
ser menos tendencioso -
9:18 - 9:20do que gerentes humanos de alguma forma.
-
9:20 - 9:22E poderia fazer sentido financeiramente.
-
9:23 - 9:24Mas também poderia levar
-
9:24 - 9:29a um constante mas sorrateiro
fechamento do mercado de trabalho -
9:29 - 9:31para pessoas com alto risco de depressão.
-
9:32 - 9:34É esse tipo de sociedade
que queremos construir, -
9:34 - 9:37sem nem sequer saber que fizemos isso,
-
9:37 - 9:41por termos dado às máquinas um poder
de decisão que não entendemos totalmente? -
9:41 - 9:43Outro problema é o seguinte:
-
9:43 - 9:48esses sistemas normalmente são treinados
com dados gerados pelas nossas ações, -
9:48 - 9:50vestígios humanos.
-
9:50 - 9:54Bem, eles poderiam estar apenas
refletindo nossas tendências, -
9:54 - 9:58e esses sistemas poderiam
estar pegando nossas tendências, -
9:58 - 10:02amplificando-as e devolvendo-as para nós,
enquanto dizemos a nós mesmos: -
10:02 - 10:05"Estamos fazendo apenas
computação objetiva e neutra". -
10:06 - 10:09Pesquisadores descobriram que, no Google,
-
10:10 - 10:15são mostrados menos anúncios de empregos
bem pagos às mulheres do que aos homens. -
10:16 - 10:19E, numa pesquisa de nomes afro-americanos,
-
10:19 - 10:24é provável que nos sejam mostrados
anúncios sugerindo história criminal, -
10:24 - 10:26mesmo quando não há nenhuma.
-
10:27 - 10:30Tais tendências escondidas
e algoritmos caixas-pretas, -
10:30 - 10:34que os pesquisadores às vezes revelam,
mas às vezes desconhecemos, -
10:34 - 10:37podem afetar a vida das pessoas.
-
10:38 - 10:42Em Wisconsin, um réu foi sentenciado
a seis anos de prisão -
10:42 - 10:44por fugir da polícia.
-
10:45 - 10:46Talvez não saibam disso,
-
10:46 - 10:50mas os algoritmos estão sendo cada vez
mais usados em decisões judiciais. -
10:50 - 10:53E o réu quis saber:
como esse número foi calculado? -
10:54 - 10:55É uma caixa-preta comercial.
-
10:55 - 11:00A empresa se recusou a ter
seu algoritmo exposto no tribunal. -
11:00 - 11:04Mas a ProPublica, uma organização
investigativa sem fins lucrativos, -
11:04 - 11:08auditou esse algoritmo com os dados
públicos que conseguiu encontrar -
11:08 - 11:10e descobriu que os resultados
eram tendenciosos, -
11:10 - 11:14e seu poder preditivo era deplorável,
apenas um pouco melhor do que o acaso, -
11:14 - 11:18e estava rotulando erroneamente
réus negros como futuros criminosos -
11:18 - 11:22duas vezes mais do que os réus brancos.
-
11:24 - 11:26Vejam por exemplo este caso:
-
11:26 - 11:30esta mulher se atrasou
para buscar sua parente -
11:30 - 11:32numa escola no Condado
de Broward, na Flórida. -
11:33 - 11:35Correndo pela rua com uma amiga,
-
11:35 - 11:39elas viram uma bicicleta sem cadeado
e uma lambreta numa varanda -
11:39 - 11:41e, impensadamente, pularam nela.
-
11:41 - 11:43Quando estavam indo embora,
uma mulher saiu e falou: -
11:43 - 11:46"Ei! Esta é a bicicleta do meu filho!"
-
11:46 - 11:49Elas largaram a bicicleta,
fugiram, mas foram presas. -
11:49 - 11:53Ela errou, foi infantil,
mas tinha apenas 18 anos. -
11:53 - 11:56Ela tinha algumas contravenções juvenis.
-
11:56 - 12:01Enquanto isso, aquele homem
tinha sido preso por furtar na Home Depot -
12:01 - 12:04bens no valor de US$ 85,
um crime pequeno similar. -
12:05 - 12:09Mas ele tinha duas condenações
prévias por roubo à mão armada. -
12:10 - 12:14No entanto, o algoritmo a classificou
como sendo de alto risco, e ele não. -
12:15 - 12:18Dois anos depois, a ProPublica descobriu
que ela não tinha reincidido em crime. -
12:18 - 12:21E foi muito difícil conseguir
um emprego com esse histórico. -
12:21 - 12:23Ele, por outro lado, reincidiu no crime
-
12:23 - 12:27e agora está cumprindo oito anos
de prisão por um crime posterior. -
12:28 - 12:31Claramente, precisamos
auditar nossas caixas-pretas -
12:31 - 12:34e não deixá-las ter esse tipo
de poder sem controle. -
12:34 - 12:37(Aplausos)
-
12:38 - 12:42Auditorias são ótimas e importantes,
mas não resolvem todos os problemas. -
12:42 - 12:45Peguem o poderoso algoritmo do Facebook.
-
12:45 - 12:50Sabe aquele que escolhe o que nos mostrar
-
12:50 - 12:52entre todos os amigos
e páginas que seguimos? -
12:53 - 12:55Será que deveriam lhe mostrar
uma outra foto de bebê? -
12:55 - 12:56(Risos)
-
12:56 - 12:59Um comentário estranho de um conhecido?
-
12:59 - 13:01Uma notícia importante, mas difícil?
-
13:01 - 13:03Não existe resposta certa.
-
13:03 - 13:05O Facebook o aperfeiçoa pelo uso do site:
-
13:06 - 13:08curtidas, compartilhamentos, comentários.
-
13:08 - 13:11Em agosto de 2014,
-
13:11 - 13:14houve uma onda de protestos
em Ferguson, no Missouri, -
13:14 - 13:18depois do assassinato de um adolescente
afro-americano por um policial branco, -
13:18 - 13:20sob circunstâncias nebulosas.
-
13:20 - 13:22Notícias sobre os protestos
estavam por toda parte -
13:22 - 13:25no "feed" do meu Twitter
sem algoritmo de filtragem, -
13:25 - 13:27mas em nenhum lugar no meu Facebook.
-
13:27 - 13:29Seriam meus amigos no Facebook?
-
13:29 - 13:31Eu desabilitei o algoritmo do Facebook,
-
13:31 - 13:34o que é difícil,
pois o Facebook espera que nós -
13:34 - 13:36fiquemos sob o controle do algoritmo,
-
13:36 - 13:39e vi que meus amigos
estavam falando sobre o assunto. -
13:39 - 13:41Mas o algoritmo
simplesmente não mostrava. -
13:41 - 13:44Fui pesquisar e descobri
que era um problema geral. -
13:44 - 13:48A história de Ferguson não
era compatível com o algoritmo. -
13:48 - 13:51Não era "curtível";
quem ia "curtir" aquilo? -
13:52 - 13:54Não era fácil nem mesmo
comentar sobre o assunto. -
13:54 - 13:55Sem curtidas e comentários,
-
13:55 - 13:59era provável que o algoritmo mostrasse
isso para cada vez menos pessoas, -
13:59 - 14:01assim, não pudemos ver isto.
-
14:01 - 14:04Em seu lugar, naquela semana,
o algoritmo do Facebook priorizou isto: -
14:04 - 14:07o desafio do balde da ELA,
esclerose lateral amiotrófica. -
14:07 - 14:11Causa importante: jogar água gelada,
doar para caridade, tudo bem. -
14:11 - 14:13Mas era supercompatível com o algoritmo.
-
14:13 - 14:16A máquina tomou essa decisão por nós.
-
14:16 - 14:19Uma conversa muito importante,
mas muito difícil, -
14:19 - 14:21teria sido atenuada,
-
14:21 - 14:24caso o Facebook fosse o único canal.
-
14:24 - 14:28Finalmente, esses sistemas
também podem errar -
14:28 - 14:30de maneiras diferentes
dos sistemas humanos. -
14:30 - 14:34Lembram-se do Watson, o sistema
de inteligência de máquina da IBM -
14:34 - 14:37que sempre ganhava, competindo
com seres humanos num show de TV? -
14:37 - 14:39Ele era um ótimo jogador.
-
14:39 - 14:42Mas então, na final, foi feita
a seguinte pergunta a Watson: -
14:42 - 14:46"Seu maior aeroporto possui o nome
de um herói da Segunda Guerra, -
14:46 - 14:48a maior grande batalha da Segunda Guerra".
-
14:48 - 14:49(Cantarola música do show)
-
14:50 - 14:51"Chicago."
-
14:51 - 14:53Os dois seres humanos acertaram.
-
14:53 - 14:57Watson, por sua vez, respondeu "Toronto"
-
14:57 - 14:59na categoria "cidade dos EUA"!
-
15:00 - 15:02O incrível sistema também cometeu um erro
-
15:03 - 15:07que um humano jamais faria,
uma criança não cometeria. -
15:07 - 15:10Nossa inteligência artifical pode falhar
-
15:10 - 15:13de formas que não se encaixam
nos padrões de erros humanos, -
15:13 - 15:16de formas que não esperamos
e para as quais não estamos preparados. -
15:16 - 15:20Seria péssimo não conseguir um emprego
para o qual se está qualificado, -
15:20 - 15:23mas seria triplamente péssimo
se fosse por causa de um "stack overflow" -
15:23 - 15:25em alguma sub-rotina.
-
15:25 - 15:27(Risos)
-
15:27 - 15:29Em maio de 2010,
-
15:29 - 15:33uma baixa repentina em Wall Street,
alimentada pelo sistema de autoajuste -
15:33 - 15:36do algoritmo de "venda",
-
15:36 - 15:41varreu US$ 1 trilhão em 36 minutos.
-
15:42 - 15:44Não quero nem pensar
no que significaria "erro" -
15:44 - 15:48no contexto de armas letais autônomas.
-
15:50 - 15:54Então, sim, os seres humanos
sempre foram tendenciosos. -
15:54 - 15:56Tomadores de decisão e controladores,
-
15:56 - 15:59em tribunais, na mídia, na guerra...
-
15:59 - 16:02eles cometem erros;
mas esse é exatamente meu ponto. -
16:02 - 16:06Não podemos fugir
dessas questões difíceis. -
16:07 - 16:10Não podemos terceirizar
nossas responsabilidades para as máquinas. -
16:11 - 16:14(Aplausos) (Vivas)
-
16:17 - 16:22A inteligência artificial não nos dá
um passe para a "zona livre de ética". -
16:23 - 16:26O cientista de dados Fred Benenson
chama isso de "mathwashing". -
16:26 - 16:28Precisamos fazer o contrário.
-
16:28 - 16:33Precisamos cultivar o escrutínio,
a suspeita e investigação dos algoritmos. -
16:33 - 16:37Precisamos nos assegurar de que temos
responsabilidade algorítmica, -
16:37 - 16:39auditoria e transparência relevante.
-
16:39 - 16:43Precisamos aceitar que trazer
a matemática e a computação -
16:43 - 16:46para negócios humanos confusos,
envolvendo julgamento de valor, -
16:46 - 16:48não traz objetividade;
-
16:48 - 16:52mas que, ao contrário, a complexidade
dos negócios humanos invade os algoritmos. -
16:52 - 16:56Sim, podemos e devemos usar a computação
-
16:56 - 16:58para nos ajudar a tomar decisões melhores.
-
16:58 - 17:03Mas temos de reconhecer
nossa responsabilidade moral para julgar, -
17:03 - 17:06e usar os algoritmos
dentro desse espectro, -
17:06 - 17:11não como uma forma de abdicar de nossas
responsabilidades ou terceirizá-las, -
17:11 - 17:14como se fosse de um ser humano para outro.
-
17:14 - 17:16A inteligência artificial está aí.
-
17:16 - 17:20Isso significa que vamos
ter de nos agarrar firmemente -
17:20 - 17:22aos valores e à ética humanos.
-
17:22 - 17:23Obrigada.
-
17:23 - 17:26(Aplausos) (Vivas)
- Title:
- A inteligência de máquina ressalta a importância da moral humana
- Speaker:
- Zeynep Tufekci
- Description:
-
A inteligência de máquina está aí, e está sendo usada para a tomada de decisões subjetivas. Mas a forma complexa como a inteligência artificial (IA) se desenvolve e se aperfeiçoa, torna difícil entendê-la e mais difícil ainda controlá-la. Nesta palestra de alerta, a tecno-socióloga Zeynep Tufekci explica como as máquinas inteligentes podem falhar de maneiras que não se encaixam nos padrões dos erros humanos -- e de maneiras que não esperamos e para as quais não estamos preparados. "Não podemos terceirizar nossas responsabilidades para as máquinas", ela afirma. "Precisamos nos agarrar de forma bem firme aos valores e à ética humanos."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Claudia Sander approved Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important | ||
Claudia Sander edited Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important | ||
Claudia Sander edited Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important | ||
Claudia Sander edited Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important | ||
Ruy Lopes Pereira accepted Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important | ||
Ruy Lopes Pereira edited Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important | ||
Ruy Lopes Pereira edited Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important | ||
Ruy Lopes Pereira edited Portuguese, Brazilian subtitles for Machine intelligence makes human morals more important |