Return to Video

A inteligência de máquina ressalta a importância da moral humana

  • 0:01 - 0:05
    Meu primeiro emprego na vida foi
    como programadora de computador
  • 0:05 - 0:07
    já no primeiro ano de faculdade,
  • 0:07 - 0:08
    praticamente uma adolescente.
  • 0:09 - 0:11
    Logo que comecei a trabalhar,
  • 0:11 - 0:12
    escrevendo software numa empresa,
  • 0:13 - 0:16
    um gerente que trabalhava lá
    se aproximou de mim
  • 0:16 - 0:18
    e começou a sussurrar:
  • 0:18 - 0:21
    "Ele consegue dizer se estou mentindo?"
  • 0:22 - 0:24
    Não havia mais ninguém na sala.
  • 0:24 - 0:25
    (Risos)
  • 0:25 - 0:29
    "Quem consegue dizer se você está
    mentindo? E por que estamos sussurrando?"
  • 0:30 - 0:33
    O gerente apontou
    para o computador na sala.
  • 0:33 - 0:36
    "Ele consegue dizer se estou mentindo?"
  • 0:38 - 0:42
    Bem, aquele gerente estava tendo
    um caso com a recepcionista.
  • 0:42 - 0:43
    (Risos)
  • 0:43 - 0:45
    E eu ainda era uma adolescente.
  • 0:45 - 0:47
    Assim, gritei sussurrando de volta:
  • 0:47 - 0:51
    "Sim, o computador sabe
    se você está mentindo".
  • 0:51 - 0:53
    (Risos)
  • 0:53 - 0:56
    Eu ri, mas, na verdade,
    estava rindo de mim mesma.
  • 0:56 - 0:59
    Atualmente, há sistemas computacionais
  • 0:59 - 1:03
    que conseguem perceber
    estados emocionais e até mentiras
  • 1:03 - 1:05
    ao processar rostos humanos.
  • 1:05 - 1:10
    Anunciantes e até governos
    estão muito interessados nisso.
  • 1:10 - 1:12
    Tornei-me programadora de computador,
  • 1:12 - 1:15
    pois era uma dessas crianças
    loucas por matemática e ciências.
  • 1:16 - 1:19
    Mas, a uma certa altura,
    descobri as armas nucleares
  • 1:19 - 1:22
    e passei a me preocupar
    com a ética da ciência.
  • 1:22 - 1:23
    Aquilo me perturbou.
  • 1:23 - 1:26
    No entanto, devido
    a circunstâncias familiares,
  • 1:26 - 1:29
    eu também precisava começar
    a trabalhar o mais rápido possível.
  • 1:29 - 1:32
    Assim, pensei comigo mesma:
    "Ei, vou escolher a área técnica,
  • 1:32 - 1:34
    onde posso conseguir
    um emprego facilmente
  • 1:34 - 1:38
    e não tenho de lidar com quaisquer
    questões éticas perturbadoras".
  • 1:39 - 1:41
    Então escolhi os computadores.
  • 1:41 - 1:42
    (Risos)
  • 1:42 - 1:45
    Bem, ha, ha, ha! Eu virei a piada.
  • 1:45 - 1:48
    Hoje, os cientistas da computação
    constroem plataformas
  • 1:48 - 1:52
    que controlam o que um bilhão
    de pessoas veem todos os dias.
  • 1:53 - 1:57
    Eles estão desenvolvendo carros
    que poderiam decidir quem atropelar.
  • 1:57 - 1:58
    (Risos)
  • 1:58 - 2:01
    Estão construindo até mesmo
    máquinas e armas
  • 2:01 - 2:03
    que podem matar seres humanos na guerra.
  • 2:03 - 2:06
    É ética o tempo todo.
  • 2:07 - 2:09
    A inteligência de máquina chegou.
  • 2:10 - 2:13
    Hoje em dia usamos a computação
    para tomar todo tipo de decisão,
  • 2:13 - 2:15
    mas também novos tipos de decisão.
  • 2:15 - 2:20
    Perguntamos aos computadores coisas
    que não têm apenas uma resposta correta,
  • 2:20 - 2:24
    que são subjetivas, abertas
    e que envolvem julgamento de valor.
  • 2:24 - 2:27
    Perguntamos coisas do tipo:
    "Quem a empresa deve contratar?"
  • 2:28 - 2:31
    "Que atualização de qual amigo
    deve ser mostrada?"
  • 2:31 - 2:34
    "Qual condenado tem mais chance
    de reincidir num crime?"
  • 2:34 - 2:37
    "Quais notícias ou filmes devem
    ser recomendados às pessoas?"
  • 2:37 - 2:40
    Sim, temos usado os computadores
    já faz um bom tempo,
  • 2:40 - 2:42
    mas isso é diferente.
  • 2:42 - 2:44
    Essa é uma virada histórica,
  • 2:44 - 2:49
    pois não podemos confiar na computação
    para essas decisões subjetivas
  • 2:49 - 2:53
    da mesma forma que podemos confiar
    na computação para pilotar aviões,
  • 2:53 - 2:56
    construir pontes, ir à Lua.
  • 2:56 - 3:00
    Os aviões estão mais seguros?
    A ponte balançou e caiu?
  • 3:00 - 3:04
    Nesses casos, concordamos de forma
    bem clara com os parâmetros,
  • 3:04 - 3:06
    e temos as leis da natureza como baliza.
  • 3:07 - 3:10
    Nós não temos tais âncoras ou marcos
  • 3:10 - 3:14
    para a tomada de decisões
    em negócios humanos confusos.
  • 3:14 - 3:18
    Para complicar ainda mais as coisas,
    nosso software está ficando mais poderoso,
  • 3:18 - 3:22
    mas também menos transparente
    e mais complexo.
  • 3:23 - 3:25
    Recentemente, na década passada,
  • 3:25 - 3:27
    algoritmos complexos deram passos enormes.
  • 3:27 - 3:30
    Eles conseguem reconhecer rostos humanos.
  • 3:30 - 3:32
    Eles conseguem decifrar caligrafia.
  • 3:32 - 3:36
    Eles conseguem detectar fraude
    de cartão de crédito, bloquear spam,
  • 3:36 - 3:38
    conseguem traduzir línguas
  • 3:38 - 3:40
    e detectar tumores em exames de imagem.
  • 3:40 - 3:43
    Conseguem vencer humanos
    em jogos de xadrez e Go.
  • 3:43 - 3:48
    Muito desse progresso vem de um método
    chamado "aprendizado de máquina".
  • 3:48 - 3:51
    O aprendizado de máquina é diferente
    da programação tradicional
  • 3:51 - 3:55
    em que instruções detalhadas, exatas
    e meticulosas são dadas ao computador.
  • 3:55 - 4:00
    É mais como pegar um sistema
    e alimentá-lo com montes de dados,
  • 4:00 - 4:01
    incluindo dados não estruturados,
  • 4:01 - 4:04
    como os que geramos
    em nossas vidas digitais.
  • 4:04 - 4:06
    E o sistema aprende revirando esses dados.
  • 4:07 - 4:08
    Além disso, fundamentalmente,
  • 4:08 - 4:13
    esses sistemas não operam
    sob a lógica de uma resposta única.
  • 4:13 - 4:16
    Eles não produzem uma resposta
    simples; é mais probabilidade:
  • 4:16 - 4:19
    "É provável que isto aqui seja
    o que você está procurando".
  • 4:20 - 4:23
    Bem, a vantagem é que esse método
    é realmente poderoso.
  • 4:23 - 4:25
    O responsável pela IA do Google o chamou
  • 4:25 - 4:27
    de "a eficácia irracional dos dados".
  • 4:28 - 4:29
    O lado negativo é
  • 4:30 - 4:33
    não sabermos realmente
    o que o sistema aprendeu.
  • 4:33 - 4:35
    Na realidade, é aí que está seu poder.
  • 4:35 - 4:39
    Isso tem pouco a ver com dar
    instruções a um computador;
  • 4:39 - 4:43
    é mais como adestrar uma máquina-filhote
  • 4:43 - 4:46
    que não controlamos
    ou conhecemos de verdade.
  • 4:46 - 4:46
    (Risos)
  • 4:46 - 4:48
    Então, este é o nosso problema.
  • 4:48 - 4:49
    É um problema
  • 4:49 - 4:53
    quando esse sistema de inteligência
    artificial entende as coisas errado.
  • 4:53 - 4:56
    Também é um problema
    quando ele entende certo,
  • 4:56 - 5:00
    pois não sabemos distinguir os dois
    quando se trata de um problema subjetivo.
  • 5:00 - 5:02
    Não sabemos o que esta coisa
    está pensando.
  • 5:03 - 5:07
    Por exemplo, vamos imaginar
    um algoritmo de contratação,
  • 5:08 - 5:11
    um sistema usado para contratar pessoas,
  • 5:11 - 5:13
    usando o aprendizado de máquina.
  • 5:13 - 5:17
    Tal sistema teria sido treinado
    em dados prévios dos empregados
  • 5:17 - 5:19
    e treinado para encontrar e contratar
  • 5:19 - 5:22
    pessoas como os atuais empregados
    com alto desempenho na empresa.
  • 5:23 - 5:24
    Parece uma coisa boa.
  • 5:24 - 5:26
    Uma vez, fui a um seminário
  • 5:26 - 5:29
    que reuniu gerentes e executivos
    da área de recursos humanos,
  • 5:29 - 5:32
    pessoas de alto nível,
    usando tais sistemas para contratar.
  • 5:32 - 5:34
    Eles estavam muito empolgados.
  • 5:34 - 5:38
    Achavam que isso tornaria a contratação
    mais objetiva, menos parcial,
  • 5:38 - 5:41
    e daria a mulheres e minorias
    uma melhor oportunidade
  • 5:41 - 5:44
    versus gerentes humanos tendenciosos.
  • 5:44 - 5:46
    Pois vejam: a contratação
    humana é tendenciosa.
  • 5:47 - 5:48
    Sei bem disso.
  • 5:48 - 5:51
    Quero dizer, num dos meus primeiros
    empregos como programadora,
  • 5:51 - 5:55
    minha gerente imediata
    às vezes vinha ao meu setor
  • 5:55 - 5:59
    bem cedinho pela manhã
    ou bem no final da tarde,
  • 5:59 - 6:02
    e me chamava: "Zeynep, vamos almoçar!"
  • 6:03 - 6:05
    Eu ficava atônita com o horário estranho.
  • 6:05 - 6:07
    Eram quatro da tarde. Almoço?
  • 6:07 - 6:10
    Eu não tinha grana, então,
    almoço grátis, eu sempre ia.
  • 6:10 - 6:13
    Só mais tarde percebi
    o que estava acontecendo.
  • 6:13 - 6:17
    Meus gerentes imediatos não tinham
    confessado a seus superiores
  • 6:17 - 6:21
    que a programadora que tinham contratado
    para um emprego sério era uma adolescente
  • 6:22 - 6:25
    que vinha trabalhar de jeans e tênis.
  • 6:25 - 6:27
    Eu trabalhava direito, só parecia errada,
  • 6:27 - 6:29
    e tinha a idade e o gênero errados.
  • 6:29 - 6:32
    Assim, contratar independente
    da raça e do gênero
  • 6:32 - 6:35
    certamente me parece uma coisa boa.
  • 6:35 - 6:39
    Mas, com esses sistemas,
    é mais complicado, e eis a razão:
  • 6:39 - 6:45
    hoje, sistemas de computador podem
    inferir todo tipo de coisas sobre nós
  • 6:45 - 6:47
    por meio de nossas pegadas digitais,
  • 6:47 - 6:49
    mesmo coisas que não tivermos revelado.
  • 6:50 - 6:52
    Eles podem inferir
    nossa orientação sexual,
  • 6:53 - 6:55
    os traços de nossa personalidade,
  • 6:55 - 6:56
    nossas tendências políticas.
  • 6:57 - 7:01
    Eles têm poder preditivo
    com altos níveis de precisão.
  • 7:01 - 7:06
    Vejam bem, para coisas
    que não revelamos: isso é inferência.
  • 7:06 - 7:09
    Tenho uma amiga que desenvolveu
    um sistema de computador
  • 7:09 - 7:13
    para predizer a probabilidade
    de depressão clínica pós-parto
  • 7:13 - 7:14
    com base em dados de mídia social.
  • 7:15 - 7:16
    Os resultados são impressionantes.
  • 7:16 - 7:20
    O sistema dela prevê
    a probabilidade de depressão
  • 7:20 - 7:24
    meses antes do surgimento
    de quaisquer sintomas,
  • 7:24 - 7:25
    meses antes.
  • 7:25 - 7:27
    Mesmo sem sintomas, ele prevê.
  • 7:27 - 7:31
    Ela espera que isso seja usado
    para intervenção precoce.
  • 7:31 - 7:32
    Ótimo!
  • 7:33 - 7:35
    Mas coloque isso
    no contexto da contratação.
  • 7:36 - 7:39
    Então, nesse seminário
    de gerentes de recursos humanos,
  • 7:39 - 7:43
    eu me aproximei de uma gerente
    com alto cargo numa grande empresa,
  • 7:44 - 7:48
    e perguntei a ela: "Olhe,
    e se, sem seu conhecimento,
  • 7:48 - 7:55
    seu sistema estiver cortando pessoas
    com probabilidade de depressão futura?
  • 7:56 - 8:00
    Elas não estão deprimidas agora,
    mas, no futuro, bem provavelmente.
  • 8:00 - 8:03
    E se estiver cortando mulheres
    com maior probabilidade de engravidar
  • 8:03 - 8:06
    dentro de um ou dois anos,
    mas que não estejam grávidas agora?
  • 8:07 - 8:12
    E se contratar pessoas agressivas
    por causa da cultura da empresa?
  • 8:13 - 8:16
    Não se pode saber isso
    com análises de gênero.
  • 8:16 - 8:17
    Isso pode estar equacionado.
  • 8:17 - 8:21
    E, como isso é aprendizado de máquina,
    não é codificação tradicional,
  • 8:21 - 8:26
    não há uma variável chamada
    'alto risco de depressão',
  • 8:26 - 8:28
    'maior risco de gravidez',
  • 8:28 - 8:30
    'pessoa altamente agressiva'.
  • 8:30 - 8:34
    Não só você não sabe o que
    seu sistema está selecionando,
  • 8:34 - 8:36
    como também não sabe onde começar a olhar.
  • 8:36 - 8:37
    É uma caixa-preta.
  • 8:37 - 8:40
    Ele tem poder preditivo,
    mas você não o entende.
  • 8:40 - 8:43
    Que salvaguardas", perguntei, "você teria
  • 8:43 - 8:47
    para se assegurar de que sua caixa-preta
    não está fazendo algo suspeito?"
  • 8:49 - 8:53
    Ela olhou para mim como se eu tivesse
    pisado no rabo de dez cachorrinhos.
  • 8:53 - 8:54
    (Risos)
  • 8:54 - 8:56
    Ela olhou bem pra mim e falou:
  • 8:57 - 9:01
    "Eu não quero ouvir
    nem mais uma palavra sobre isso".
  • 9:01 - 9:04
    E virou as costas e foi embora.
  • 9:04 - 9:06
    Vejam bem, ela não foi rude.
  • 9:06 - 9:07
    Era claramente:
  • 9:07 - 9:12
    "O que eu não sei não é problema meu,
    vai embora, agourenta".
  • 9:12 - 9:13
    (Risos)
  • 9:14 - 9:18
    Vejam, tal sistema pode até
    ser menos tendencioso
  • 9:18 - 9:20
    do que gerentes humanos de alguma forma.
  • 9:20 - 9:22
    E poderia fazer sentido financeiramente.
  • 9:23 - 9:24
    Mas também poderia levar
  • 9:24 - 9:29
    a um constante mas sorrateiro
    fechamento do mercado de trabalho
  • 9:29 - 9:31
    para pessoas com alto risco de depressão.
  • 9:32 - 9:34
    É esse tipo de sociedade
    que queremos construir,
  • 9:34 - 9:37
    sem nem sequer saber que fizemos isso,
  • 9:37 - 9:41
    por termos dado às máquinas um poder
    de decisão que não entendemos totalmente?
  • 9:41 - 9:43
    Outro problema é o seguinte:
  • 9:43 - 9:48
    esses sistemas normalmente são treinados
    com dados gerados pelas nossas ações,
  • 9:48 - 9:50
    vestígios humanos.
  • 9:50 - 9:54
    Bem, eles poderiam estar apenas
    refletindo nossas tendências,
  • 9:54 - 9:58
    e esses sistemas poderiam
    estar pegando nossas tendências,
  • 9:58 - 10:02
    amplificando-as e devolvendo-as para nós,
    enquanto dizemos a nós mesmos:
  • 10:02 - 10:05
    "Estamos fazendo apenas
    computação objetiva e neutra".
  • 10:06 - 10:09
    Pesquisadores descobriram que, no Google,
  • 10:10 - 10:15
    são mostrados menos anúncios de empregos
    bem pagos às mulheres do que aos homens.
  • 10:16 - 10:19
    E, numa pesquisa de nomes afro-americanos,
  • 10:19 - 10:24
    é provável que nos sejam mostrados
    anúncios sugerindo história criminal,
  • 10:24 - 10:26
    mesmo quando não há nenhuma.
  • 10:27 - 10:30
    Tais tendências escondidas
    e algoritmos caixas-pretas,
  • 10:30 - 10:34
    que os pesquisadores às vezes revelam,
    mas às vezes desconhecemos,
  • 10:34 - 10:37
    podem afetar a vida das pessoas.
  • 10:38 - 10:42
    Em Wisconsin, um réu foi sentenciado
    a seis anos de prisão
  • 10:42 - 10:44
    por fugir da polícia.
  • 10:45 - 10:46
    Talvez não saibam disso,
  • 10:46 - 10:50
    mas os algoritmos estão sendo cada vez
    mais usados em decisões judiciais.
  • 10:50 - 10:53
    E o réu quis saber:
    como esse número foi calculado?
  • 10:54 - 10:55
    É uma caixa-preta comercial.
  • 10:55 - 11:00
    A empresa se recusou a ter
    seu algoritmo exposto no tribunal.
  • 11:00 - 11:04
    Mas a ProPublica, uma organização
    investigativa sem fins lucrativos,
  • 11:04 - 11:08
    auditou esse algoritmo com os dados
    públicos que conseguiu encontrar
  • 11:08 - 11:10
    e descobriu que os resultados
    eram tendenciosos,
  • 11:10 - 11:14
    e seu poder preditivo era deplorável,
    apenas um pouco melhor do que o acaso,
  • 11:14 - 11:18
    e estava rotulando erroneamente
    réus negros como futuros criminosos
  • 11:18 - 11:22
    duas vezes mais do que os réus brancos.
  • 11:24 - 11:26
    Vejam por exemplo este caso:
  • 11:26 - 11:30
    esta mulher se atrasou
    para buscar sua parente
  • 11:30 - 11:32
    numa escola no Condado
    de Broward, na Flórida.
  • 11:33 - 11:35
    Correndo pela rua com uma amiga,
  • 11:35 - 11:39
    elas viram uma bicicleta sem cadeado
    e uma lambreta numa varanda
  • 11:39 - 11:41
    e, impensadamente, pularam nela.
  • 11:41 - 11:43
    Quando estavam indo embora,
    uma mulher saiu e falou:
  • 11:43 - 11:46
    "Ei! Esta é a bicicleta do meu filho!"
  • 11:46 - 11:49
    Elas largaram a bicicleta,
    fugiram, mas foram presas.
  • 11:49 - 11:53
    Ela errou, foi infantil,
    mas tinha apenas 18 anos.
  • 11:53 - 11:56
    Ela tinha algumas contravenções juvenis.
  • 11:56 - 12:01
    Enquanto isso, aquele homem
    tinha sido preso por furtar na Home Depot
  • 12:01 - 12:04
    bens no valor de US$ 85,
    um crime pequeno similar.
  • 12:05 - 12:09
    Mas ele tinha duas condenações
    prévias por roubo à mão armada.
  • 12:10 - 12:14
    No entanto, o algoritmo a classificou
    como sendo de alto risco, e ele não.
  • 12:15 - 12:18
    Dois anos depois, a ProPublica descobriu
    que ela não tinha reincidido em crime.
  • 12:18 - 12:21
    E foi muito difícil conseguir
    um emprego com esse histórico.
  • 12:21 - 12:23
    Ele, por outro lado, reincidiu no crime
  • 12:23 - 12:27
    e agora está cumprindo oito anos
    de prisão por um crime posterior.
  • 12:28 - 12:31
    Claramente, precisamos
    auditar nossas caixas-pretas
  • 12:31 - 12:34
    e não deixá-las ter esse tipo
    de poder sem controle.
  • 12:34 - 12:37
    (Aplausos)
  • 12:38 - 12:42
    Auditorias são ótimas e importantes,
    mas não resolvem todos os problemas.
  • 12:42 - 12:45
    Peguem o poderoso algoritmo do Facebook.
  • 12:45 - 12:50
    Sabe aquele que escolhe o que nos mostrar
  • 12:50 - 12:52
    entre todos os amigos
    e páginas que seguimos?
  • 12:53 - 12:55
    Será que deveriam lhe mostrar
    uma outra foto de bebê?
  • 12:55 - 12:56
    (Risos)
  • 12:56 - 12:59
    Um comentário estranho de um conhecido?
  • 12:59 - 13:01
    Uma notícia importante, mas difícil?
  • 13:01 - 13:03
    Não existe resposta certa.
  • 13:03 - 13:05
    O Facebook o aperfeiçoa pelo uso do site:
  • 13:06 - 13:08
    curtidas, compartilhamentos, comentários.
  • 13:08 - 13:11
    Em agosto de 2014,
  • 13:11 - 13:14
    houve uma onda de protestos
    em Ferguson, no Missouri,
  • 13:14 - 13:18
    depois do assassinato de um adolescente
    afro-americano por um policial branco,
  • 13:18 - 13:20
    sob circunstâncias nebulosas.
  • 13:20 - 13:22
    Notícias sobre os protestos
    estavam por toda parte
  • 13:22 - 13:25
    no "feed" do meu Twitter
    sem algoritmo de filtragem,
  • 13:25 - 13:27
    mas em nenhum lugar no meu Facebook.
  • 13:27 - 13:29
    Seriam meus amigos no Facebook?
  • 13:29 - 13:31
    Eu desabilitei o algoritmo do Facebook,
  • 13:31 - 13:34
    o que é difícil,
    pois o Facebook espera que nós
  • 13:34 - 13:36
    fiquemos sob o controle do algoritmo,
  • 13:36 - 13:39
    e vi que meus amigos
    estavam falando sobre o assunto.
  • 13:39 - 13:41
    Mas o algoritmo
    simplesmente não mostrava.
  • 13:41 - 13:44
    Fui pesquisar e descobri
    que era um problema geral.
  • 13:44 - 13:48
    A história de Ferguson não
    era compatível com o algoritmo.
  • 13:48 - 13:51
    Não era "curtível";
    quem ia "curtir" aquilo?
  • 13:52 - 13:54
    Não era fácil nem mesmo
    comentar sobre o assunto.
  • 13:54 - 13:55
    Sem curtidas e comentários,
  • 13:55 - 13:59
    era provável que o algoritmo mostrasse
    isso para cada vez menos pessoas,
  • 13:59 - 14:01
    assim, não pudemos ver isto.
  • 14:01 - 14:04
    Em seu lugar, naquela semana,
    o algoritmo do Facebook priorizou isto:
  • 14:04 - 14:07
    o desafio do balde da ELA,
    esclerose lateral amiotrófica.
  • 14:07 - 14:11
    Causa importante: jogar água gelada,
    doar para caridade, tudo bem.
  • 14:11 - 14:13
    Mas era supercompatível com o algoritmo.
  • 14:13 - 14:16
    A máquina tomou essa decisão por nós.
  • 14:16 - 14:19
    Uma conversa muito importante,
    mas muito difícil,
  • 14:19 - 14:21
    teria sido atenuada,
  • 14:21 - 14:24
    caso o Facebook fosse o único canal.
  • 14:24 - 14:28
    Finalmente, esses sistemas
    também podem errar
  • 14:28 - 14:30
    de maneiras diferentes
    dos sistemas humanos.
  • 14:30 - 14:34
    Lembram-se do Watson, o sistema
    de inteligência de máquina da IBM
  • 14:34 - 14:37
    que sempre ganhava, competindo
    com seres humanos num show de TV?
  • 14:37 - 14:39
    Ele era um ótimo jogador.
  • 14:39 - 14:42
    Mas então, na final, foi feita
    a seguinte pergunta a Watson:
  • 14:42 - 14:46
    "Seu maior aeroporto possui o nome
    de um herói da Segunda Guerra,
  • 14:46 - 14:48
    a maior grande batalha da Segunda Guerra".
  • 14:48 - 14:49
    (Cantarola música do show)
  • 14:50 - 14:51
    "Chicago."
  • 14:51 - 14:53
    Os dois seres humanos acertaram.
  • 14:53 - 14:57
    Watson, por sua vez, respondeu "Toronto"
  • 14:57 - 14:59
    na categoria "cidade dos EUA"!
  • 15:00 - 15:02
    O incrível sistema também cometeu um erro
  • 15:03 - 15:07
    que um humano jamais faria,
    uma criança não cometeria.
  • 15:07 - 15:10
    Nossa inteligência artifical pode falhar
  • 15:10 - 15:13
    de formas que não se encaixam
    nos padrões de erros humanos,
  • 15:13 - 15:16
    de formas que não esperamos
    e para as quais não estamos preparados.
  • 15:16 - 15:20
    Seria péssimo não conseguir um emprego
    para o qual se está qualificado,
  • 15:20 - 15:23
    mas seria triplamente péssimo
    se fosse por causa de um "stack overflow"
  • 15:23 - 15:25
    em alguma sub-rotina.
  • 15:25 - 15:27
    (Risos)
  • 15:27 - 15:29
    Em maio de 2010,
  • 15:29 - 15:33
    uma baixa repentina em Wall Street,
    alimentada pelo sistema de autoajuste
  • 15:33 - 15:36
    do algoritmo de "venda",
  • 15:36 - 15:41
    varreu US$ 1 trilhão em 36 minutos.
  • 15:42 - 15:44
    Não quero nem pensar
    no que significaria "erro"
  • 15:44 - 15:48
    no contexto de armas letais autônomas.
  • 15:50 - 15:54
    Então, sim, os seres humanos
    sempre foram tendenciosos.
  • 15:54 - 15:56
    Tomadores de decisão e controladores,
  • 15:56 - 15:59
    em tribunais, na mídia, na guerra...
  • 15:59 - 16:02
    eles cometem erros;
    mas esse é exatamente meu ponto.
  • 16:02 - 16:06
    Não podemos fugir
    dessas questões difíceis.
  • 16:07 - 16:10
    Não podemos terceirizar
    nossas responsabilidades para as máquinas.
  • 16:11 - 16:14
    (Aplausos) (Vivas)
  • 16:17 - 16:22
    A inteligência artificial não nos dá
    um passe para a "zona livre de ética".
  • 16:23 - 16:26
    O cientista de dados Fred Benenson
    chama isso de "mathwashing".
  • 16:26 - 16:28
    Precisamos fazer o contrário.
  • 16:28 - 16:33
    Precisamos cultivar o escrutínio,
    a suspeita e investigação dos algoritmos.
  • 16:33 - 16:37
    Precisamos nos assegurar de que temos
    responsabilidade algorítmica,
  • 16:37 - 16:39
    auditoria e transparência relevante.
  • 16:39 - 16:43
    Precisamos aceitar que trazer
    a matemática e a computação
  • 16:43 - 16:46
    para negócios humanos confusos,
    envolvendo julgamento de valor,
  • 16:46 - 16:48
    não traz objetividade;
  • 16:48 - 16:52
    mas que, ao contrário, a complexidade
    dos negócios humanos invade os algoritmos.
  • 16:52 - 16:56
    Sim, podemos e devemos usar a computação
  • 16:56 - 16:58
    para nos ajudar a tomar decisões melhores.
  • 16:58 - 17:03
    Mas temos de reconhecer
    nossa responsabilidade moral para julgar,
  • 17:03 - 17:06
    e usar os algoritmos
    dentro desse espectro,
  • 17:06 - 17:11
    não como uma forma de abdicar de nossas
    responsabilidades ou terceirizá-las,
  • 17:11 - 17:14
    como se fosse de um ser humano para outro.
  • 17:14 - 17:16
    A inteligência artificial está aí.
  • 17:16 - 17:20
    Isso significa que vamos
    ter de nos agarrar firmemente
  • 17:20 - 17:22
    aos valores e à ética humanos.
  • 17:22 - 17:23
    Obrigada.
  • 17:23 - 17:26
    (Aplausos) (Vivas)
Title:
A inteligência de máquina ressalta a importância da moral humana
Speaker:
Zeynep Tufekci
Description:

A inteligência de máquina está aí, e está sendo usada para a tomada de decisões subjetivas. Mas a forma complexa como a inteligência artificial (IA) se desenvolve e se aperfeiçoa, torna difícil entendê-la e mais difícil ainda controlá-la. Nesta palestra de alerta, a tecno-socióloga Zeynep Tufekci explica como as máquinas inteligentes podem falhar de maneiras que não se encaixam nos padrões dos erros humanos -- e de maneiras que não esperamos e para as quais não estamos preparados. "Não podemos terceirizar nossas responsabilidades para as máquinas", ela afirma. "Precisamos nos agarrar de forma bem firme aos valores e à ética humanos."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Portuguese, Brazilian subtitles

Revisions