Return to Video

A Inteligência Artificial torna a moral humana mais importante

  • 0:02 - 0:05
    Comecei a trabalhar
    como programadora informática
  • 0:05 - 0:07
    no meu primeiro ano de faculdade
  • 0:07 - 0:09
    — basicamente uma adolescente.
  • 0:09 - 0:11
    Pouco depois de começar a trabalhar,
  • 0:11 - 0:13
    a programar software numa empresa.
  • 0:13 - 0:16
    um gestor que trabalhava na empresa
  • 0:16 - 0:18
    veio ter comigo e segredou-me:
  • 0:18 - 0:21
    "Ele consegue saber se eu estou a mentir?"
  • 0:22 - 0:24
    Não havia mais ninguém na sala.
  • 0:25 - 0:30
    "Quem poderá saber que você está a mentir?
    Porque é que está a segredar?"
  • 0:30 - 0:33
    O gestor apontou
    para o computador na sala.
  • 0:33 - 0:37
    "Ele consegue saber se eu estou a mentir?"
  • 0:39 - 0:42
    Aquele gestor tinha
    um caso romântico com a rececionista.
  • 0:42 - 0:43
    (Risos)
  • 0:43 - 0:45
    Eu ainda era uma adolescente.
  • 0:45 - 0:48
    Por isso, sussurrei-gritei:
  • 0:48 - 0:51
    "Sim, o computador sabe
    que você está a mentir."
  • 0:51 - 0:53
    (Risos)
  • 0:53 - 0:56
    Bem, eu ri-me, mas, na verdade,
    hoje riem-se de mim.
  • 0:57 - 0:59
    Hoje em dia, há sistemas informáticos
  • 0:59 - 1:03
    que conseguem detetar
    estados emocionais e mesmo a mentira
  • 1:03 - 1:05
    processando apenas os rostos humanos.
  • 1:05 - 1:10
    Os publicitários e mesmo os governos
    estão muito interessados nesta tecnologia.
  • 1:10 - 1:12
    Tornei-me programadora informática
  • 1:12 - 1:15
    porque era uma criança
    louca por matemática e ciências.
  • 1:16 - 1:19
    Mas, ao longo do caminho
    descobri as armas nucleares
  • 1:19 - 1:22
    e fiquei muito preocupada
    com a ética da ciência.
  • 1:22 - 1:23
    Fiquei perturbada.
  • 1:23 - 1:26
    No entanto,
    devido a circunstâncias familiares,
  • 1:26 - 1:29
    também precisava de começar a trabalhar
    o mais cedo possível.
  • 1:29 - 1:33
    Então pensei:
    "Bem, vou escolher uma área técnica
  • 1:33 - 1:35
    "onde facilmente consiga um emprego
  • 1:35 - 1:39
    "e onde não tenha que lidar
    com essas questões incómodas da ética".
  • 1:39 - 1:41
    Escolhi a informática.
  • 1:41 - 1:42
    (Risos)
  • 1:42 - 1:45
    Bem, ha, ha, ha!
    Riam-se todos de mim.
  • 1:46 - 1:49
    Hoje, os cientistas de informática
    estão a construir plataformas
  • 1:49 - 1:52
    que controlam o que mil milhões
    de pessoas veem todos os dias.
  • 1:53 - 1:57
    Estão a desenvolver carros
    que podem decidir quem atropelar.
  • 1:58 - 2:01
    Estão inclusive a construir
    máquinas, armas,
  • 2:01 - 2:03
    que poderão matar
    seres humanos, em guerras.
  • 2:04 - 2:06
    Há ética por todo o lado.
  • 2:07 - 2:10
    A inteligência artificial já chegou.
  • 2:10 - 2:13
    Estamos a usar a informática
    para tomar todo o tipo de decisões,
  • 2:13 - 2:15
    mas também novos tipos de decisões.
  • 2:15 - 2:20
    Estamos a fazer perguntas
    que não têm uma resposta certa,
  • 2:20 - 2:22
    que são subjetivas,
  • 2:22 - 2:24
    estão em aberto e assentam em valores.
  • 2:24 - 2:26
    Fazemos perguntas como:
  • 2:26 - 2:28
    "Quem é que a empresa deve contratar?"
  • 2:28 - 2:31
    "Que notícias de que amigo
    devemos mostrar?"
  • 2:31 - 2:33
    "Qual o prisioneiro
    que reincidirá mais facilmente?""
  • 2:34 - 2:37
    "Que notícia ou filme
    deve ser recomendado?"
  • 2:37 - 2:40
    Sim, já utilizamos
    os computadores há algum tempo,
  • 2:40 - 2:42
    mas isto é diferente.
  • 2:42 - 2:44
    Esta é uma mudança histórica,
  • 2:44 - 2:47
    porque não podemos
    apoiar-nos na informática
  • 2:47 - 2:49
    para decisões tão subjetivas,
  • 2:49 - 2:52
    do mesmo modo que podemos
    apoiar-nos na informática
  • 2:52 - 2:55
    para pôr aviões no ar,
    para construir pontes,
  • 2:55 - 2:56
    para voar até à lua.
  • 2:56 - 3:00
    Os aviões são mais seguros?
    Será que a ponte vai balançar e cair?
  • 3:00 - 3:04
    Nestes casos, chegámos a acordo
    sobre referências bastante claras,
  • 3:04 - 3:07
    tendo as leis da natureza para nos guiar.
  • 3:07 - 3:11
    Não temos esses apoios e referências
  • 3:11 - 3:15
    para as decisões sobre
    os complexos assuntos humanos.
  • 3:15 - 3:18
    Para complicar ainda mais,
    o software está cada vez mais poderoso,
  • 3:18 - 3:22
    mas também está a ficar
    menos transparente e mais complexo.
  • 3:23 - 3:25
    Recentemente, na última década,
  • 3:25 - 3:27
    os algoritmos complexos
    alcançaram grandes feitos.
  • 3:27 - 3:30
    Conseguem reconhecer rostos humanos.
  • 3:30 - 3:32
    Podem decifrar a caligrafia.
  • 3:32 - 3:36
    Detetam fraudes de cartões de crédito
    e bloqueiam "spam".
  • 3:36 - 3:38
    Conseguem traduzir idiomas.
  • 3:38 - 3:40
    Conseguem detetar
    tumores em imagens médicas.
  • 3:40 - 3:43
    Vencem os humanos no xadrez e no "Go".
  • 3:43 - 3:46
    Grande parte deste progresso obteve-se
  • 3:46 - 3:48
    com o método chamado
    "aprendizagem de máquina."
  • 3:48 - 3:52
    A "aprendizagem de máquina"
    é diferente da programação tradicional,
  • 3:52 - 3:55
    na qual se dá ao computador instruções
    detalhadas, meticulosas e exatas.
  • 3:55 - 4:00
    Com este novo método, disponibilizam-se
    grandes quantidades de dados ao sistema,
  • 4:00 - 4:01
    — incluindo dados não estruturados,
  • 4:01 - 4:04
    como os que geramos
    na nossa vida digital.
  • 4:04 - 4:06
    O sistema aprende
    analisando esses dados.
  • 4:07 - 4:08
    Para além disso,
  • 4:08 - 4:13
    estes sistemas não funcionam
    sob uma lógica de resposta única.
  • 4:13 - 4:16
    Não produzem uma resposta única;
    é mais probabilista:
  • 4:16 - 4:19
    "Isto, provavelmente,
    está mais próximo do que procura."
  • 4:20 - 4:24
    A vantagem é que
    este método é muito poderoso.
  • 4:23 - 4:26
    O chefe de sistemas da IA
    do Google, chamou-lhe:
  • 4:26 - 4:28
    "A eficácia irracional dos dados".
  • 4:28 - 4:30
    A desvantagem é que
  • 4:30 - 4:33
    não entendemos concretamente
    o que o sistema aprendeu.
  • 4:33 - 4:35
    Na verdade, é essa a sua força.
  • 4:35 - 4:39
    É menos como dar instruções ao computador
  • 4:39 - 4:43
    e mais como treinar
    um filhote de máquina-criatura
  • 4:44 - 4:46
    que não entendemos nem controlamos.
  • 4:46 - 4:48
    Portanto, este é o problema.
  • 4:48 - 4:53
    É problemático quando a IA
    compreende mal as coisas.
  • 4:53 - 4:56
    É também um problema
    quando as compreende bem,
  • 4:57 - 5:00
    porque nem sabemos o que é o quê
    quando se trata de um problema subjetivo.
  • 5:00 - 5:03
    Nós não sabemos
    o que a máquina está a pensar.
  • 5:03 - 5:07
    Assim, considerem
    um algoritmo de contratação
  • 5:08 - 5:13
    — um sistema usado para contratar pessoas,
    utilizando a aprendizagem de máquina.
  • 5:13 - 5:17
    Tal sistema teria sido treinado
    com dados dos empregados anteriores
  • 5:17 - 5:20
    e instruído para encontrar
    e contratar pessoas
  • 5:20 - 5:23
    semelhantes aos melhores profissionais
    da empresa.
  • 5:23 - 5:24
    Parece bem.
  • 5:24 - 5:26
    Uma vez, fui a uma conferência
  • 5:26 - 5:29
    que juntou gestores
    de recursos humanos e executivos.
  • 5:29 - 5:32
    Pessoas de alto nível, que usam
    esses sistemas para contratar
  • 5:32 - 5:34
    Estavam super entusiasmados,
  • 5:34 - 5:38
    Achavam que isto tornaria a contratação
    mais objetiva, menos tendenciosa,
  • 5:38 - 5:41
    e daria mais hipóteses
    às mulheres e minorias,
  • 5:41 - 5:44
    ao contrário dos gestores
    de RH tendenciosos.
  • 5:44 - 5:47
    Notem, a contratação humana
    é tendenciosa.
  • 5:47 - 5:48
    Eu bem sei.
  • 5:49 - 5:52
    Num dos meus primeiros empregos
    como programadora,
  • 5:52 - 5:55
    a minha chefe imediata,
    às vezes vinha ter comigo,
  • 5:55 - 5:59
    muito cedo de manhã
    ou muito ao final da tarde,
  • 5:59 - 6:02
    e dizia:
    "Zeynep, vamos almoçar!"
  • 6:03 - 6:05
    Eu ficava intrigada
    com aquele horário estranho.
  • 6:05 - 6:07
    São 16 horas. Almoço?
  • 6:07 - 6:10
    Como estava sem dinheiro
    — almoço grátis — aceitava sempre.
  • 6:11 - 6:13
    Mais tarde percebi porquê:
  • 6:13 - 6:17
    Os meus chefes diretos
    não tinham informado os superiores
  • 6:17 - 6:20
    que o programador contratado
    para um trabalho sério
  • 6:20 - 6:22
    era uma garota adolescente
  • 6:22 - 6:25
    que usava "jeans" e ténis para trabalhar.
  • 6:25 - 6:28
    Eu fazia um bom trabalho,
    mas tinha um aspeto não convencional
  • 6:28 - 6:30
    e tinha a idade e sexo errados.
  • 6:30 - 6:33
    Logo, contratar sem olhar
    ao sexo e à etnia
  • 6:33 - 6:35
    claro que me soa bem.
  • 6:35 - 6:39
    Mas com estes sistemas,
    é mais complicado. E porquê?
  • 6:39 - 6:42
    Atualmente, os sistemas informáticos
  • 6:42 - 6:45
    conseguem inferir
    todo o tipo de coisas sobre a pessoa
  • 6:45 - 6:47
    a partir das suas migalhas digitais,
  • 6:47 - 6:49
    mesmo que a pessoa não tenha
    divulgado essas coisas.
  • 6:50 - 6:53
    Conseguem inferir
    a sua orientação sexual,
  • 6:53 - 6:55
    os seus traços de personalidade,
  • 6:55 - 6:57
    as inclinações políticas.
  • 6:57 - 7:01
    Conseguem prever
    com elevados níveis de precisão.
  • 7:01 - 7:04
    Notem... coisas que nem sequer
    divulgámos conscientemente.
  • 7:04 - 7:06
    Isto é dedução.
  • 7:06 - 7:09
    Tenho uma amiga que desenvolveu
    esses sistemas informáticos,
  • 7:09 - 7:13
    para prever a probabilidade
    de depressão clínica ou pós-parto
  • 7:13 - 7:15
    a partir de dados de redes sociais.
  • 7:15 - 7:16
    Os resultados são impressionantes.
  • 7:16 - 7:20
    O sistema consegue prever
    a probabilidade de depressão
  • 7:20 - 7:24
    meses antes do início
    de quaisquer sintomas
  • 7:24 - 7:25
    — meses antes.
  • 7:25 - 7:27
    Não há sintomas. Há previsão.
  • 7:28 - 7:33
    Ela espera que isso seja usado
    para intervenção precoce. Ótimo!
  • 7:33 - 7:36
    Mas agora coloquem isto
    no contexto da contratação.
  • 7:36 - 7:39
    Na conferência de gestores
    de recursos humanos,
  • 7:39 - 7:45
    aproximei-me de uma gestora de alto nível
    de uma grande empresa e disse-lhe:
  • 7:45 - 7:49
    "O que acha se, sem o seu conhecimento,
  • 7:49 - 7:55
    "o seu sistema estiver a excluir pessoas
    com alto risco de futura depressão?
  • 7:56 - 8:00
    "Não estão deprimidas agora,
    mas talvez no futuro, seja mais provável.
  • 8:00 - 8:03
    "E se está a excluir as mulheres
    com maior probabilidade de engravidar
  • 8:03 - 8:07
    "dentro de um ou dois anos
    mas que não estão grávidas agora?
  • 8:07 - 8:13
    "E se está a contratar pessoas agressivas
    porque essa é a cultura da empresa?
  • 8:13 - 8:16
    "Não nos apercebemos disso
    olhando par a repartição por sexos.
  • 8:16 - 8:18
    Aí até pode estar equilibrado.
  • 8:18 - 8:21
    Como isto é aprendizagem de máquina,
    e não codificação tradicional,
  • 8:21 - 8:26
    não há lá nenhuma variável
    intitulada "maior risco de depressão",
  • 8:26 - 8:28
    "maior risco de gravidez",
  • 8:28 - 8:30
    "escala de agressividade".
  • 8:30 - 8:34
    Não só não se sabe
    o que é que o sistema está a selecionar,
  • 8:34 - 8:36
    como não se sabe
    por onde começar a procurar.
  • 8:36 - 8:38
    É uma caixa preta.
  • 8:38 - 8:40
    Tem poder preditivo,
    mas não conseguimos entendê-la.
  • 8:40 - 8:44
    "Que garantia você tem", perguntei,
  • 8:44 - 8:47
    "de que a sua caixa negra
    não está a fazer algo sombrio?"
  • 8:49 - 8:53
    Ela olhou para mim
    como se eu a tivesse ofendido.
  • 8:53 - 8:54
    (Risos)
  • 8:54 - 8:56
    Olhou para mim e disse:
  • 8:57 - 9:01
    "Não quero ouvir
    nem mais uma palavra sobre isso."
  • 9:01 - 9:04
    Virou-me as costas e foi-se embora.
  • 9:04 - 9:07
    Ela não foi indelicada.
    Foi claramente:
  • 9:07 - 9:12
    "O que eu não sei, não é problema meu.
    Desapareça." Olhar de morte.
  • 9:12 - 9:13
    (Risos)
  • 9:14 - 9:18
    Notem que estes sistemas
    podem ser menos tendenciosos
  • 9:18 - 9:20
    do que os gestores humanos,
    nalguns aspetos.
  • 9:20 - 9:22
    E isso pode fazer sentido economicamente.
  • 9:23 - 9:24
    Mas também pode levar
  • 9:25 - 9:29
    ao fecho constante mas furtivo
    do mercado de trabalho
  • 9:29 - 9:32
    para as pessoas
    com maior risco de depressão.
  • 9:32 - 9:34
    Será este o tipo de sociedade
    que queremos construir,
  • 9:34 - 9:37
    sem sequer saber que o fizemos,
  • 9:37 - 9:39
    porque demos às máquinas
    a tomada de decisões
  • 9:39 - 9:41
    que não compreendemos totalmente?
  • 9:41 - 9:43
    Outro problema é o seguinte:
  • 9:43 - 9:48
    estes sistemas são treinados frequentemente
    com dados gerados pelas nossas ações,
  • 9:48 - 9:50
    impressões humanas.
  • 9:50 - 9:54
    Assim, poderão estar
    a refletir os nossos preconceitos.
  • 9:54 - 9:58
    poderão estar
    a aprender os nossos preconceitos,
  • 9:58 - 10:00
    a amplificá-los e a mostrá-los de novo,
  • 10:00 - 10:03
    enquanto nós pensamos:
  • 10:02 - 10:05
    "Estamos a ser objetivos,
    a informática é neutra".
  • 10:06 - 10:09
    Investigadores verificaram que, no Google,
  • 10:10 - 10:13
    os anúncios para empregos
    com salários elevados
  • 10:13 - 10:16
    aparecem mais para homens
    do que para mulheres.
  • 10:16 - 10:20
    E se procurarmos nomes de afro-americano
  • 10:19 - 10:24
    encontramos mais resultados de anúncios
    sugerindo antecedentes criminais,
  • 10:24 - 10:26
    mesmo quando não há nenhum.
  • 10:27 - 10:30
    Estes preconceitos escondidos
    e algoritmos de caixa-negra
  • 10:30 - 10:34
    que os investigadores por vezes descobrem,
    mas que por vezes nós não descobrimos,
  • 10:34 - 10:37
    podem ter consequências
    capazes de mudar uma vida.
  • 10:38 - 10:42
    No Wisconsin, um réu
    foi condenado a seis anos de prisão
  • 10:42 - 10:44
    por fugir da polícia.
  • 10:45 - 10:46
    Podem não saber,
  • 10:46 - 10:48
    mas os algoritmos são utilizados
  • 10:48 - 10:50
    para a liberdade condicional
    e as condenações.
  • 10:50 - 10:53
    Este réu queria saber
    como era calculada a pontuação.
  • 10:54 - 10:56
    É uma caixa preta comercial.
  • 10:56 - 11:00
    A empresa recusou-se a ver o seu algoritmo
    questionado em tribunal aberto.
  • 11:00 - 11:04
    Mas a ProPublica, uma agência
    de investigação sem fins lucrativos,
  • 11:04 - 11:08
    auditou esse algoritmo
    com os dados públicos que encontrou,
  • 11:08 - 11:11
    e descobriu que os resultados
    eram tendenciosos
  • 11:11 - 11:14
    e o poder de previsão
    era pouco melhor que o acaso.
  • 11:14 - 11:18
    E que estava a sinalizar erradamente
    réus negros como futuros criminosos
  • 11:18 - 11:22
    duas vezes mais do que réus brancos.
  • 11:24 - 11:26
    Considerem o seguinte caso:
  • 11:26 - 11:30
    Esta mulher estava atrasada
    para ir buscar a afilhada
  • 11:30 - 11:33
    a uma escola no condado
    de Broward, Flórida
  • 11:33 - 11:35
    e corria pela rua abaixo com uma amiga.
  • 11:35 - 11:39
    Avistaram uma bicicleta e uma scooter,
    não amarradas, numa varanda
  • 11:39 - 11:41
    e, parvoíce... levaram-nas.
  • 11:41 - 11:44
    Quando estavam a acelerar,
    apareceu uma mulher que disse:
  • 11:44 - 11:47
    "Ei! Essa bicicleta é do meu filho!"
  • 11:46 - 11:49
    Largaram-nas e seguiram caminho,
    mas acabaram por ser presas.
  • 11:49 - 11:53
    Foi errado, foi uma parvoíce,
    mas ela só tinha 18 anos.
  • 11:53 - 11:55
    Tinha alguns delitos juvenis.
  • 11:56 - 11:58
    Entretanto, aquele homem
  • 11:58 - 12:01
    já tinha sido preso
    por furto no Home Depot
  • 12:01 - 12:04
    — um roubo de 85 dólares,
    um crime menor.
  • 12:05 - 12:10
    Mas, para além disso, já tinha
    duas sentenças por assalto à mão armada.
  • 12:10 - 12:14
    Mas o algoritmo marcou-a
    como de alto risco, e não a ele.
  • 12:15 - 12:18
    Dois anos depois, a ProPublica verificou
    que ela não tinha reincidido,
  • 12:18 - 12:21
    mas tinha dificuldade em conseguir
    um emprego, devido ao cadastro.
  • 12:22 - 12:23
    Ele, por outro lado, reincidiu
  • 12:24 - 12:28
    e agora está a cumprir pena de oito anos
    por um crime cometido mais tarde.
  • 12:28 - 12:31
    Necessitamos, claramente,
    de auditar as nossas caixas-negras
  • 12:31 - 12:34
    e não deixá-las ter
    este poder sem controlo.
  • 12:34 - 12:37
    (Aplausos)
  • 12:38 - 12:42
    As auditorias são ótimas e importantes,
    mas não solucionam todos os problemas.
  • 12:42 - 12:45
    Considerem o poderoso algoritmo
    de notícias do Facebook,
  • 12:45 - 12:49
    aquele que classifica
    e decide tudo o que vos mostram
  • 12:50 - 12:52
    de todos os amigos e das páginas
    que vocês seguem.
  • 12:53 - 12:55
    Deverão mostrar-vos
    outra foto de um bebé?
  • 12:55 - 12:56
    (Risos)
  • 12:57 - 12:59
    Uma nota mal-humorado de um conhecido?
  • 12:59 - 13:01
    Uma notícia importante,
    mas incomodativa?
  • 13:01 - 13:03
    Não há uma resposta certa.
  • 13:03 - 13:06
    O Facebook otimiza
    para manter-vos ligado ao site:
  • 13:06 - 13:08
    "likes", partilhas, comentários.
  • 13:08 - 13:11
    Em agosto de 2014,
  • 13:11 - 13:14
    estalaram manifestações
    em Ferguson, no Missouri,
  • 13:14 - 13:18
    após a morte de um jovem afro-americano
    infligida por um polícia branco,
  • 13:18 - 13:20
    em circunstâncias pouco claras.
  • 13:20 - 13:22
    As notícias dos protestos
    apareceram de todos o lados
  • 13:23 - 13:25
    na minha conta de Twitter
    sem filtro de algoritmos,
  • 13:25 - 13:27
    mas em parte alguma no meu Facebook.
  • 13:27 - 13:29
    Foram os meus amigos no Facebook?
  • 13:29 - 13:31
    Desativei o algoritmo do Facebook
  • 13:31 - 13:35
    — o que é difícil, pois o Facebook
    insiste em voltar a incluir-nos
  • 13:35 - 13:36
    sob o controlo do algoritmo —
  • 13:36 - 13:39
    e vi que os meus amigos falavam disso.
  • 13:39 - 13:41
    O algoritmo é que
    não me mostrava essa informação.
  • 13:41 - 13:45
    Fiz pesquisas e verifiquei
    que era um problema generalizado.
  • 13:44 - 13:48
    A história de Ferguson
    não agradava ao algoritmo.
  • 13:48 - 13:50
    Não era "simpática".
  • 13:50 - 13:51
    Quem ia clicar em "Gosto"?"
  • 13:52 - 13:54
    Nem é fácil de comentar.
  • 13:54 - 13:55
    Sem "gosto" e sem comentários,
  • 13:55 - 13:58
    o algoritmo, provavelmente,
    mostrá-la-ia a menos pessoas,
  • 13:58 - 14:00
    e assim nós não a conseguimos ver.
  • 14:01 - 14:02
    Em vez disso, nessa semana,
  • 14:02 - 14:05
    o algoritmo do Facebook destacava isto,
  • 14:05 - 14:07
    o Desafio do Balde de Água Gelada.
  • 14:07 - 14:11
    Uma causa digna: despejar água gelada;
    doar para a caridade. Tudo bem.
  • 14:11 - 14:14
    Mas, para o algoritmo, era super amigável.
  • 14:13 - 14:16
    A máquina tomou essa decisão por nós.
  • 14:16 - 14:19
    Uma conversa muito importante
    mas também difícil
  • 14:19 - 14:21
    poderia ter sido abafada,
  • 14:21 - 14:24
    se o Facebook fosse o único canal.
  • 14:24 - 14:28
    Finalmente, estes sistemas
    também podem cometer erros
  • 14:28 - 14:31
    diferentes dos erros dos sistemas humanos.
  • 14:31 - 14:34
    Lembram-se do Watson,
    a máquina de IA da IBM
  • 14:34 - 14:37
    que eliminou os concorrentes
    humanos no Jeopardy?
  • 14:37 - 14:39
    Foi um grande jogador.
  • 14:39 - 14:42
    Mas depois, na final do Jeopardy,
    quando perguntaram ao Watson:
  • 14:43 - 14:46
    "O maior aeroporto com o nome
    de um herói da II Guerra Mundial,
  • 14:46 - 14:49
    "o segundo maior com o nome
    de uma batalha da II Guerra Mundial."
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:53
    Os dois seres humanos acertaram.
  • 14:53 - 14:57
    Watson, por outro lado,
    respondeu "Toronto"
  • 14:57 - 14:59
    — para uma pergunta sobre cidades dos EUA!
  • 15:00 - 15:03
    O impressionante sistema
    também cometeu um erro
  • 15:03 - 15:07
    que um ser humano nunca iria fazer,
    que uma criança do 1.º ciclo não faria.
  • 15:07 - 15:10
    A inteligência artificial pode falhar
  • 15:10 - 15:13
    de formas que não se encaixam
    nos padrões de erro dos seres humanos.
  • 15:13 - 15:16
    de formas inesperadas e imprevistas.
  • 15:16 - 15:20
    Seria péssimo não conseguir um emprego
    para o qual estamos qualificados,
  • 15:20 - 15:23
    mas seria três vezes pior
    se fosse por causa de um erro
  • 15:23 - 15:25
    de processamento de alguma sub-rotina.
  • 15:25 - 15:27
    (Risos)
  • 15:27 - 15:29
    Em maio de 2010,
  • 15:29 - 15:34
    um acidente relâmpago em Wall Street
    provocado por uma auto alimentação
  • 15:34 - 15:37
    no algoritmo de "vender", em Wall Street,
  • 15:37 - 15:41
    fez perder um bilião de dólares
    em 36 minutos.
  • 15:42 - 15:45
    Eu nem quero pensar
    o que significa "erro"
  • 15:44 - 15:48
    no contexto de armas mortais autónomas.
  • 15:50 - 15:54
    Sim. Os seres humanos
    sempre alimentaram preconceitos.
  • 15:54 - 15:56
    Quem toma decisões e controla
  • 15:56 - 16:00
    nos tribunais, nas notícias, na guerra ...
    comete erros.
  • 16:00 - 16:03
    É esse exatamente o meu ponto.
  • 16:03 - 16:06
    Nós não podemos fugir
    destas perguntas difíceis.
  • 16:07 - 16:10
    Não podemos atribuir
    as nossas responsabilidades às máquinas.
  • 16:11 - 16:14
    (Aplausos)
  • 16:17 - 16:22
    A inteligência artificial não nos dá
    um cartão "Liberte-se da ética".
  • 16:23 - 16:26
    O cientista de dados Fred Benenson
    chama-lhe "lavagem de matemática".
  • 16:26 - 16:28
    Precisamos é do oposto.
  • 16:28 - 16:33
    Temos de cultivar algoritmos de suspeita,
    de análise e de investigação.
  • 16:33 - 16:37
    Precisamos de garantir que assumimos
    a responsabilidade dos algoritmos,
  • 16:37 - 16:39
    da auditoria e da transparência relevante.
  • 16:39 - 16:43
    Precisamos de aceitar
    que trazer a matemática e a informática
  • 16:43 - 16:46
    para os assuntos humanos,
    complicados e carregados de valores,
  • 16:46 - 16:48
    não nos dá objetividade.
  • 16:48 - 16:52
    Em vez disso, a complexidade
    dos assuntos humanos invade os algoritmos.
  • 16:52 - 16:56
    Sim, podemos e devemos usar a informática
  • 16:56 - 16:58
    para nos ajudar a tomar melhores decisões.
  • 16:58 - 17:03
    Mas temos que assumir
    a responsabilidade moral do julgamento.
  • 17:03 - 17:06
    e usar os algoritmos nesse âmbito,
  • 17:06 - 17:11
    não como um meio para abdicar
    e subcontratar a nossa responsabilidade
  • 17:11 - 17:13
    de ser humano para ser humano.
  • 17:14 - 17:16
    A inteligência artificial já chegou.
  • 17:16 - 17:20
    O que significa que mais que nunca
    temos de nos agarrar afincadamente
  • 17:20 - 17:22
    aos valores e à ética humana.
  • 17:22 - 17:23
    Obrigada.
  • 17:23 - 17:26
    (Aplausos)
Title:
A Inteligência Artificial torna a moral humana mais importante
Speaker:
Zeynep Tufekci
Description:

A Inteligência Artificial chegou. E já a estamos a utilizar para tomar decisões subjetivas. Mas a forma complexa como a IA cresce e melhora, dificulta o seu entendimento e ainda mais o seu controlo. Nesta palestra cautelosa, a socióloga-tecnológica Zeynep Tufekci, explica como as máquinas inteligentes falham, de formas que não se enquadram nos padrões humanos — e de formas que não entendemos e para as quais não estamos preparados.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Portuguese subtitles

Revisions