A Inteligência Artificial torna a moral humana mais importante
-
0:02 - 0:05Comecei a trabalhar
como programadora informática -
0:05 - 0:07no meu primeiro ano de faculdade
-
0:07 - 0:09— basicamente uma adolescente.
-
0:09 - 0:11Pouco depois de começar a trabalhar,
-
0:11 - 0:13a programar software numa empresa.
-
0:13 - 0:16um gestor que trabalhava na empresa
-
0:16 - 0:18veio ter comigo e segredou-me:
-
0:18 - 0:21"Ele consegue saber se eu estou a mentir?"
-
0:22 - 0:24Não havia mais ninguém na sala.
-
0:25 - 0:30"Quem poderá saber que você está a mentir?
Porque é que está a segredar?" -
0:30 - 0:33O gestor apontou
para o computador na sala. -
0:33 - 0:37"Ele consegue saber se eu estou a mentir?"
-
0:39 - 0:42Aquele gestor tinha
um caso romântico com a rececionista. -
0:42 - 0:43(Risos)
-
0:43 - 0:45Eu ainda era uma adolescente.
-
0:45 - 0:48Por isso, sussurrei-gritei:
-
0:48 - 0:51"Sim, o computador sabe
que você está a mentir." -
0:51 - 0:53(Risos)
-
0:53 - 0:56Bem, eu ri-me, mas, na verdade,
hoje riem-se de mim. -
0:57 - 0:59Hoje em dia, há sistemas informáticos
-
0:59 - 1:03que conseguem detetar
estados emocionais e mesmo a mentira -
1:03 - 1:05processando apenas os rostos humanos.
-
1:05 - 1:10Os publicitários e mesmo os governos
estão muito interessados nesta tecnologia. -
1:10 - 1:12Tornei-me programadora informática
-
1:12 - 1:15porque era uma criança
louca por matemática e ciências. -
1:16 - 1:19Mas, ao longo do caminho
descobri as armas nucleares -
1:19 - 1:22e fiquei muito preocupada
com a ética da ciência. -
1:22 - 1:23Fiquei perturbada.
-
1:23 - 1:26No entanto,
devido a circunstâncias familiares, -
1:26 - 1:29também precisava de começar a trabalhar
o mais cedo possível. -
1:29 - 1:33Então pensei:
"Bem, vou escolher uma área técnica -
1:33 - 1:35"onde facilmente consiga um emprego
-
1:35 - 1:39"e onde não tenha que lidar
com essas questões incómodas da ética". -
1:39 - 1:41Escolhi a informática.
-
1:41 - 1:42(Risos)
-
1:42 - 1:45Bem, ha, ha, ha!
Riam-se todos de mim. -
1:46 - 1:49Hoje, os cientistas de informática
estão a construir plataformas -
1:49 - 1:52que controlam o que mil milhões
de pessoas veem todos os dias. -
1:53 - 1:57Estão a desenvolver carros
que podem decidir quem atropelar. -
1:58 - 2:01Estão inclusive a construir
máquinas, armas, -
2:01 - 2:03que poderão matar
seres humanos, em guerras. -
2:04 - 2:06Há ética por todo o lado.
-
2:07 - 2:10A inteligência artificial já chegou.
-
2:10 - 2:13Estamos a usar a informática
para tomar todo o tipo de decisões, -
2:13 - 2:15mas também novos tipos de decisões.
-
2:15 - 2:20Estamos a fazer perguntas
que não têm uma resposta certa, -
2:20 - 2:22que são subjetivas,
-
2:22 - 2:24estão em aberto e assentam em valores.
-
2:24 - 2:26Fazemos perguntas como:
-
2:26 - 2:28"Quem é que a empresa deve contratar?"
-
2:28 - 2:31"Que notícias de que amigo
devemos mostrar?" -
2:31 - 2:33"Qual o prisioneiro
que reincidirá mais facilmente?"" -
2:34 - 2:37"Que notícia ou filme
deve ser recomendado?" -
2:37 - 2:40Sim, já utilizamos
os computadores há algum tempo, -
2:40 - 2:42mas isto é diferente.
-
2:42 - 2:44Esta é uma mudança histórica,
-
2:44 - 2:47porque não podemos
apoiar-nos na informática -
2:47 - 2:49para decisões tão subjetivas,
-
2:49 - 2:52do mesmo modo que podemos
apoiar-nos na informática -
2:52 - 2:55para pôr aviões no ar,
para construir pontes, -
2:55 - 2:56para voar até à lua.
-
2:56 - 3:00Os aviões são mais seguros?
Será que a ponte vai balançar e cair? -
3:00 - 3:04Nestes casos, chegámos a acordo
sobre referências bastante claras, -
3:04 - 3:07tendo as leis da natureza para nos guiar.
-
3:07 - 3:11Não temos esses apoios e referências
-
3:11 - 3:15para as decisões sobre
os complexos assuntos humanos. -
3:15 - 3:18Para complicar ainda mais,
o software está cada vez mais poderoso, -
3:18 - 3:22mas também está a ficar
menos transparente e mais complexo. -
3:23 - 3:25Recentemente, na última década,
-
3:25 - 3:27os algoritmos complexos
alcançaram grandes feitos. -
3:27 - 3:30Conseguem reconhecer rostos humanos.
-
3:30 - 3:32Podem decifrar a caligrafia.
-
3:32 - 3:36Detetam fraudes de cartões de crédito
e bloqueiam "spam". -
3:36 - 3:38Conseguem traduzir idiomas.
-
3:38 - 3:40Conseguem detetar
tumores em imagens médicas. -
3:40 - 3:43Vencem os humanos no xadrez e no "Go".
-
3:43 - 3:46Grande parte deste progresso obteve-se
-
3:46 - 3:48com o método chamado
"aprendizagem de máquina." -
3:48 - 3:52A "aprendizagem de máquina"
é diferente da programação tradicional, -
3:52 - 3:55na qual se dá ao computador instruções
detalhadas, meticulosas e exatas. -
3:55 - 4:00Com este novo método, disponibilizam-se
grandes quantidades de dados ao sistema, -
4:00 - 4:01— incluindo dados não estruturados,
-
4:01 - 4:04como os que geramos
na nossa vida digital. -
4:04 - 4:06O sistema aprende
analisando esses dados. -
4:07 - 4:08Para além disso,
-
4:08 - 4:13estes sistemas não funcionam
sob uma lógica de resposta única. -
4:13 - 4:16Não produzem uma resposta única;
é mais probabilista: -
4:16 - 4:19"Isto, provavelmente,
está mais próximo do que procura." -
4:20 - 4:24A vantagem é que
este método é muito poderoso. -
4:23 - 4:26O chefe de sistemas da IA
do Google, chamou-lhe: -
4:26 - 4:28"A eficácia irracional dos dados".
-
4:28 - 4:30A desvantagem é que
-
4:30 - 4:33não entendemos concretamente
o que o sistema aprendeu. -
4:33 - 4:35Na verdade, é essa a sua força.
-
4:35 - 4:39É menos como dar instruções ao computador
-
4:39 - 4:43e mais como treinar
um filhote de máquina-criatura -
4:44 - 4:46que não entendemos nem controlamos.
-
4:46 - 4:48Portanto, este é o problema.
-
4:48 - 4:53É problemático quando a IA
compreende mal as coisas. -
4:53 - 4:56É também um problema
quando as compreende bem, -
4:57 - 5:00porque nem sabemos o que é o quê
quando se trata de um problema subjetivo. -
5:00 - 5:03Nós não sabemos
o que a máquina está a pensar. -
5:03 - 5:07Assim, considerem
um algoritmo de contratação -
5:08 - 5:13— um sistema usado para contratar pessoas,
utilizando a aprendizagem de máquina. -
5:13 - 5:17Tal sistema teria sido treinado
com dados dos empregados anteriores -
5:17 - 5:20e instruído para encontrar
e contratar pessoas -
5:20 - 5:23semelhantes aos melhores profissionais
da empresa. -
5:23 - 5:24Parece bem.
-
5:24 - 5:26Uma vez, fui a uma conferência
-
5:26 - 5:29que juntou gestores
de recursos humanos e executivos. -
5:29 - 5:32Pessoas de alto nível, que usam
esses sistemas para contratar -
5:32 - 5:34Estavam super entusiasmados,
-
5:34 - 5:38Achavam que isto tornaria a contratação
mais objetiva, menos tendenciosa, -
5:38 - 5:41e daria mais hipóteses
às mulheres e minorias, -
5:41 - 5:44ao contrário dos gestores
de RH tendenciosos. -
5:44 - 5:47Notem, a contratação humana
é tendenciosa. -
5:47 - 5:48Eu bem sei.
-
5:49 - 5:52Num dos meus primeiros empregos
como programadora, -
5:52 - 5:55a minha chefe imediata,
às vezes vinha ter comigo, -
5:55 - 5:59muito cedo de manhã
ou muito ao final da tarde, -
5:59 - 6:02e dizia:
"Zeynep, vamos almoçar!" -
6:03 - 6:05Eu ficava intrigada
com aquele horário estranho. -
6:05 - 6:07São 16 horas. Almoço?
-
6:07 - 6:10Como estava sem dinheiro
— almoço grátis — aceitava sempre. -
6:11 - 6:13Mais tarde percebi porquê:
-
6:13 - 6:17Os meus chefes diretos
não tinham informado os superiores -
6:17 - 6:20que o programador contratado
para um trabalho sério -
6:20 - 6:22era uma garota adolescente
-
6:22 - 6:25que usava "jeans" e ténis para trabalhar.
-
6:25 - 6:28Eu fazia um bom trabalho,
mas tinha um aspeto não convencional -
6:28 - 6:30e tinha a idade e sexo errados.
-
6:30 - 6:33Logo, contratar sem olhar
ao sexo e à etnia -
6:33 - 6:35claro que me soa bem.
-
6:35 - 6:39Mas com estes sistemas,
é mais complicado. E porquê? -
6:39 - 6:42Atualmente, os sistemas informáticos
-
6:42 - 6:45conseguem inferir
todo o tipo de coisas sobre a pessoa -
6:45 - 6:47a partir das suas migalhas digitais,
-
6:47 - 6:49mesmo que a pessoa não tenha
divulgado essas coisas. -
6:50 - 6:53Conseguem inferir
a sua orientação sexual, -
6:53 - 6:55os seus traços de personalidade,
-
6:55 - 6:57as inclinações políticas.
-
6:57 - 7:01Conseguem prever
com elevados níveis de precisão. -
7:01 - 7:04Notem... coisas que nem sequer
divulgámos conscientemente. -
7:04 - 7:06Isto é dedução.
-
7:06 - 7:09Tenho uma amiga que desenvolveu
esses sistemas informáticos, -
7:09 - 7:13para prever a probabilidade
de depressão clínica ou pós-parto -
7:13 - 7:15a partir de dados de redes sociais.
-
7:15 - 7:16Os resultados são impressionantes.
-
7:16 - 7:20O sistema consegue prever
a probabilidade de depressão -
7:20 - 7:24meses antes do início
de quaisquer sintomas -
7:24 - 7:25— meses antes.
-
7:25 - 7:27Não há sintomas. Há previsão.
-
7:28 - 7:33Ela espera que isso seja usado
para intervenção precoce. Ótimo! -
7:33 - 7:36Mas agora coloquem isto
no contexto da contratação. -
7:36 - 7:39Na conferência de gestores
de recursos humanos, -
7:39 - 7:45aproximei-me de uma gestora de alto nível
de uma grande empresa e disse-lhe: -
7:45 - 7:49"O que acha se, sem o seu conhecimento,
-
7:49 - 7:55"o seu sistema estiver a excluir pessoas
com alto risco de futura depressão? -
7:56 - 8:00"Não estão deprimidas agora,
mas talvez no futuro, seja mais provável. -
8:00 - 8:03"E se está a excluir as mulheres
com maior probabilidade de engravidar -
8:03 - 8:07"dentro de um ou dois anos
mas que não estão grávidas agora? -
8:07 - 8:13"E se está a contratar pessoas agressivas
porque essa é a cultura da empresa? -
8:13 - 8:16"Não nos apercebemos disso
olhando par a repartição por sexos. -
8:16 - 8:18Aí até pode estar equilibrado.
-
8:18 - 8:21Como isto é aprendizagem de máquina,
e não codificação tradicional, -
8:21 - 8:26não há lá nenhuma variável
intitulada "maior risco de depressão", -
8:26 - 8:28"maior risco de gravidez",
-
8:28 - 8:30"escala de agressividade".
-
8:30 - 8:34Não só não se sabe
o que é que o sistema está a selecionar, -
8:34 - 8:36como não se sabe
por onde começar a procurar. -
8:36 - 8:38É uma caixa preta.
-
8:38 - 8:40Tem poder preditivo,
mas não conseguimos entendê-la. -
8:40 - 8:44"Que garantia você tem", perguntei,
-
8:44 - 8:47"de que a sua caixa negra
não está a fazer algo sombrio?" -
8:49 - 8:53Ela olhou para mim
como se eu a tivesse ofendido. -
8:53 - 8:54(Risos)
-
8:54 - 8:56Olhou para mim e disse:
-
8:57 - 9:01"Não quero ouvir
nem mais uma palavra sobre isso." -
9:01 - 9:04Virou-me as costas e foi-se embora.
-
9:04 - 9:07Ela não foi indelicada.
Foi claramente: -
9:07 - 9:12"O que eu não sei, não é problema meu.
Desapareça." Olhar de morte. -
9:12 - 9:13(Risos)
-
9:14 - 9:18Notem que estes sistemas
podem ser menos tendenciosos -
9:18 - 9:20do que os gestores humanos,
nalguns aspetos. -
9:20 - 9:22E isso pode fazer sentido economicamente.
-
9:23 - 9:24Mas também pode levar
-
9:25 - 9:29ao fecho constante mas furtivo
do mercado de trabalho -
9:29 - 9:32para as pessoas
com maior risco de depressão. -
9:32 - 9:34Será este o tipo de sociedade
que queremos construir, -
9:34 - 9:37sem sequer saber que o fizemos,
-
9:37 - 9:39porque demos às máquinas
a tomada de decisões -
9:39 - 9:41que não compreendemos totalmente?
-
9:41 - 9:43Outro problema é o seguinte:
-
9:43 - 9:48estes sistemas são treinados frequentemente
com dados gerados pelas nossas ações, -
9:48 - 9:50impressões humanas.
-
9:50 - 9:54Assim, poderão estar
a refletir os nossos preconceitos. -
9:54 - 9:58poderão estar
a aprender os nossos preconceitos, -
9:58 - 10:00a amplificá-los e a mostrá-los de novo,
-
10:00 - 10:03enquanto nós pensamos:
-
10:02 - 10:05"Estamos a ser objetivos,
a informática é neutra". -
10:06 - 10:09Investigadores verificaram que, no Google,
-
10:10 - 10:13os anúncios para empregos
com salários elevados -
10:13 - 10:16aparecem mais para homens
do que para mulheres. -
10:16 - 10:20E se procurarmos nomes de afro-americano
-
10:19 - 10:24encontramos mais resultados de anúncios
sugerindo antecedentes criminais, -
10:24 - 10:26mesmo quando não há nenhum.
-
10:27 - 10:30Estes preconceitos escondidos
e algoritmos de caixa-negra -
10:30 - 10:34que os investigadores por vezes descobrem,
mas que por vezes nós não descobrimos, -
10:34 - 10:37podem ter consequências
capazes de mudar uma vida. -
10:38 - 10:42No Wisconsin, um réu
foi condenado a seis anos de prisão -
10:42 - 10:44por fugir da polícia.
-
10:45 - 10:46Podem não saber,
-
10:46 - 10:48mas os algoritmos são utilizados
-
10:48 - 10:50para a liberdade condicional
e as condenações. -
10:50 - 10:53Este réu queria saber
como era calculada a pontuação. -
10:54 - 10:56É uma caixa preta comercial.
-
10:56 - 11:00A empresa recusou-se a ver o seu algoritmo
questionado em tribunal aberto. -
11:00 - 11:04Mas a ProPublica, uma agência
de investigação sem fins lucrativos, -
11:04 - 11:08auditou esse algoritmo
com os dados públicos que encontrou, -
11:08 - 11:11e descobriu que os resultados
eram tendenciosos -
11:11 - 11:14e o poder de previsão
era pouco melhor que o acaso. -
11:14 - 11:18E que estava a sinalizar erradamente
réus negros como futuros criminosos -
11:18 - 11:22duas vezes mais do que réus brancos.
-
11:24 - 11:26Considerem o seguinte caso:
-
11:26 - 11:30Esta mulher estava atrasada
para ir buscar a afilhada -
11:30 - 11:33a uma escola no condado
de Broward, Flórida -
11:33 - 11:35e corria pela rua abaixo com uma amiga.
-
11:35 - 11:39Avistaram uma bicicleta e uma scooter,
não amarradas, numa varanda -
11:39 - 11:41e, parvoíce... levaram-nas.
-
11:41 - 11:44Quando estavam a acelerar,
apareceu uma mulher que disse: -
11:44 - 11:47"Ei! Essa bicicleta é do meu filho!"
-
11:46 - 11:49Largaram-nas e seguiram caminho,
mas acabaram por ser presas. -
11:49 - 11:53Foi errado, foi uma parvoíce,
mas ela só tinha 18 anos. -
11:53 - 11:55Tinha alguns delitos juvenis.
-
11:56 - 11:58Entretanto, aquele homem
-
11:58 - 12:01já tinha sido preso
por furto no Home Depot -
12:01 - 12:04— um roubo de 85 dólares,
um crime menor. -
12:05 - 12:10Mas, para além disso, já tinha
duas sentenças por assalto à mão armada. -
12:10 - 12:14Mas o algoritmo marcou-a
como de alto risco, e não a ele. -
12:15 - 12:18Dois anos depois, a ProPublica verificou
que ela não tinha reincidido, -
12:18 - 12:21mas tinha dificuldade em conseguir
um emprego, devido ao cadastro. -
12:22 - 12:23Ele, por outro lado, reincidiu
-
12:24 - 12:28e agora está a cumprir pena de oito anos
por um crime cometido mais tarde. -
12:28 - 12:31Necessitamos, claramente,
de auditar as nossas caixas-negras -
12:31 - 12:34e não deixá-las ter
este poder sem controlo. -
12:34 - 12:37(Aplausos)
-
12:38 - 12:42As auditorias são ótimas e importantes,
mas não solucionam todos os problemas. -
12:42 - 12:45Considerem o poderoso algoritmo
de notícias do Facebook, -
12:45 - 12:49aquele que classifica
e decide tudo o que vos mostram -
12:50 - 12:52de todos os amigos e das páginas
que vocês seguem. -
12:53 - 12:55Deverão mostrar-vos
outra foto de um bebé? -
12:55 - 12:56(Risos)
-
12:57 - 12:59Uma nota mal-humorado de um conhecido?
-
12:59 - 13:01Uma notícia importante,
mas incomodativa? -
13:01 - 13:03Não há uma resposta certa.
-
13:03 - 13:06O Facebook otimiza
para manter-vos ligado ao site: -
13:06 - 13:08"likes", partilhas, comentários.
-
13:08 - 13:11Em agosto de 2014,
-
13:11 - 13:14estalaram manifestações
em Ferguson, no Missouri, -
13:14 - 13:18após a morte de um jovem afro-americano
infligida por um polícia branco, -
13:18 - 13:20em circunstâncias pouco claras.
-
13:20 - 13:22As notícias dos protestos
apareceram de todos o lados -
13:23 - 13:25na minha conta de Twitter
sem filtro de algoritmos, -
13:25 - 13:27mas em parte alguma no meu Facebook.
-
13:27 - 13:29Foram os meus amigos no Facebook?
-
13:29 - 13:31Desativei o algoritmo do Facebook
-
13:31 - 13:35— o que é difícil, pois o Facebook
insiste em voltar a incluir-nos -
13:35 - 13:36sob o controlo do algoritmo —
-
13:36 - 13:39e vi que os meus amigos falavam disso.
-
13:39 - 13:41O algoritmo é que
não me mostrava essa informação. -
13:41 - 13:45Fiz pesquisas e verifiquei
que era um problema generalizado. -
13:44 - 13:48A história de Ferguson
não agradava ao algoritmo. -
13:48 - 13:50Não era "simpática".
-
13:50 - 13:51Quem ia clicar em "Gosto"?"
-
13:52 - 13:54Nem é fácil de comentar.
-
13:54 - 13:55Sem "gosto" e sem comentários,
-
13:55 - 13:58o algoritmo, provavelmente,
mostrá-la-ia a menos pessoas, -
13:58 - 14:00e assim nós não a conseguimos ver.
-
14:01 - 14:02Em vez disso, nessa semana,
-
14:02 - 14:05o algoritmo do Facebook destacava isto,
-
14:05 - 14:07o Desafio do Balde de Água Gelada.
-
14:07 - 14:11Uma causa digna: despejar água gelada;
doar para a caridade. Tudo bem. -
14:11 - 14:14Mas, para o algoritmo, era super amigável.
-
14:13 - 14:16A máquina tomou essa decisão por nós.
-
14:16 - 14:19Uma conversa muito importante
mas também difícil -
14:19 - 14:21poderia ter sido abafada,
-
14:21 - 14:24se o Facebook fosse o único canal.
-
14:24 - 14:28Finalmente, estes sistemas
também podem cometer erros -
14:28 - 14:31diferentes dos erros dos sistemas humanos.
-
14:31 - 14:34Lembram-se do Watson,
a máquina de IA da IBM -
14:34 - 14:37que eliminou os concorrentes
humanos no Jeopardy? -
14:37 - 14:39Foi um grande jogador.
-
14:39 - 14:42Mas depois, na final do Jeopardy,
quando perguntaram ao Watson: -
14:43 - 14:46"O maior aeroporto com o nome
de um herói da II Guerra Mundial, -
14:46 - 14:49"o segundo maior com o nome
de uma batalha da II Guerra Mundial." -
14:50 - 14:51Chicago.
-
14:51 - 14:53Os dois seres humanos acertaram.
-
14:53 - 14:57Watson, por outro lado,
respondeu "Toronto" -
14:57 - 14:59— para uma pergunta sobre cidades dos EUA!
-
15:00 - 15:03O impressionante sistema
também cometeu um erro -
15:03 - 15:07que um ser humano nunca iria fazer,
que uma criança do 1.º ciclo não faria. -
15:07 - 15:10A inteligência artificial pode falhar
-
15:10 - 15:13de formas que não se encaixam
nos padrões de erro dos seres humanos. -
15:13 - 15:16de formas inesperadas e imprevistas.
-
15:16 - 15:20Seria péssimo não conseguir um emprego
para o qual estamos qualificados, -
15:20 - 15:23mas seria três vezes pior
se fosse por causa de um erro -
15:23 - 15:25de processamento de alguma sub-rotina.
-
15:25 - 15:27(Risos)
-
15:27 - 15:29Em maio de 2010,
-
15:29 - 15:34um acidente relâmpago em Wall Street
provocado por uma auto alimentação -
15:34 - 15:37no algoritmo de "vender", em Wall Street,
-
15:37 - 15:41fez perder um bilião de dólares
em 36 minutos. -
15:42 - 15:45Eu nem quero pensar
o que significa "erro" -
15:44 - 15:48no contexto de armas mortais autónomas.
-
15:50 - 15:54Sim. Os seres humanos
sempre alimentaram preconceitos. -
15:54 - 15:56Quem toma decisões e controla
-
15:56 - 16:00nos tribunais, nas notícias, na guerra ...
comete erros. -
16:00 - 16:03É esse exatamente o meu ponto.
-
16:03 - 16:06Nós não podemos fugir
destas perguntas difíceis. -
16:07 - 16:10Não podemos atribuir
as nossas responsabilidades às máquinas. -
16:11 - 16:14(Aplausos)
-
16:17 - 16:22A inteligência artificial não nos dá
um cartão "Liberte-se da ética". -
16:23 - 16:26O cientista de dados Fred Benenson
chama-lhe "lavagem de matemática". -
16:26 - 16:28Precisamos é do oposto.
-
16:28 - 16:33Temos de cultivar algoritmos de suspeita,
de análise e de investigação. -
16:33 - 16:37Precisamos de garantir que assumimos
a responsabilidade dos algoritmos, -
16:37 - 16:39da auditoria e da transparência relevante.
-
16:39 - 16:43Precisamos de aceitar
que trazer a matemática e a informática -
16:43 - 16:46para os assuntos humanos,
complicados e carregados de valores, -
16:46 - 16:48não nos dá objetividade.
-
16:48 - 16:52Em vez disso, a complexidade
dos assuntos humanos invade os algoritmos. -
16:52 - 16:56Sim, podemos e devemos usar a informática
-
16:56 - 16:58para nos ajudar a tomar melhores decisões.
-
16:58 - 17:03Mas temos que assumir
a responsabilidade moral do julgamento. -
17:03 - 17:06e usar os algoritmos nesse âmbito,
-
17:06 - 17:11não como um meio para abdicar
e subcontratar a nossa responsabilidade -
17:11 - 17:13de ser humano para ser humano.
-
17:14 - 17:16A inteligência artificial já chegou.
-
17:16 - 17:20O que significa que mais que nunca
temos de nos agarrar afincadamente -
17:20 - 17:22aos valores e à ética humana.
-
17:22 - 17:23Obrigada.
-
17:23 - 17:26(Aplausos)
- Title:
- A Inteligência Artificial torna a moral humana mais importante
- Speaker:
- Zeynep Tufekci
- Description:
-
A Inteligência Artificial chegou. E já a estamos a utilizar para tomar decisões subjetivas. Mas a forma complexa como a IA cresce e melhora, dificulta o seu entendimento e ainda mais o seu controlo. Nesta palestra cautelosa, a socióloga-tecnológica Zeynep Tufekci, explica como as máquinas inteligentes falham, de formas que não se enquadram nos padrões humanos — e de formas que não entendemos e para as quais não estamos preparados.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Margarida Ferreira approved Portuguese subtitles for Machine intelligence makes human morals more important | ||
Margarida Ferreira edited Portuguese subtitles for Machine intelligence makes human morals more important | ||
Margarida Ferreira accepted Portuguese subtitles for Machine intelligence makes human morals more important | ||
Margarida Ferreira edited Portuguese subtitles for Machine intelligence makes human morals more important | ||
Margarida Ferreira edited Portuguese subtitles for Machine intelligence makes human morals more important | ||
Margarida Ferreira edited Portuguese subtitles for Machine intelligence makes human morals more important | ||
Margarida Ferreira edited Portuguese subtitles for Machine intelligence makes human morals more important | ||
Margarida Ferreira edited Portuguese subtitles for Machine intelligence makes human morals more important |