0:00:06.949,0:00:11.521 Imagine que você está vendo um trem[br]correndo sobre trilhos 0:00:11.521,0:00:15.961 em direção a cinco trabalhadores[br]que não podem escapar. 0:00:15.961,0:00:18.179 Você está ao lado de uma alavanca 0:00:18.179,0:00:21.680 que pode desviar o trem [br]para uma segunda faixa. 0:00:21.680,0:00:22.980 Aqui está o problema: 0:00:22.980,0:00:28.069 essa faixa tem um trabalhador[br]também, mas apenas um. 0:00:28.069,0:00:29.390 O que você faz? 0:00:29.390,0:00:32.685 Você sacrifica uma pessoa[br]para salvar cinco? 0:00:32.685,0:00:35.414 Este é o problema do trem, 0:00:35.414,0:00:42.103 uma versão de um dilema ético criado[br]pelo filósofo Philippa Foot em 1967. 0:00:42.103,0:00:45.371 Ele é popular porque nos obriga [br]a pensar sobre como escolher 0:00:45.371,0:00:48.060 quando não há boas escolhas. 0:00:48.060,0:00:50.200 Nós escolhemos a ação[br]com o melhor resultado 0:00:50.200,0:00:55.400 ou nos prendemos a um código moral[br]que proíbe causar a morte de alguém? 0:00:55.400,0:01:00.837 Em uma pesquisa, 90% dos entrevistados[br]disseram que usariam a alavanca, 0:01:00.837,0:01:04.250 deixando um trabalhador morrer[br]para salvar cinco, 0:01:04.250,0:01:08.600 e outros estudos, incluindo uma simulação[br]de realidade virtual do dilema, 0:01:08.600,0:01:11.040 encontraram resultados semelhantes. 0:01:11.040,0:01:16.061 Estes julgamentos são consistentes[br]com o princípio filosófico do utilitarismo 0:01:16.061,0:01:18.521 que argumenta que a decisão[br]moralmente correta 0:01:18.521,0:01:23.351 é aquela que maximiza o bem-estar [br]para o maior número de pessoas. 0:01:23.351,0:01:25.481 As cinco vidas superam uma, 0:01:25.481,0:01:30.562 mesmo que para alcançar esse resultado[br]seja preciso condenar alguém à morte. 0:01:30.562,0:01:33.471 Mas as pessoas nem sempre[br]têm a visão utilitarista, 0:01:33.471,0:01:37.062 e isso pode ser visto mudando um pouco[br]o problema do trem. 0:01:37.062,0:01:40.303 Agora você está numa ponte sobre a faixa 0:01:40.303,0:01:43.192 enquanto o trem se aproxima. 0:01:43.192,0:01:44.873 Não há mais uma segunda faixa, 0:01:44.873,0:01:48.794 mas tem um homem grande[br]na ponte ao lado de você. 0:01:48.794,0:01:52.492 Se você empurrá-lo nos trilhos, [br]seu corpo vai parar o trem, 0:01:52.492,0:01:54.243 e salvar os cinco trabalhadores, 0:01:54.243,0:01:56.033 mas ele vai morrer. 0:01:56.033,0:01:59.432 Para os utilitaristas, [br]a decisão é exatamente a mesma, 0:01:59.432,0:02:01.982 perder uma vida para salvar cinco. 0:02:01.982,0:02:04.584 Mas neste caso, [br]apenas cerca de 10% das pessoas 0:02:04.584,0:02:08.453 disseram que jogariam o homem nos trilhos. 0:02:08.453,0:02:11.914 Nossos instintos nos dizem que causar[br]a morte de alguém deliberadamente 0:02:11.914,0:02:16.303 é diferente de deixar alguém morrer [br]como dano colateral. 0:02:16.303,0:02:20.953 Parece errado por motivos [br]difíceis de explicar. 0:02:20.953,0:02:23.473 Esta intersecção entre ética e psicologia 0:02:23.473,0:02:26.604 é o que há de tão interessante[br]sobre o problema do trem. 0:02:26.604,0:02:30.984 O dilema em suas muitas variações revela[br]que o que nós pensamos ser certo ou errado 0:02:30.984,0:02:35.965 depende de outros fatores além[br]de um equilíbrio lógico de prós e contras. 0:02:35.965,0:02:38.835 Por exemplo, os homens são mais[br]propensos do que as mulheres 0:02:38.835,0:02:42.504 em dizer que empurrariam o homem da ponte. 0:02:42.504,0:02:46.994 Assim como as pessoas que veem um vídeo[br]de comédia antes de fazer sua escolha. 0:02:46.994,0:02:49.165 Em um estudo de realidade virtual, 0:02:49.165,0:02:52.944 as pessoas estavam mais dispostas[br]a sacrificar homens do que mulheres. 0:02:52.944,0:02:55.214 Os investigadores estudaram[br]a atividade cerebral 0:02:55.214,0:02:59.535 das pessoas que passaram[br]pela versão clássica e a versão da ponte. 0:02:59.535,0:03:04.054 Ambas as versões ativam áreas cerebrais[br]envolvidas em tomada de decisão consciente 0:03:04.054,0:03:06.514 e respostas emocionais. 0:03:06.514,0:03:10.975 Mas na versão da ponte,[br]a resposta emocional é muito mais forte. 0:03:10.975,0:03:13.194 Assim como a atividade[br]de uma área do cérebro 0:03:13.194,0:03:16.884 associada com o processamento[br]de conflito interno. 0:03:16.884,0:03:18.145 Por que essa diferença? 0:03:18.145,0:03:22.912 Uma explicação é que empurrar alguém[br]para a morte parece ser mais pessoal, 0:03:22.912,0:03:26.925 ativando uma aversão emocional [br]ao ato de matar outra pessoa, 0:03:26.925,0:03:31.424 mas nos sentimos em conflito[br]pois sabemos que é a escolha lógica. 0:03:31.424,0:03:36.405 O problema do trem tem sido criticado[br]por alguns filósofos e psicólogos. 0:03:36.405,0:03:41.266 Eles argumentam que ele não revela nada,[br]porque a sua premissa é tão irreal 0:03:41.266,0:03:45.425 que os participantes do estudo[br]não a levam a sério. 0:03:45.425,0:03:48.556 Mas novas tecnologias estão tornando[br]este tipo de análise ética 0:03:48.556,0:03:50.698 mais importante do que nunca. 0:03:50.698,0:03:54.036 Por exemplo, os carros autônomos[br]podem precisar fazer escolhas 0:03:54.036,0:03:58.007 como causar um pequeno acidente[br]para evitar um maior. 0:03:58.007,0:04:01.626 Além disso, os governos estão[br]pesquisando "drones" militares autônomos 0:04:01.626,0:04:05.976 que podem acabar tomando decisões[br]sobre o risco de baixas civis 0:04:05.976,0:04:08.966 para atingir um alvo importante. 0:04:08.966,0:04:11.197 Se quisermos que essas ações sejam éticas, 0:04:11.197,0:04:15.397 temos de decidir com antecedência[br]como valorizar a vida humana 0:04:15.397,0:04:17.666 e julgar o bem maior. 0:04:17.666,0:04:20.107 Os pesquisadores que estudam[br]sistemas autônomos 0:04:20.107,0:04:22.207 estão colaborando com os filósofos 0:04:22.207,0:04:27.628 para abordar o problema complexo[br]da programação de ética em máquinas, 0:04:27.628,0:04:30.957 o que mostra que mesmo [br]os dilemas mais hipotéticos 0:04:30.957,0:04:35.058 podem acabar em rota de colisão[br]com o mundo real.