Return to Video

É possível construir inteligência artificial sem perder o controle?

  • 0:01 - 0:03
    Vou falar sobre uma falha intuitiva
  • 0:03 - 0:05
    que afeta muitos de nós.
  • 0:05 - 0:09
    É a falha de reconhecer certo perigo.
  • 0:09 - 0:11
    Eu vou descrever uma situação
  • 0:11 - 0:14
    que considero aterrorizante
  • 0:14 - 0:16
    e provável de acontecer,
  • 0:17 - 0:18
    e não é uma boa combinação,
  • 0:19 - 0:20
    ao que parece.
  • 0:20 - 0:22
    Mesmo assim, em vez de sentir medo,
  • 0:22 - 0:25
    a maioria vai achar legal o que vou falar.
  • 0:25 - 0:28
    Vou descrever como nossas conquistas
  • 0:28 - 0:30
    na área da inteligência artificial
  • 0:30 - 0:32
    poderão nos destruir.
  • 0:32 - 0:35
    Na verdade, acho muito difícil ver
    como elas não vão nos destruir,
  • 0:35 - 0:37
    ou nos inspirar a nos destruirmos.
  • 0:37 - 0:39
    E se você é como eu,
  • 0:39 - 0:42
    vai descobrir que é divertido
    pensar sobre essas coisas.
  • 0:42 - 0:45
    E essa resposta é parte do problema.
  • 0:45 - 0:47
    OK? Essa resposta deve te preocupar.
  • 0:48 - 0:51
    Se eu quisesse te convencer nessa palestra
  • 0:51 - 0:54
    de que a fome mundial é provável,
  • 0:54 - 0:57
    por causa do aquecimento global
    ou qualquer outra catástrofe,
  • 0:57 - 1:01
    e de que seus netos
    e os netos dos seus netos
  • 1:01 - 1:02
    provavelmente viverão assim,
  • 1:03 - 1:04
    você não pensaria:
  • 1:05 - 1:07
    "Interessante.
  • 1:07 - 1:08
    Gostei dessa Palestra TED."
  • 1:09 - 1:11
    Fome não é divertido.
  • 1:12 - 1:15
    Morte por ficção científica,
    por outro lado, é divertida,
  • 1:15 - 1:19
    e uma das coisas que mais me preocupa
    no desenvolvimento de IA nesse ponto
  • 1:19 - 1:23
    é que somos incapazes de organizar
    uma resposta emocional apropriada
  • 1:23 - 1:25
    para os perigos que estão à frente.
  • 1:25 - 1:28
    Eu sou incapaz de ordenar essa resposta,
    e estou dando esta palestra.
  • 1:30 - 1:33
    É como se estivéssemos
    diante de duas portas.
  • 1:33 - 1:34
    Na porta de número 1,
  • 1:34 - 1:37
    paramos de progredir na área de IA.
  • 1:37 - 1:41
    Nossos softwares e hardwares param
    de melhorar por algum motivo.
  • 1:41 - 1:44
    Pare um pouco para refletir
    por que isso pode acontecer.
  • 1:45 - 1:49
    Dado que automação
    e inteligência são valiosos,
  • 1:49 - 1:52
    continuaremos a melhorar
    nossa tecnologia, se isso for possível.
  • 1:53 - 1:55
    O que poderia nos impedir de fazer isso?
  • 1:56 - 1:58
    Uma guerra nuclear em grande escala?
  • 1:59 - 2:01
    Uma pandemia global?
  • 2:02 - 2:04
    A colisão de um asteroide?
  • 2:06 - 2:08
    Justin Bieber como presidente
    dos Estado Unidos?
  • 2:08 - 2:11
    (Risadas)
  • 2:13 - 2:17
    A questão é que algo teria que destruir
    a civilização que nós conhecemos.
  • 2:17 - 2:22
    Você precisa imaginar
    o quão ruim teria que ser
  • 2:22 - 2:25
    para impedir os avanços
    da nossa tecnologia
  • 2:25 - 2:26
    permanentemente,
  • 2:26 - 2:28
    geração após geração.
  • 2:28 - 2:30
    Quase que por definição,
    essa é a pior coisa
  • 2:30 - 2:32
    que já aconteceu na história humana.
  • 2:33 - 2:34
    A única alternativa,
  • 2:34 - 2:36
    e é o que está atrás
    da porta de número 2,
  • 2:36 - 2:39
    é que continuemos a aprimorar
    nossas máquinas inteligentes,
  • 2:39 - 2:41
    ano após ano.
  • 2:42 - 2:45
    Em algum ponto, construiremos máquinas
    mais inteligentes que nós,
  • 2:46 - 2:49
    e uma vez que isso acontecer,
  • 2:49 - 2:51
    elas aperfeiçoarão a si mesmas.
  • 2:51 - 2:53
    E nós arriscamos o que o matemático
    I. J. Good chamou
  • 2:53 - 2:55
    de "explosão de inteligência",
  • 2:55 - 2:57
    que o processo poderia fugir do controle.
  • 2:58 - 3:01
    Isso é frequentemente
    caricaturado, desse jeito aqui,
  • 3:01 - 3:04
    como medo de que exércitos
    de robôs malignos
  • 3:04 - 3:05
    nos ataquem.
  • 3:05 - 3:08
    Mas essa não é a situação mais provável.
  • 3:08 - 3:13
    Não é que nossas máquinas
    se tornarão espontaneamente más.
  • 3:13 - 3:16
    A preocupação é que
    construiremos máquinas
  • 3:16 - 3:18
    que são muito mais competentes do que nós,
  • 3:18 - 3:22
    e que a menor das divergências
    entre nosso propósito e o delas
  • 3:22 - 3:23
    possa nos destruir.
  • 3:24 - 3:26
    Pense na nossa relação com as formigas.
  • 3:27 - 3:28
    Nós não as odiamos.
  • 3:28 - 3:30
    Nós não as machucamos de propósito.
  • 3:30 - 3:33
    Na verdade, nós tentamos
    não machucar elas.
  • 3:33 - 3:35
    Evitamos pisá-las na calçada.
  • 3:35 - 3:37
    Mas sempre que a presença delas
  • 3:37 - 3:39
    colide com um dos nossos objetivos,
  • 3:39 - 3:42
    digamos que ao construirmos
    um prédio como este,
  • 3:42 - 3:44
    nós exterminamos elas
    sem a menor cerimônia.
  • 3:44 - 3:47
    A preocupação é que um dia
    vamos construir máquinas
  • 3:47 - 3:50
    que, conscientes ou não,
  • 3:50 - 3:52
    poderão nos tratar com o mesmo desprezo.
  • 3:54 - 3:57
    Eu suspeito que isso pareça difícil
    de acreditar para vocês.
  • 3:57 - 4:04
    Aposto que alguns de vocês duvidam
    que uma IA superinteligente seja possível,
  • 4:04 - 4:05
    muito menos inevitável.
  • 4:05 - 4:09
    Mas então você precisar achar algo
    de errado com as seguintes suposições.
  • 4:09 - 4:11
    E existem apenas três.
  • 4:12 - 4:16
    Inteligência é uma questão
    de processamento de informação
  • 4:16 - 4:17
    em sistemas físicos.
  • 4:17 - 4:20
    Na verdade, isso é mais
    do que uma suposição.
  • 4:20 - 4:23
    Nós já construímos inteligência limitada
    em nossas máquinas,
  • 4:23 - 4:28
    e muitas delas já trabalham num nível
    de inteligência sobre-humano.
  • 4:29 - 4:31
    E sabemos que matéria comum
  • 4:31 - 4:34
    pode dar origem ao que é chamado
    de "inteligência geral",
  • 4:34 - 4:38
    a habilidade de pensar de forma flexível
    em vários domínios,
  • 4:38 - 4:41
    porque nossos cérebros
    conseguiram isso. Certo?
  • 4:41 - 4:45
    Existem apenas átomos aqui,
  • 4:45 - 4:49
    e desde que continuemos a construir
    sistemas de átomos
  • 4:49 - 4:52
    que mostrem mais e mais
    comportamento inteligente,
  • 4:52 - 4:55
    a não ser que nos interrompam,
  • 4:55 - 4:58
    vamos acabar construindo
    inteligência geral
  • 4:58 - 4:59
    dentro de nossas máquinas.
  • 4:59 - 5:03
    É crucial perceber que a taxa
    de progresso não importa,
  • 5:03 - 5:06
    porque qualquer progresso é suficiente
    para nos levar até a zona final.
  • 5:06 - 5:09
    Não precisamos da Lei de Moore
    para continuar,
  • 5:09 - 5:12
    Não precisamos de progresso exponencial,
    só precisamos continuar.
  • 5:13 - 5:16
    A segunda suposição é
    que vamos continuar.
  • 5:17 - 5:20
    Continuaremos a melhorar
    nossas máquinas inteligentes.
  • 5:21 - 5:25
    E dado o valor da inteligência...
  • 5:25 - 5:29
    Inteligência ou é a fonte de tudo
    aquilo que valorizamos
  • 5:29 - 5:32
    ou precisamos dela para que proteja
    aquilo que valorizamos.
  • 5:32 - 5:34
    É a nossa fonte mais valiosa.
  • 5:34 - 5:36
    Então nós queremos fazer isso.
  • 5:36 - 5:39
    Temos problemas que precisamos
    resolver urgentemente.
  • 5:39 - 5:42
    Queremos curar doenças
    como Alzheimer e câncer.
  • 5:43 - 5:47
    Queremos entender sistemas econômicos.
    Queremos aprimorar a ciência climática.
  • 5:47 - 5:49
    Nós faremos isso, se pudermos.
  • 5:49 - 5:52
    O trem já saiu da estação,
    e não há freio para puxar.
  • 5:54 - 5:59
    Finalmente, não estamos
    em um pico de inteligência,
  • 5:59 - 6:01
    não estamos nem perto disso.
  • 6:02 - 6:04
    E essa é a percepção crucial.
  • 6:04 - 6:06
    Isso é o que faz a nossa situação
    ser tão precária
  • 6:06 - 6:10
    e a nossa intuição sobre riscos
    não ser confiável.
  • 6:11 - 6:14
    Pense na pessoa mais
    inteligente que já existiu.
  • 6:15 - 6:18
    Na lista de quase todos aqui
    está John von Neumann.
  • 6:18 - 6:21
    A impressão que ele causou
    nas pessoas ao seu redor,
  • 6:21 - 6:25
    e isso inclui os melhores matemáticos
    e físicos de seu tempo,
  • 6:26 - 6:27
    está muito bem documentada.
  • 6:27 - 6:31
    Se apenas metade das histórias
    sobre ele forem meio verdadeiras,
  • 6:31 - 6:35
    não há dúvida de que ele foi uma das
    pessoas mais inteligentes que já existiu.
  • 6:35 - 6:38
    Considere o espectro da inteligência.
  • 6:38 - 6:40
    Aqui temos John von Neumann.
  • 6:42 - 6:43
    E aqui temos eu e você.
  • 6:44 - 6:45
    E aqui temos uma galinha.
  • 6:45 - 6:47
    (Risadas)
  • 6:47 - 6:49
    Perdão, uma galinha.
  • 6:49 - 6:50
    (Risadas)
  • 6:50 - 6:54
    Não existe razão pra que eu torne isso
    mais depressivo do que precisa ser.
  • 6:54 - 6:55
    (Risadas)
  • 6:56 - 7:00
    Parece extremamente provável, no entanto,
    que esse espectro da inteligência
  • 7:00 - 7:03
    se estenda muito além do que pensamos,
  • 7:04 - 7:07
    e se construirmos máquinas
    mais inteligentes do que nós,
  • 7:07 - 7:09
    elas provavelmente
    vão explorar esse espectro
  • 7:09 - 7:11
    de maneiras que não podemos imaginar,
  • 7:11 - 7:14
    e vão nos ultrapassar
    de formas inimagináveis.
  • 7:15 - 7:19
    E é importante reconhecer que isso é
    verdade apenas pela velocidade.
  • 7:19 - 7:24
    Imagine se construíssemos
    uma IA superinteligente
  • 7:24 - 7:28
    que não fosse mais inteligente do que
    seu time mediano de pesquisadores
  • 7:28 - 7:30
    em Stanford ou no MIT.
  • 7:30 - 7:33
    Circuitos eletrônicos funcionam quase
    1 milhão de vezes mais rápido
  • 7:33 - 7:35
    do que os biológicos,
  • 7:35 - 7:38
    então essa máquina deve pensar
    1 milhão de vezes mais rápido
  • 7:38 - 7:39
    do que a mente que a criou.
  • 7:39 - 7:42
    Você deixa ela funcionando
    por uma semana,
  • 7:42 - 7:46
    e ela vai realizar 20 mil anos humanos
    de trabalho intelectual,
  • 7:46 - 7:48
    semana após semana.
  • 7:50 - 7:53
    Como poderíamos entender,
    muito menos restringir,
  • 7:53 - 7:55
    uma mente progredindo dessa maneira?
  • 7:57 - 7:59
    Outra coisa que é
    preocupante, francamente,
  • 7:59 - 8:04
    é... imagine o melhor cenário possível.
  • 8:04 - 8:08
    Imagine que nos deparamos
    com o design de uma IA superinteligente
  • 8:08 - 8:10
    que não tem problemas de segurança.
  • 8:10 - 8:13
    Temos o design perfeito pela primeira vez.
  • 8:13 - 8:15
    É como se tivéssemos recebido um oráculo
  • 8:15 - 8:17
    que se comporta como deve.
  • 8:17 - 8:21
    Essa máquina seria o perfeito
    dispositivo de economia de trabalho.
  • 8:21 - 8:24
    Pode desenvolver a máquina
    que pode construir a máquina
  • 8:24 - 8:26
    que pode executar
    qualquer trabalho físico,
  • 8:26 - 8:27
    movido à luz solar,
  • 8:27 - 8:30
    por mais ou menos
    o custo da matéria-prima.
  • 8:30 - 8:33
    Estamos falando do fim
    do esforço físico humano.
  • 8:33 - 8:37
    Também estamos falando do fim
    da maior parte do trabalho intelectual.
  • 8:37 - 8:40
    O que símios como nós fariam
    nessas circunstâncias?
  • 8:40 - 8:44
    Estaríamos livres para jogar Frisbee
    e massagear uns aos outros.
  • 8:46 - 8:49
    Adicione LSD e escolhas
    de roupas questionáveis,
  • 8:49 - 8:51
    e o mundo inteiro seria
    como o Festival Burning Man.
  • 8:51 - 8:53
    (Risadas)
  • 8:54 - 8:56
    Pode até parecer muito bom,
  • 8:57 - 9:00
    mas se pergunte: o que aconteceria
  • 9:00 - 9:02
    sob a atual economia e ordem política?
  • 9:02 - 9:05
    Possivelmente, iríamos presenciar
  • 9:05 - 9:09
    um nível de desigualdade
    de riqueza e desemprego
  • 9:09 - 9:11
    nunca visto antes.
  • 9:11 - 9:13
    Sem a vontade de colocar
    imediatamente essa riqueza
  • 9:13 - 9:15
    a serviço da humanidade,
  • 9:16 - 9:19
    alguns poucos trilionários apareceriam
    nas capas das revistas de negócios,
  • 9:19 - 9:22
    enquanto o resto do mundo passaria fome.
  • 9:22 - 9:25
    E o que os russos e os chineses fariam
  • 9:25 - 9:27
    se soubessem que uma empresa
    no Vale do Silício
  • 9:27 - 9:30
    estivesse pronta para implantar
    uma IA superinteligente?
  • 9:30 - 9:33
    Essa máquina seria capaz
    de travar uma guerra,
  • 9:33 - 9:35
    terrestre ou cibernética,
  • 9:35 - 9:37
    com poder sem precedente.
  • 9:38 - 9:40
    É um cenário onde o vencedor leva tudo.
  • 9:40 - 9:43
    Estar seis meses à frente da competição
  • 9:43 - 9:46
    é como estar 500 mil anos adiantado,
  • 9:46 - 9:47
    no mínimo.
  • 9:47 - 9:52
    Parece que mesmo os meros
    rumores desse tipo de avanço
  • 9:52 - 9:55
    poderiam causar fúria em nossa espécie.
  • 9:55 - 9:58
    Uma das coisas mais assustadoras,
  • 9:58 - 10:00
    na minha opinião, nesse momento,
  • 10:00 - 10:05
    são os tipos de coisas
    que os pesquisadores de IA dizem
  • 10:05 - 10:06
    quando querem nos tranquilizar.
  • 10:07 - 10:10
    E eles nos dizem para não
    nos preocuparmos com o tempo.
  • 10:10 - 10:13
    Esse é um caminho longo,
    se você não sabe.
  • 10:13 - 10:15
    Provavelmente está
    a 50, 100 anos de distância.
  • 10:16 - 10:17
    Um pesquisador disse:
  • 10:17 - 10:19
    "Se preocupar com a segurança de IA
  • 10:19 - 10:21
    é como se preocupar
    com a superpopulação em Marte."
  • 10:22 - 10:24
    Essa é a versão do Vale do Silício
  • 10:24 - 10:26
    para que você "não esquente
    sua cabecinha linda."
  • 10:26 - 10:27
    (Risadas)
  • 10:28 - 10:29
    Ninguém parece perceber
  • 10:29 - 10:32
    que fazer referência ao tempo
  • 10:32 - 10:35
    é um argumento inválido.
  • 10:35 - 10:38
    Se inteligência é questão
    de processamento de informação,
  • 10:38 - 10:41
    e se continuarmos a aperfeiçoar
    nossas máquinas,
  • 10:41 - 10:44
    produziremos alguma forma
    de superinteligência.
  • 10:44 - 10:48
    E não temos ideia de quanto
    tempo vai demorar
  • 10:48 - 10:50
    para fazer isso de forma segura.
  • 10:52 - 10:53
    Vou dizer novamente.
  • 10:54 - 10:57
    Não temos ideia de quanto tempo vai levar
  • 10:57 - 11:00
    para fazer isso de forma segura.
  • 11:01 - 11:04
    E se você não percebeu, 50 anos não
    são mais o que costumavam ser.
  • 11:04 - 11:07
    Isso são 50 anos em meses.
  • 11:07 - 11:09
    Esta é a idade que tem o iPhone.
  • 11:09 - 11:12
    Este é o tempo que Os Simpsons
    está na televisão.
  • 11:13 - 11:15
    Cinquenta anos não é muito tempo
  • 11:15 - 11:18
    para conhecer um dos maiores desafios
    que nossa espécie enfrentará.
  • 11:20 - 11:24
    Novamente, parece que estamos falhando
    em uma reação emocional adequada
  • 11:24 - 11:26
    a algo que, com certeza, está vindo.
  • 11:26 - 11:30
    O cientista de computação Stuart Russell
    possui uma bela analogia:
  • 11:30 - 11:35
    imagine que recebamos uma mensagem
    de uma civilização alienígena,
  • 11:35 - 11:36
    que diz:
  • 11:37 - 11:39
    "Pessoas da Terra,
  • 11:39 - 11:41
    chegaremos ao seu planeta em 50 anos.
  • 11:42 - 11:43
    Se preparem."
  • 11:43 - 11:48
    E agora estamos contando os meses
    até a chegada da nave-mãe?
  • 11:48 - 11:51
    Nós teríamos mais urgência
    do que temos agora.
  • 11:52 - 11:54
    Outro motivo dito
    para não nos preocuparmos
  • 11:54 - 11:58
    é que essas máquinas não podem evitar
    compartilhar nossos valores
  • 11:58 - 12:00
    porque eles serão literalmente
    extensões de nós mesmos.
  • 12:00 - 12:03
    Eles serão transplantados
    em nossos cérebros
  • 12:03 - 12:05
    e nos tornaremos parte
    de seus sistemas límbicos.
  • 12:05 - 12:07
    Reserve um momento para considerar
  • 12:07 - 12:11
    que o único caminho prudente
    e seguro recomendado,
  • 12:11 - 12:15
    é implantar essa tecnologia
    diretamente em nossos cérebros.
  • 12:15 - 12:18
    Esse pode ser o caminho
    mais seguro e prudente,
  • 12:18 - 12:21
    mas, normalmente, os problemas
    de segurança da tecnologia
  • 12:21 - 12:25
    precisam ser resolvidos antes de ser
    implantado dentro da sua cabeça.
  • 12:25 - 12:26
    (Risadas)
  • 12:27 - 12:32
    O maior problema é que construir
    uma IA superinteligente por si só
  • 12:32 - 12:34
    parece ser mais fácil
  • 12:34 - 12:36
    do que construir IA superinteligente
  • 12:36 - 12:38
    e ter a neurociência completa
  • 12:38 - 12:41
    que nos permita integrar
    perfeitamente nossas mentes.
  • 12:41 - 12:44
    E dado que empresas e governos
    que estão trabalhando nisso
  • 12:44 - 12:47
    se encontram numa corrida
    uns contra os outros,
  • 12:48 - 12:50
    dado que vencer essa corrida é
    conquistar o mundo,
  • 12:51 - 12:54
    supondo que você não o destrua
    no momento seguinte,
  • 12:54 - 12:56
    então parece que o que for
    mais fácil de se fazer
  • 12:56 - 12:58
    será feito primeiro.
  • 12:59 - 13:01
    Infelizmente, eu não tenho
    a solução para esse problema,
  • 13:01 - 13:04
    a não ser recomendar
    que outros pensem sobre isso.
  • 13:04 - 13:06
    Acho que precisamos de algo
    como o Projeto Manhattan
  • 13:06 - 13:08
    na área de inteligência artificial.
  • 13:08 - 13:11
    Não para construir uma IA,
    porque vamos inevitavelmente fazer isso,
  • 13:11 - 13:15
    mas para entender como evitar
    uma corrida armamentista
  • 13:15 - 13:18
    e construir uma IA que esteja
    alinhada aos nossos interesses.
  • 13:18 - 13:20
    Quando se fala de uma IA superinteligente
  • 13:20 - 13:23
    que pode modificar a si mesma,
  • 13:23 - 13:27
    parece que temos apenas uma chance
    para acertar as condições primárias
  • 13:27 - 13:30
    e, mesmo assim, teremos que assimilar
  • 13:30 - 13:33
    as consequências econômicas
    e políticas desse acerto.
  • 13:34 - 13:36
    Mas no momento em que admitirmos
  • 13:36 - 13:41
    que o processamento de informação
    é a fonte da inteligência,
  • 13:41 - 13:46
    que um sistema computacional apropriado
    é a base do que é a inteligência,
  • 13:46 - 13:51
    e admitirmos que continuaremos
    a aprimorar esse sistema,
  • 13:51 - 13:55
    e que o horizonte do conhecimento
    provavelmente ultrapassa
  • 13:56 - 13:57
    tudo o que sabemos agora,
  • 13:58 - 14:00
    então teremos que admitir
  • 14:00 - 14:03
    que estamos no processo de criação
    de algum tipo de deus.
  • 14:03 - 14:06
    Agora seria um ótimo momento
    de ter a certeza
  • 14:06 - 14:08
    de que é um deus
    com o qual podemos viver.
  • 14:08 - 14:09
    Muito obrigado.
  • 14:09 - 14:13
    (Aplausos)
Title:
É possível construir inteligência artificial sem perder o controle?
Speaker:
Sam Harris
Description:

Tem medo de inteligências artificiais? Pois deveria, diz o filósofo e neurocientista Sam Harris; e não apenas na teoria. Vamos construir máquinas sobre-humanas, afirma Harris, mas ainda não sabemos lidar com os problemas associados à criação de algo que vai nos exterminar, assim como nós exterminamos formigas.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Portuguese, Brazilian subtitles

Revisions