Return to Video

Podemos construir IA sem perder o controlo?

  • 0:01 - 0:03
    Eu vou falar de uma falha de intuição
  • 0:04 - 0:05
    de que muitos de nós sofremos.
  • 0:05 - 0:09
    É uma falha em detetar
    um certo tipo de perigo.
  • 0:09 - 0:11
    Vou descrever um cenário
  • 0:11 - 0:15
    que considero tão aterrador
  • 0:15 - 0:17
    como provável de acontecer.
  • 0:17 - 0:20
    Acontece que isto
    não é uma boa combinação.
  • 0:20 - 0:22
    No entanto, em vez de assustados,
  • 0:22 - 0:25
    a maioria de vocês acha
    que aquilo de que estou a falar é fixe.
  • 0:25 - 0:28
    Eu vou descrever
    como as vantagens obtidas
  • 0:28 - 0:30
    com a inteligência artificial
  • 0:30 - 0:33
    podem acabar por nos destruir.
  • 0:32 - 0:35
    Penso que é muito difícil
    ver como não nos vão destruir
  • 0:35 - 0:37
    ou inspirar a destruirmo-nos a nós mesmos.
  • 0:38 - 0:40
    Mas se vocês forem
    minimamente como eu,
  • 0:40 - 0:43
    vão descobrir que é divertido
    pensar nestas coisas.
  • 0:42 - 0:45
    Essa resposta faz parte do problema.
  • 0:46 - 0:48
    Essa resposta devia preocupar-vos.
  • 0:48 - 0:51
    Se eu vos convencesse nesta palestra
  • 0:51 - 0:54
    que vamos, provavelmente,
    sofrer uma fome mundial,
  • 0:54 - 0:57
    devido à mudança climática
    ou devido a alguma outra catástrofe,
  • 0:57 - 1:01
    e que os vossos netos,
    ou os netos deles,
  • 1:01 - 1:03
    têm a probabilidade de viver assim,
  • 1:03 - 1:05
    não pensariam:
  • 1:05 - 1:07
    "Que interessante.
  • 1:07 - 1:09
    "Gosto desta palestra TED."
  • 1:10 - 1:11
    A fome não tem graça.
  • 1:12 - 1:15
    Mas a morte pela ficção científica
    é divertida.
  • 1:15 - 1:19
    Uma das coisas que mais me preocupa
    no desenvolvimento da IA, neste ponto,
  • 1:19 - 1:23
    é que parecemos incapazes de mobilizar
    uma resposta emocional apropriada
  • 1:23 - 1:25
    para os perigos que nos esperam.
  • 1:25 - 1:29
    Sou incapaz de conseguir esta resposta,
    e estou a fazer esta palestra.
  • 1:30 - 1:33
    É como se estivéssemos diante
    de duas portas.
  • 1:33 - 1:34
    Atrás da porta número um,
  • 1:34 - 1:38
    deixamos de fazer progressos
    na construção de máquinas inteligentes.
  • 1:38 - 1:42
    O hardware e o software dos computadores
    deixam de melhorar, por alguma razão.
  • 1:42 - 1:45
    Agora, pensem um momento
    na razão de isto poder acontecer.
  • 1:45 - 1:49
    Ou seja, sendo a inteligência
    e a automação tão valiosas,
  • 1:49 - 1:52
    vamos continuar a melhorar
    a tecnologia, se formos capazes disso.
  • 1:53 - 1:55
    O que é que nos pode impedir de o fazer?
  • 1:56 - 1:58
    Uma guerra nuclear a larga escala?
  • 1:59 - 2:01
    Uma pandemia mundial?
  • 2:02 - 2:04
    O impacto de um asteroide?
  • 2:06 - 2:08
    Justin Bieber tornar-se
    presidente dos EUA?
  • 2:09 - 2:11
    (Risos)
  • 2:13 - 2:17
    A questão é, algo teria de destruir
    a civilização, tal como a conhecemos
  • 2:18 - 2:22
    Temos que imaginar
    quão mau teria que ser
  • 2:22 - 2:25
    para nos impedir de fazer
    melhoramentos na tecnologia
  • 2:25 - 2:26
    de forma permanente,
  • 2:27 - 2:28
    geração após geração.
  • 2:28 - 2:30
    Quase por definição,
    isto é a pior coisa
  • 2:30 - 2:33
    que já aconteceu na história
    da Humanidade.
  • 2:33 - 2:34
    Por isso, a única alternativa,
  • 2:34 - 2:36
    — e é o que está detrás da porta dois —
  • 2:36 - 2:39
    é que continuemos a melhorar
    as nossas máquinas inteligentes
  • 2:40 - 2:41
    ano após ano após ano.
  • 2:42 - 2:46
    A certa altura, iremos construir
    máquinas mais inteligentes que nós,
  • 2:46 - 2:49
    e assim que tivermos máquinas
    mais inteligentes que nós,
  • 2:49 - 2:51
    elas vão começar
    a melhorar-se a si mesmas.
  • 2:51 - 2:54
    Então arriscamo-nos ao que
    o matemático I.J. Good chamou
  • 2:54 - 2:55
    uma "explosão de inteligência,"
  • 2:56 - 2:58
    que o processo poderá
    sair das nossas mãos.
  • 2:58 - 3:02
    Isto é normalmente caricaturado,
    como vemos aqui,
  • 3:01 - 3:05
    como o medo de que tropas
    de robôs malignos nos vão atacar.
  • 3:05 - 3:08
    Mas este não é o cenário
    mais provável.
  • 3:08 - 3:13
    As nossas máquinas não se tornarão
    espontaneamente maléficas.
  • 3:13 - 3:16
    O problema é se
    construímos máquinas
  • 3:16 - 3:18
    que são muito mais
    competentes que nós
  • 3:18 - 3:22
    que à mínima divergência
    entre os seus objetivos e os nossos
  • 3:22 - 3:23
    podem destruir-nos.
  • 3:24 - 3:26
    Basta pensar na nossa
    ligação às formigas.
  • 3:27 - 3:28
    Não as odiamos.
  • 3:28 - 3:31
    Não saímos do nosso caminho
    para as magoar.
  • 3:31 - 3:33
    Até fazemos o necessário
    para não as magoar.
  • 3:33 - 3:35
    Passamos por cima delas
    no passeio.
  • 3:35 - 3:37
    Mas quando a sua presença
  • 3:37 - 3:40
    representa um conflito
    com um dos nossos objetivos,
  • 3:40 - 3:42
    digamos, quando construindo
    um edifício como este,
  • 3:42 - 3:44
    eliminamo-las sem hesitação.
  • 3:44 - 3:48
    O problema é que iremos
    um dia construir máquinas
  • 3:48 - 3:50
    que, conscientes ou não,
  • 3:50 - 3:53
    podem tratar-nos com
    o mesmo desprezo.
  • 3:54 - 3:57
    Suspeito que isto pareça
    exagerado para a maioria.
  • 3:57 - 4:04
    Aposto que são os mesmos que duvidam
    da possibilidade duma IA superinteligente,
  • 4:04 - 4:05
    e, mais ainda, inevitável.
  • 4:06 - 4:09
    Então, devem encontrar algo de errado
    nas seguintes premissas.
  • 4:09 - 4:11
    Só existem três.
  • 4:12 - 4:15
    A inteligência é uma questão
    de processamento de informação
  • 4:15 - 4:17
    em sistemas físicos.
  • 4:18 - 4:20
    Na verdade, isto é mais
    que uma premissa.
  • 4:20 - 4:23
    Já construímos inteligência
    limitada nas nossas máquinas,
  • 4:24 - 4:26
    e muitas dessas máquinas já funcionam
  • 4:26 - 4:29
    a um nível de inteligência super-humana.
  • 4:29 - 4:31
    Sabemos que mera matéria
  • 4:31 - 4:34
    pode dar origem ao que chamamos
    "inteligência geral,"
  • 4:34 - 4:38
    a capacidade de pensar flexivelmente
    em múltiplos domínios,
  • 4:38 - 4:41
    porque o nosso cérebros conseguiu isso.
  • 4:41 - 4:45
    Quero dizer, aqui só há átomos.
  • 4:45 - 4:49
    Enquanto continuamos a construir
    sistemas de átomos
  • 4:49 - 4:52
    que demonstram cada vez mais
    um comportamento inteligente,
  • 4:52 - 4:55
    acabaremos — a não ser
    que sejamos interrompidos —
  • 4:55 - 4:58
    acabaremos por construir
    inteligência geral
  • 4:58 - 5:00
    nas nossas máquinas.
  • 5:00 - 5:04
    É crucial entender que a velocidade
    do progresso não importa,
  • 5:03 - 5:07
    pois qualquer progresso
    é suficiente para nos levar ao final.
  • 5:07 - 5:10
    Não precisamos da Lei de Moore
    nem de progresso exponencial
  • 5:10 - 5:11
    para continuar.
  • 5:11 - 5:13
    Só precisamos de continuar.
  • 5:14 - 5:17
    A segunda premissa
    é que iremos continuar.
  • 5:17 - 5:20
    Continuaremos a melhorar
    as nossas máquinas inteligentes.
  • 5:21 - 5:25
    E devido ao valor da inteligência
  • 5:25 - 5:29
    — quer dizer, inteligência ou é
    a fonte de tudo que valorizamos
  • 5:29 - 5:33
    ou precisamos dela para
    salvaguardar tudo o que valorizamos.
  • 5:32 - 5:34
    É o nosso recurso mais valioso.
  • 5:34 - 5:36
    Por isso, queremos fazer isto.
  • 5:36 - 5:39
    Temos problemas que queremos
    desesperadamente resolver.
  • 5:39 - 5:43
    Queremos curar doenças
    como Alzheimer ou cancro.
  • 5:43 - 5:47
    Queremos entender sistemas económicos
    e melhorar a nossa ciência climatérica.
  • 5:47 - 5:49
    Por isso iremos fazê-lo,
    se conseguirmos,
  • 5:50 - 5:53
    O comboio já saiu da estação,
    e não há travão para acionar.
  • 5:54 - 5:59
    Finalmente, não estamos
    num pico da inteligência,
  • 5:59 - 6:01
    provavelmente, nem perto dela.
  • 6:02 - 6:04
    E isto é a visão crucial.
  • 6:04 - 6:06
    Isto é o que torna
    a nossa situação tão precária.
  • 6:06 - 6:10
    Isto é o que torna tão incertas
    as nossas intuições de risco.
  • 6:11 - 6:14
    Agora, pensem na pessoa
    mais inteligente de sempre.
  • 6:15 - 6:18
    Na lista de quase toda a gente
    está John von Neumann.
  • 6:18 - 6:22
    A impressão que von Neumann
    deixou nas pessoas ao seu redor,
  • 6:22 - 6:25
    incluindo os melhores
    matemáticos e físicos do seu tempo,
  • 6:26 - 6:27
    está bem documentada.
  • 6:28 - 6:31
    Se metade das histórias sobre ele
    são meio verdadeiras,
  • 6:31 - 6:32
    não há dúvida
  • 6:33 - 6:35
    que ele foi uma das pessoas
    mais inteligentes que existiu.
  • 6:35 - 6:39
    Considerem o espetro da inteligência.
  • 6:38 - 6:40
    Aqui temos John von Neumann.
  • 6:42 - 6:43
    E aqui estamos nós.
  • 6:44 - 6:46
    E aqui temos uma galinha.
  • 6:46 - 6:47
    (Risos)
  • 6:47 - 6:49
    Desculpem, uma galinha.
  • 6:49 - 6:50
    (Risos)
  • 6:51 - 6:53
    Não preciso de tornar esta palestra
    ainda mais deprimente.
  • 6:54 - 6:56
    (Risos)
  • 6:56 - 7:00
    Mas parece muito provável
    que o espetro da inteligência
  • 7:01 - 7:03
    se alargue muito mais além
    do que imaginamos.
  • 7:04 - 7:07
    Se construirmos máquinas
    mais inteligentes que nós,
  • 7:07 - 7:10
    iremos muito provavelmente
    explorar este espetro
  • 7:10 - 7:12
    de formas inimagináveis,
  • 7:12 - 7:14
    e superar-nos em formas,
    que não imaginávamos.
  • 7:15 - 7:19
    É importante reconhecer que isto é verdade
    só por virtude da velocidade.
  • 7:20 - 7:24
    Imaginem que construímos
    uma IA superinteligente
  • 7:25 - 7:28
    que não é mais inteligente que
    uma equipa normal de investigadores
  • 7:28 - 7:31
    de Stanford ou do MIT.
  • 7:30 - 7:33
    Os circuitos eletrónicos funcionam
    um milhão de vezes mais depressa
  • 7:33 - 7:35
    do que os circuitos bioquímicos,
  • 7:35 - 7:38
    por isso essa máquina iria
    pensar um milhão de vezes mais rápido
  • 7:38 - 7:40
    do que as mentes que a construíram.
  • 7:40 - 7:42
    Pomo-la a funcionar
    durante uma semana,
  • 7:42 - 7:47
    e ela irá realizar 20 000 anos
    de trabalho intelectual humano,
  • 7:46 - 7:49
    semana após semana.
  • 7:50 - 7:53
    Como podemos entender,
    e muito menos restringir,
  • 7:53 - 7:56
    uma mente que faz tal progresso?
  • 7:57 - 7:59
    A outra coisa preocupante, honestamente...
  • 7:59 - 8:04
    Imaginem o melhor cenário possível.
  • 8:04 - 8:08
    Imaginem que chegamos ao "design"
    de uma IA superinteligente
  • 8:08 - 8:10
    sem problemas de segurança.
  • 8:10 - 8:13
    Temos o "design" perfeito
    na primeira tentativa.
  • 8:13 - 8:15
    Seria como se nos tivessem dado um oráculo
  • 8:15 - 8:18
    cujo comportamento seria o esperado.
  • 8:18 - 8:22
    Esta máquina poderia ser
    a máquina perfeita para poupar trabalho.
  • 8:22 - 8:24
    Poderia conceber a máquina
    para construir a máquina
  • 8:24 - 8:26
    que pode fazer qualquer
    trabalho físico,
  • 8:26 - 8:28
    usando energia solar,
  • 8:28 - 8:30
    mais ou menos ao custo
    das matérias-primas.
  • 8:30 - 8:33
    Estamos a falar do fim
    do trabalho duro humano
  • 8:34 - 8:37
    Estamos também a falar do fim
    de maior parte do trabalho intelectual.
  • 8:37 - 8:40
    O que fariam macacos como nós
    nestas circunstâncias?
  • 8:41 - 8:45
    Teríamos tempo para jogar ao disco,
    e dar massagens uns aos outros.
  • 8:46 - 8:49
    Adicionem LSD e algumas
    escolhas duvidosas de roupa,
  • 8:49 - 8:51
    e seria como o festival Burning Man
    por todo o mundo.
  • 8:51 - 8:54
    (Risos)
  • 8:55 - 8:57
    Isto até pode soar bem,
  • 8:57 - 9:00
    mas questionem-se o que poderia aconteceu
  • 9:00 - 9:03
    na nossa ordem atual
    económica e política?
  • 9:03 - 9:05
    Parece que poderíamos testemunhar
  • 9:06 - 9:08
    um nível de desigualdade de riqueza
  • 9:08 - 9:10
    e desemprego como nunca vimos antes.
  • 9:11 - 9:13
    Se não existir a vontade
    de colocar essa riqueza
  • 9:13 - 9:16
    imediatamente ao serviço
    de toda a humanidade,
  • 9:16 - 9:20
    alguns multimilionários poderiam figurar
    nas capas das nossas revistas de negócios
  • 9:20 - 9:23
    enquanto o resto do mundo
    estaria à fome.
  • 9:22 - 9:25
    E o que fariam os russos
    ou os chineses
  • 9:25 - 9:28
    se soubessem que alguma companhia
    em Silicon Valley
  • 9:28 - 9:30
    estaria prestes a implementar
    uma IA superinteligente?
  • 9:30 - 9:33
    Essa máquina seria capaz
    de fazer a guerra,
  • 9:33 - 9:35
    terrestre ou cibernética,
  • 9:35 - 9:37
    com um poder inédito.
  • 9:38 - 9:40
    Isto é um cenário de
    "o vencedor leva tudo".
  • 9:40 - 9:43
    Estar seis meses adiantado
    nesta competição
  • 9:43 - 9:47
    é como estar 500 000 anos adiantado,
  • 9:46 - 9:47
    no mínimo.
  • 9:48 - 9:52
    Parece que os meros rumores
    deste tipo de inovação
  • 9:52 - 9:55
    poderiam descontrolar a nossa espécie.
  • 9:55 - 9:58
    Uma das coisas mais assustadoras,
  • 9:58 - 10:00
    na minha perspetiva, neste momento,
  • 10:00 - 10:05
    são o tipo de coisas
    que os investigadores da IA dizem
  • 10:05 - 10:07
    quando querem tranquilizar-nos.
  • 10:07 - 10:11
    O motivo mais comum que invocam
    para não nos preocuparmos é o tempo.
  • 10:11 - 10:13
    "Não sabem que isto ainda vem longe?
  • 10:13 - 10:15
    "Só daqui a 50 ou 100 anos".
  • 10:16 - 10:17
    Um investigador disse:
  • 10:17 - 10:19
    "Preocupar-se com a segurança da IA
  • 10:19 - 10:22
    "é como preocupar-se com
    o excesso de população em Marte."
  • 10:22 - 10:24
    Esta é a versão de Silicon Valley
  • 10:24 - 10:26
    de "não preocupem a vossa
    cabeça com isto."
  • 10:26 - 10:27
    (Risos)
  • 10:28 - 10:29
    Ninguém parece notar
  • 10:29 - 10:33
    que mencionar o horizonte do tempo
  • 10:32 - 10:35
    é um total "não se segue".
  • 10:35 - 10:38
    Se a inteligência é apenas uma questão
    de processamento de informação,
  • 10:38 - 10:41
    e continuarmos a melhorar
    as nossas máquinas,
  • 10:41 - 10:44
    iremos produzir
    alguma forma de superinteligência.
  • 10:44 - 10:48
    Não fazemos ideia
    quanto tempo iremos demorar
  • 10:48 - 10:51
    a criar as condições
    para o fazer em segurança.
  • 10:52 - 10:54
    Vou repetir.
  • 10:54 - 10:57
    Não sabemos quanto tempo vamos demorar
  • 10:57 - 11:00
    para criar as condições
    para fazê-lo em segurança.
  • 11:01 - 11:04
    Se ainda não repararam,
    50 anos não é o que era dantes.
  • 11:05 - 11:07
    Isto são 50 anos em meses.
  • 11:07 - 11:10
    Isto é o tempo desde que temos o iPhone.
  • 11:09 - 11:12
    Isto é o tempo em que "Os Simpsons"
    têm estado na TV.
  • 11:13 - 11:15
    50 anos não é assim tanto tempo
  • 11:15 - 11:19
    para ir de encontro aos maiores desafios
    que a nossa espécie irá enfrentar.
  • 11:20 - 11:24
    Mais uma vez, parecemos estar a falhar
    em ter uma resposta emocional apropriada
  • 11:24 - 11:26
    para o que acreditamos
    que está para vir.
  • 11:27 - 11:31
    O cientista informático Stuart Russell
    tem uma boa analogia para isto.
  • 11:31 - 11:35
    Disse: "Imaginem que recebemos
    uma mensagem de uma civilização alienígena,
  • 11:35 - 11:37
    "que diz:
  • 11:37 - 11:39
    " 'Habitantes da Terra,
  • 11:39 - 11:41
    " vamos chegar ao vosso planeta
    dentro de 50 anos.
  • 11:42 - 11:43
    " 'Preparem-se'."
  • 11:44 - 11:47
    Vamos contar os meses
    até a nave-mãe aterrar?
  • 11:48 - 11:51
    Sentiríamos mais urgência
    do que o habitual.
  • 11:53 - 11:55
    Outro motivo que nos dão
    para não nos preocuparmos
  • 11:55 - 11:58
    é que estas máquinas
    vão partilhar os nossos valores
  • 11:58 - 12:00
    pois serão literalmente
    extensões de nós próprios.
  • 12:00 - 12:02
    Serão implantadas no nosso cérebro,
  • 12:02 - 12:05
    e seremos os seus sistemas límbicos.
  • 12:05 - 12:07
    Parem um momento para considerar
  • 12:07 - 12:10
    que o caminho mais prudente e seguro,
  • 12:10 - 12:11
    o caminho recomendado,
  • 12:11 - 12:14
    é implantar esta tecnologia
    diretamente no nosso cérebro.
  • 12:15 - 12:18
    Isso poderá de facto ser
    o caminho mais prudente e seguro,
  • 12:18 - 12:21
    mas normalmente as questões
    de segurança de uma tecnologia
  • 12:21 - 12:25
    devem estar bem trabalhadas
    antes de serem enfiadas na nossa cabeça.
  • 12:25 - 12:27
    (Risos)
  • 12:27 - 12:32
    O maior problema é que
    construir IA superinteligente, por si só,
  • 12:32 - 12:34
    parece ser mais fácil
  • 12:34 - 12:36
    do que construir IA superinteligente
  • 12:36 - 12:38
    e ter a neurociência completa
  • 12:38 - 12:41
    que nos permita integrar facilmente
    as nossas mentes com isso.
  • 12:41 - 12:44
    Sabendo que as companhias
    e os governos que fazem este trabalho
  • 12:44 - 12:48
    provavelmente se consideram
    numa corrida contra todos os outros,
  • 12:48 - 12:51
    sendo que ganhar esta corrida,
    é ganhar o mundo,
  • 12:51 - 12:53
    desde que não o destruam
    logo a seguir,
  • 12:54 - 12:56
    então é evidente que
    o que for mais fácil
  • 12:56 - 12:58
    será o primeiro a ser feito.
  • 12:59 - 13:01
    Infelizmente, não tenho
    a solução para este problema,
  • 13:01 - 13:04
    apenas posso recomendar
    que pensemos mais nisto.
  • 13:04 - 13:06
    Acho que precisamos de algo
    como o Projeto Manhattan
  • 13:06 - 13:09
    no tópico da inteligência artificial.
  • 13:09 - 13:11
    Não para a construir —acho
    que o faremos inevitavelmente —
  • 13:12 - 13:15
    mas para compreender
    como evitar uma corrida ao armamento
  • 13:15 - 13:19
    e para a construir de forma
    a estar alinhada com os nossos interesses.
  • 13:18 - 13:20
    Quando falamos na IA superinteligente
  • 13:20 - 13:23
    que pode alterar-se a si mesma,
  • 13:23 - 13:25
    parece que só temos uma hipótese
  • 13:25 - 13:27
    para conseguir
    as condições iniciais corretas,
  • 13:27 - 13:30
    e mesmo assim precisaremos de absorver
  • 13:30 - 13:33
    as consequências económicas e politicas
    para conseguir tal.
  • 13:34 - 13:36
    Mas a partir do momento em que admitirmos
  • 13:36 - 13:40
    que o processamento de informação
    é a fonte de inteligência,
  • 13:41 - 13:46
    que algum sistema informático apropriado
    é a base de inteligência,
  • 13:46 - 13:50
    e admitirmos que iremos melhorar
    estes sistemas de forma contínua,
  • 13:51 - 13:54
    e admitirmos que o horizonte da cognição
  • 13:54 - 13:57
    provavelmente ultrapassa
    o que conhecemos agora,
  • 13:58 - 14:00
    então temos de admitir
  • 14:00 - 14:03
    que estamos no processo
    de construir uma espécie de deus.
  • 14:03 - 14:06
    Agora seria uma boa altura
    de certificarmo-nos
  • 14:06 - 14:08
    que seja um deus
    com quem queremos viver.
  • 14:08 - 14:10
    Muito obrigado.
  • 14:10 - 14:13
    (Aplausos)
Title:
Podemos construir IA sem perder o controlo?
Speaker:
Sam Harris
Description:

Assustado com a IA superinteligente? Devia estar, diz o neurocientista e filosofo Sam Harris — e não apenas teoricamente. Vamos construir máquinas super-humanas, diz Harris, mas ainda não lidámos com os problemas associados com a criação de uma coisa que nos poderá tratar do mesmo modo como tratamos as formigas.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Portuguese subtitles

Revisions Compare revisions