Return to Video

Não tenha medo da superinteligência artificial

  • 0:01 - 0:05
    Quando criança, eu era
    fundamentalmente "nerd".
  • 0:05 - 0:07
    Acho que alguns de vocês também eram.
  • 0:08 - 0:09
    (Risos)
  • 0:09 - 0:12
    E o senhor, que deu a risada mais alta,
    provavelmente ainda é.
  • 0:12 - 0:14
    (Risos)
  • 0:14 - 0:18
    Cresci numa cidadezinha nas planícies
    empoeiradas do norte do Texas,
  • 0:18 - 0:21
    filho de um xerife
    que era filho de um pastor.
  • 0:21 - 0:23
    Me meter em confusão não era uma opção.
  • 0:24 - 0:27
    Então, comecei a ler livros
    de cálculo pra me distrair.
  • 0:27 - 0:29
    (Risos)
  • 0:29 - 0:31
    Você também!
  • 0:31 - 0:34
    Isso me levou a criar um lêiser,
    um computador e protótipos de foguete,
  • 0:34 - 0:38
    o que me levou a inventar combustível
    de foguete em meu quarto.
  • 0:38 - 0:42
    Bem, em termos científicos,
  • 0:42 - 0:45
    chamamos isso de "péssima ideia".
  • 0:45 - 0:46
    (Risos)
  • 0:46 - 0:48
    Mais ou menos na mesma época,
  • 0:48 - 0:51
    "2001: Uma odisseia no espaço",
    de Stanley Kubrick,
  • 0:51 - 0:54
    estreou nos cinemas
    e minha vida mudou para sempre.
  • 0:54 - 0:59
    Adorei tudo naquele filme,
    principalmente o HAL 9000.
  • 0:59 - 1:01
    HAL era um computador consciente,
  • 1:01 - 1:06
    projetado para conduzir
    a nave Discovery da Terra até Júpiter.
  • 1:06 - 1:08
    HAL também era um personagem imperfeito,
  • 1:08 - 1:13
    pois, no fim, decidiu priorizar
    a missão em vez da vida humana.
  • 1:13 - 1:15
    Bem, HAL era um personagem de ficção,
  • 1:15 - 1:17
    mas, mesmo assim,
    traz à tona nossos medos,
  • 1:18 - 1:20
    medo de sermos subjugados
  • 1:20 - 1:23
    por uma inteligência artificial
    sem sentimentos,
  • 1:23 - 1:25
    indiferente à nossa humanidade.
  • 1:26 - 1:28
    Acredito que esses medos
    não têm fundamento.
  • 1:28 - 1:33
    De fato, vivemos numa época incrível
    da história da humanidade,
  • 1:33 - 1:38
    em que, por nos recursarmos a aceitar
    as limitações do nosso corpo e mente,
  • 1:38 - 1:43
    criamos máquinas graciosas
    e de linda e primorosa complexidade,
  • 1:43 - 1:48
    que vão ampliar a experiência humana
    de formas além do que imaginamos.
  • 1:48 - 1:50
    Depois de trabalhar na Academia
    da Força Aérea americana
  • 1:50 - 1:54
    e chegar ao Comando Espacial americano,
    me tornei engenheiro de sistemas,
  • 1:54 - 1:57
    e recentemente estou ajudando
    num problema de engenharia
  • 1:57 - 1:59
    relacionado à missão da NASA a Marte.
  • 1:59 - 2:02
    Bem, nos voos espaciais à Lua,
  • 2:02 - 2:05
    podemos contar com o apoio
    do controle de missão em Houston,
  • 2:05 - 2:07
    que monitora todos os aspectos do voo.
  • 2:07 - 2:10
    Porém, Marte fica 200 vezes
    mais distante de nós que a Lua
  • 2:11 - 2:14
    e, consequentemente,
    leva em média 13 minutos
  • 2:14 - 2:17
    para que um sinal de comunicação
    viaje da Terra a Marte.
  • 2:17 - 2:20
    Se houver algum problema,
    não dá tempo de resolver.
  • 2:21 - 2:23
    Então, uma solução razoável de engenharia
  • 2:23 - 2:29
    é colocarmos o controle de missão
    dentro da nave Orion.
  • 2:29 - 2:32
    Outra ideia fascinante
    no projeto da missão
  • 2:32 - 2:35
    é colocar robôs humanoides
    na superfície de Marte
  • 2:35 - 2:37
    antes de os humanos chegarem,
  • 2:37 - 2:38
    para construírem instalações
  • 2:38 - 2:42
    e depois atuarem como colaboradores
    da equipe científica.
  • 2:43 - 2:46
    Bom, de uma perspectiva de engenharia,
  • 2:46 - 2:49
    ficou bem claro pra mim
    que o que eu precisava projetar
  • 2:49 - 2:52
    era uma inteligência artificial
  • 2:52 - 2:54
    moderna, colaborativa
    e com habilidade social.
  • 2:54 - 2:58
    Em outras palavras, eu precisava criar
    algo bem parecido com o HAL,
  • 2:58 - 3:01
    mas sem suas tendências homicidas.
  • 3:01 - 3:02
    (Risos)
  • 3:03 - 3:05
    Mas espera um pouco:
  • 3:05 - 3:09
    será mesmo possível criar
    uma inteligência artificial assim?
  • 3:09 - 3:10
    Na verdade, é possível sim.
  • 3:10 - 3:13
    De muitas formas, trata-se de um desafio
    complexo de engenharia,
  • 3:13 - 3:15
    com alguns elementos de IA;
  • 3:15 - 3:20
    não da ideia mirabolante
    de criar uma IA repulsiva.
  • 3:20 - 3:25
    Parafraseando Alan Turing,
    não quero criar uma máquina consciente.
  • 3:25 - 3:26
    Não vou criar um HAL.
  • 3:26 - 3:32
    Só quero criar um cérebro simples,
    algo que cause a ilusão de inteligência.
  • 3:33 - 3:36
    A arte e a ciência da computação
    evoluíram bastante
  • 3:36 - 3:38
    desde que HAL surgiu no cinema,
  • 3:38 - 3:41
    e imagino que, se o Dr. Chandra,
    seu inventor, estivesse aqui hoje,
  • 3:41 - 3:43
    ele teria um monte de perguntas pra nós.
  • 3:43 - 3:45
    Será que conseguimos
  • 3:45 - 3:49
    pegar um sistema com milhões
    e milhões de dispositivos,
  • 3:49 - 3:51
    entrar com os dados,
  • 3:51 - 3:53
    prever suas falhas
    e nos anteciparmos a elas?
  • 3:53 - 3:54
    Sim.
  • 3:54 - 3:58
    Será possível criar sistemas que conversem
    conosco em nossa língua?
  • 3:58 - 3:58
    Sim.
  • 3:59 - 4:02
    Será possível criar sistemas
    que reconheçam objetos e emoções,
  • 4:02 - 4:05
    que reajam emotivamente,
    usem de estratégia e até leitura labial?
  • 4:05 - 4:06
    Sim.
  • 4:06 - 4:09
    Será possível criar um sistema
    que estabeleça metas,
  • 4:09 - 4:12
    faça planos e aprenda
    ao longo do caminho?
  • 4:12 - 4:13
    Sim.
  • 4:13 - 4:17
    Será possível criarmos sistemas
    com capacidade cognitiva?
  • 4:17 - 4:18
    Estamos aprendendo a fazer isso.
  • 4:18 - 4:22
    Será possível criarmos sistemas
    que tenham princípios éticos e morais?
  • 4:22 - 4:25
    Precisamos aprender a fazer isso.
  • 4:25 - 4:27
    Então, digamos, por exemplo,
  • 4:27 - 4:30
    que seja possível criar
    uma inteligência artificial assim,
  • 4:30 - 4:32
    para esse tipo de missão e para outras.
  • 4:32 - 4:36
    A próxima pergunta que precisamos
    fazer é: devemos temer essa inteligência?
  • 4:36 - 4:41
    Bom, toda nova tecnologia
    traz algum tipo de preocupação.
  • 4:41 - 4:42
    Quando surgiram os carros,
  • 4:43 - 4:46
    as pessoas acharam que veríamos
    a destruição da família.
  • 4:46 - 4:49
    Quando surgiram os telefones,
  • 4:49 - 4:52
    as pessoas temiam que ele destruiria
    a socialização entre as pessoas.
  • 4:52 - 4:56
    Quando vimos a palavra
    escrita se espalhar,
  • 4:56 - 4:59
    acharam que perderíamos
    nossa capacidade de memorizar.
  • 4:59 - 5:01
    Tudo isso é de certa forma verdade,
  • 5:01 - 5:03
    mas também é verdade que essas tecnologias
  • 5:03 - 5:07
    nos possibilitaram ampliar
    a experiência humana
  • 5:07 - 5:09
    de formas profundas.
  • 5:10 - 5:12
    Vou explicar melhor.
  • 5:13 - 5:18
    Não temo a criação de uma IA assim,
  • 5:18 - 5:22
    porque ela vai acabar assimilando
    alguns dos nossos valores.
  • 5:22 - 5:25
    Pensem só: criar um sistema cognitivo
    é fundamentalmente diferente
  • 5:25 - 5:29
    de criar um sistema complexo
    e tradicional do passado.
  • 5:29 - 5:31
    Não a programamos. Nós lhe ensinamos.
  • 5:31 - 5:34
    Para ensinar um sistema
    a reconhecer flores,
  • 5:34 - 5:37
    mostro a ele milhares de flores
    do tipo de que gosto.
  • 5:37 - 5:39
    Para ensinar um sistema a jogar...
  • 5:39 - 5:41
    eu faria isso, e vocês também...
  • 5:43 - 5:45
    Eu gosto de jogos. Qual é!
  • 5:45 - 5:48
    Para ensinar um sistema
    a jogar, por exemplo, o "Go",
  • 5:48 - 5:51
    eu o faria jogá-lo várias vezes,
    mas, no processo,
  • 5:51 - 5:54
    eu também o ensinaria a diferenciar
    um jogo bom de um jogo ruim.
  • 5:55 - 5:58
    Se quisesse criar um assistente jurídico
    com inteligência artificial,
  • 5:58 - 6:01
    eu lhe ensinaria algumas leis,
    mas, ao mesmo tempo,
  • 6:01 - 6:06
    colocaria nele o senso de compaixão
    e de justiça que acompanham essas leis.
  • 6:06 - 6:10
    Em termos científicos,
    é o que chamamos de situação fática,
  • 6:10 - 6:12
    e eis o mais importante:
  • 6:12 - 6:13
    ao criar essas máquinas,
  • 6:13 - 6:16
    estamos ensinando a elas
    algo dos nossos valores.
  • 6:17 - 6:20
    Sendo assim, eu confio
    na inteligência artificial
  • 6:20 - 6:23
    tanto quanto num humano
    bem treinado; quem sabe até mais.
  • 6:24 - 6:25
    Talvez vocês perguntem:
  • 6:25 - 6:31
    "E quanto a agentes maliciosos,
    tipo, uma ONG bem financiada?"
  • 6:31 - 6:35
    Não temo uma inteligência artificial
    nas mãos de um "lobo solitário".
  • 6:35 - 6:37
    Obviamente, não podemos nos proteger
  • 6:37 - 6:40
    contra todos os possíveis
    atos de violência,
  • 6:40 - 6:45
    mas a verdade é que um sistema assim
    requer treinamento sólido e inteligente
  • 6:45 - 6:47
    muito além das capacidades
    de um indivíduo.
  • 6:47 - 6:48
    Além disso,
  • 6:48 - 6:52
    a coisa vai além de simplesmente
    injetar um vírus virtual no mundo,
  • 6:52 - 6:55
    pressionando um botão e, de repente,
    propagando-o por toda parte,
  • 6:55 - 6:57
    fazendo notebooks explodirem por aí.
  • 6:57 - 7:02
    Esses tipos de coisas são bem maiores,
    e certamente os veremos chegar.
  • 7:02 - 7:06
    Se eu temo que uma
    inteligência artificial assim
  • 7:06 - 7:08
    possa ameaçar toda a espécie humana?
  • 7:08 - 7:13
    Ao assistir a filmes
    como "Matrix", "Metrópolis",
  • 7:13 - 7:16
    "O Exterminador do Futuro",
    ou a séries como "Westworld",
  • 7:16 - 7:18
    vemos que todos falam desse tipo de medo.
  • 7:18 - 7:22
    No livro "Superintelligence",
    do filósofo Nick Bostrom,
  • 7:22 - 7:24
    ele aborda esse tema
  • 7:24 - 7:28
    e explica que uma superinteligência
    pode não só ser perigosa,
  • 7:28 - 7:32
    mas também representar uma ameaça
    à existência da espécie humana.
  • 7:32 - 7:36
    O argumento básico do Dr. Bostrom
    é o de que esses sistemas
  • 7:36 - 7:40
    vão acabar tendo tamanha
    sede por informação
  • 7:40 - 7:43
    que vão talvez aprender a aprender
  • 7:43 - 7:46
    e vão acabar descobrindo
    que podem ter objetivos
  • 7:46 - 7:48
    que são contrários
    às necessidades humanas.
  • 7:48 - 7:50
    O Dr. Bostrom têm alguns seguidores.
  • 7:50 - 7:54
    Pessoas como Elon Musk
    e Stephen Hawking concordam com ele.
  • 7:55 - 8:00
    Com todo o respeito
    a essas mentes brilhantes,
  • 8:00 - 8:02
    creio que estejam
    fundamentalmente equivocados.
  • 8:02 - 8:06
    São muitos os aspectos do argumento
    do Dr. Bostrom para discutir
  • 8:06 - 8:08
    e não tenho tenho para falar sobre todos,
  • 8:08 - 8:11
    mas, rapidamente, pensem no seguinte:
  • 8:11 - 8:14
    ser "super" no saber é bem diferente
    de ser "super" no fazer.
  • 8:14 - 8:16
    HAL foi uma ameaça
    à tripulação da Discovery
  • 8:16 - 8:21
    só porque comandava
    todos os aspectos da nave.
  • 8:21 - 8:23
    Assim teria que ser
    com uma superinteligência.
  • 8:23 - 8:26
    Ela teria que ter controle
    sobre todo o nosso mundo.
  • 8:26 - 8:28
    Isso é coisa da Skynet, do filme
    "O Exterminador do Futuro",
  • 8:28 - 8:32
    uma superinteligência
    que controlava a vontade humana,
  • 8:32 - 8:36
    que controlava qualquer dispositivo
    em qualquer parte do mundo.
  • 8:36 - 8:39
    Em termos práticos, isso não vai rolar.
  • 8:39 - 8:42
    Não estamos criando IAs
    que controlem o clima,
  • 8:42 - 8:44
    que controlem as marés,
  • 8:44 - 8:47
    ou que comandem a nós,
    humanos inconstantes e caóticos.
  • 8:47 - 8:51
    Além do mais, se uma inteligência
    artificial dessas existisse,
  • 8:51 - 8:54
    ela teria que competir
    nas economias mundiais
  • 8:54 - 8:57
    e, portanto, competir
    conosco por recursos.
  • 8:57 - 9:00
    No fim... não contem isso ao Siri...
  • 9:00 - 9:02
    sempre é possível desligá-la.
  • 9:02 - 9:04
    (Risos)
  • 9:05 - 9:10
    Estamos numa jornada incrível
    de coevolução com nossas máquinas.
  • 9:10 - 9:15
    Não seremos no futuro
    os mesmos humanos que somos hoje.
  • 9:15 - 9:19
    Preocupar-se agora com o surgimento
    de uma superinteligência
  • 9:19 - 9:22
    é, de várias maneiras,
    uma distração perigosa
  • 9:22 - 9:24
    porque a ascensão da própria computação
  • 9:24 - 9:27
    nos traz diversas questões,
    humanas e sociais,
  • 9:27 - 9:29
    com as quais agora devemos lidar.
  • 9:29 - 9:32
    Como organizar a sociedade
  • 9:32 - 9:35
    quando a demanda
    por trabalho humano diminuir?
  • 9:35 - 9:38
    Como disseminar entendimento
    e educação por todo o planeta
  • 9:38 - 9:40
    sem desrespeitar nossas diferenças?
  • 9:40 - 9:44
    Como prolongar e melhorar a vida com esse
    tipo de inteligência na área de saúde?
  • 9:44 - 9:50
    Como posso usar a computação
    para fazer com que cheguemos às estrelas?
  • 9:50 - 9:52
    Isso é o mais empolgante.
  • 9:52 - 9:56
    As oportunidades de usar a computação
    para ampliar a experiência humana
  • 9:56 - 10:00
    estão a nosso alcance, aqui e agora,
  • 10:00 - 10:02
    e estamos apenas começando.
  • 10:02 - 10:03
    Muito obrigado.
  • 10:03 - 10:05
    (Aplausos)
Title:
Não tenha medo da superinteligência artificial
Speaker:
Grady Booch
Description:

"Novas tecnologias trazem novas 'preocupações'", diz o cientista e filósofo Grady Booch, "mas não precisamos ter medo de uma inteligência artificial toda-poderosa e insensível". Booch alivia nossos piores medos (induzidos pela ficção científica) em relação a computadores superinteligentes, explicando como vamos ensiná-los a assimilar nossos valores, e não programá-los pra isso. Em vez de nos preocuparmos com uma improvável ameaça à nossa existência, ele nos leva a refletir sobre como a inteligência artificial vai melhorar a vida humana.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Portuguese, Brazilian subtitles

Revisions