Return to Video

As maravilhosas e espantosas implicações dos computadores que podem aprender | Jeremy Howard | TEDxBrussels

  • 0:10 - 0:13
    Antigamente se você quisesse
    que um computador fizesse algo novo,
  • 0:13 - 0:15
    você teria que programar.
  • 0:15 - 0:19
    Então, para quem aqui que nunca fez isso,
  • 0:19 - 0:22
    programação é algo que requer
    estabelecer com riqueza de detalhe
  • 0:22 - 0:25
    cada passo do que você quer
    que o computador faça
  • 0:25 - 0:27
    para atingir o seu objetivo.
  • 0:27 - 0:31
    Se quiser fazer algo que você
    ainda não sabe fazer por conta própria,
  • 0:31 - 0:33
    isso se torna um grande desafio.
  • 0:33 - 0:37
    E este foi o desafio enfrentado
    por este homem, Arthur Samuel.
  • 0:37 - 0:43
    Em 1956 ele quis que este computador fosse
    capaz de jogar damas com ele e vencê-lo.
  • 0:43 - 0:45
    Como escrever um programa,
  • 0:45 - 0:49
    estabelecer com riqueza de detalhe,
    e jogar damas melhor que você?
  • 0:49 - 0:51
    Então teve uma ideia:
  • 0:51 - 0:54
    fez o computador jogar
    contra si próprio milhares de vezes
  • 0:54 - 0:57
    para aprender a jogar damas.
  • 0:57 - 1:00
    E realmente funcionou, de fato em 1962
  • 1:00 - 1:03
    este computador venceu
    o campeão estadual de Connecticut.
  • 1:03 - 1:07
    Arthur Samuel foi o pai
    do aprendizado de máquina,
  • 1:07 - 1:08
    e devo muito a ele,
  • 1:08 - 1:11
    porque sou um profissional
    de aprendizado de máquina.
  • 1:11 - 1:13
    Fui presidente da Kaggle,
  • 1:13 - 1:16
    uma comunidade de mais de 200 mil
    profissionais dessa área.
  • 1:16 - 1:18
    A Kaggle organiza competições
  • 1:18 - 1:22
    para tentar resolver problemas
    até então sem solução,
  • 1:22 - 1:25
    e tem sido bem sucedida centenas de vezes.
  • 1:26 - 1:28
    Então desse ponto de vista,
    pude descobrir muito
  • 1:28 - 1:32
    do que o aprendizado de máquina
    conseguiu no passado, hoje,
  • 1:32 - 1:34
    e o que poderá fazer no futuro.
  • 1:34 - 1:37
    Talvez o primeiro grande sucesso comercial
  • 1:37 - 1:39
    de aprendizado de máquina foi o Google.
  • 1:39 - 1:42
    O Google mostrou que é possível
    encontrar informação
  • 1:42 - 1:44
    usando um algoritmo de computador,
  • 1:44 - 1:47
    e este algoritmo é baseado
    no aprendizado de máquina.
  • 1:47 - 1:51
    Desde então houve muitos casos de sucesso
    comercial de aprendizado de máquina.
  • 1:51 - 1:53
    Empresas como Amazon e Netflix
  • 1:53 - 1:56
    usam aprendizado de máquina para sugerir
    produtos que possa querer,
  • 1:56 - 1:58
    filmes que você possa querer assistir.
  • 1:58 - 2:00
    Às vezes é quase assustador.
  • 2:00 - 2:02
    Empresas como LinkedIn e Facebook
  • 2:02 - 2:04
    às vezes dirão quem deveria ser seu amigo
  • 2:04 - 2:06
    e você nem imagina como,
  • 2:06 - 2:09
    e isso porque está usando
    o poder do aprendizado de máquina.
  • 2:09 - 2:13
    São algoritmos que aprenderam
    como fazer isso a partir de dados
  • 2:13 - 2:15
    em vez de serem programados à mão.
  • 2:16 - 2:18
    Foi assim que a IBM
    foi bem sucedida em fazer
  • 2:18 - 2:21
    o Watson vencer dois campeões
    mundiais em Jeopardy,
  • 2:21 - 2:24
    respondendo questões incrivelmente
    sutis e complexas como essa:
  • 2:24 - 2:28
    ["O antigo 'Leão de Nimrud' desapareceu
    do museu nacional dessa cidade em 2003]
  • 2:28 - 2:31
    Também por isso podemos ver
    os primeiros carros autônomos.
  • 2:31 - 2:34
    Se você quiser saber dizer
    a diferença entre, digamos,
  • 2:34 - 2:37
    uma árvore e um pedestre,
    bem, isso é muito importante.
  • 2:37 - 2:40
    Não sabemos como escrever
    esses programas à mão,
  • 2:40 - 2:43
    mas com o aprendizado de máquina
    isso agora é possível.
  • 2:43 - 2:45
    De fato este carro já dirigiu
    mais de um milhão de quilômetros
  • 2:45 - 2:49
    sem qualquer acidente
    em estradas públicas.
  • 2:49 - 2:52
    Pois bem, agora sabemos que
    computadores conseguem aprender,
  • 2:52 - 2:55
    e podem aprender a fazer coisas
  • 2:55 - 2:57
    que mesmo nós não sabemos fazer,
  • 2:57 - 3:00
    ou então fazer melhor que nós.
  • 3:00 - 3:04
    Um dos exemplos mais surpreendentes
    de aprendizado de máquina que já vi
  • 3:04 - 3:07
    aconteceu num projeto
    que organizei na Kaggle
  • 3:07 - 3:10
    no qual um time coordenado
    por Geoffrey Hinton,
  • 3:10 - 3:12
    da Universidade de Toronto,
  • 3:12 - 3:15
    venceu a competição
    de pesquisa automática de fármacos.
  • 3:15 - 3:17
    O extraordinário aqui não é apenas
    que eles bateram
  • 3:17 - 3:21
    todos os algoritmos desenvolvidos
    pela Merck ou a comunidade acadêmica,
  • 3:21 - 3:26
    mas que ninguém no time tinha qualquer
    conhecimento em biologia ou química,
  • 3:26 - 3:29
    e fizeram isso em duas semanas.
  • 3:29 - 3:31
    Como eles fizeram isso?
  • 3:31 - 3:34
    Usaram um algoritmo singular
    chamado aprendizado profundo.
  • 3:34 - 3:37
    Isso foi tão importante que de fato
    o sucesso foi noticiado
  • 3:37 - 3:40
    no The New York Times em artigo
    de primeira página semanas depois.
  • 3:40 - 3:42
    Este é Geoffrey Hinton,
    aqui no lado esquerdo.
  • 3:42 - 3:47
    Aprendizado profundo é um algoritmo
    inspirado no cérebro humano,
  • 3:47 - 3:48
    ou seja, é um algoritmo
  • 3:48 - 3:52
    que não tem limitações teóricas
    para o que pode fazer.
  • 3:52 - 3:55
    Quanto mais dados e tempo você der a ele,
  • 3:55 - 3:57
    melhor ele fica.
  • 3:57 - 4:00
    O The New York Times também mostrou
    neste artigo outro resultado
  • 4:00 - 4:02
    extraordinário de aprendizado profundo
  • 4:02 - 4:04
    que vou mostrar para vocês agora.
  • 4:04 - 4:08
    Mostra que os computadores
    conseguem escutar e entender.
  • 4:09 - 4:11
    (Vídeo) Richard Rashid:
    Agora, o último passo
  • 4:11 - 4:14
    que pretendo dar nesse processo
  • 4:14 - 4:17
    é na verdade falar a vocês em chinês.
  • 4:19 - 4:22
    A chave aqui é que
  • 4:22 - 4:27
    conseguimos levantar uma vasta quantidade
    de informação de muitos falantes do chinês
  • 4:27 - 4:30
    e produzir um sistema
    de conversão texto-fala
  • 4:30 - 4:34
    que pega o texto em chinês
    e o converte para a linguagem chinesa,
  • 4:35 - 4:39
    e então pegamos mais ou menos uma hora
    da minha própria voz
  • 4:39 - 4:41
    e usamos para modular
  • 4:41 - 4:45
    o sistema texto-fala padrão
    para que possa parecer a minha voz.
  • 4:45 - 4:48
    O resultado não é perfeito.
  • 4:48 - 4:51
    Na verdade há alguns erros.
  • 4:51 - 4:53
    (Em chinês)
  • 4:53 - 4:57
    (Aplausos)
  • 4:58 - 5:01
    Há muito trabalho pela frente nessa área.
  • 5:01 - 5:05
    (Em chinês)
  • 5:05 - 5:08
    (Aplausos)
  • 5:10 - 5:14
    J. Howard: Isso foi num congresso
    de aprendizado de máquina na China.
  • 5:14 - 5:17
    Na verdade não é comum escutar aplausos
  • 5:17 - 5:19
    espontâneos em congressos acadêmicos,
  • 5:19 - 5:22
    apesar de obviamente às vezes acontecer
    em conferências TED, fiquem à vontade.
  • 5:22 - 5:25
    Tudo que vocês viram aconteceu
    com aprendizado profundo.
  • 5:25 - 5:27
    (Aplausos) Obrigado.
  • 5:27 - 5:29
    A transcrição em inglês
    foi aprendizado profundo.
  • 5:29 - 5:32
    A tradução para chinês e o texto
    no canto superior direito, também,
  • 5:32 - 5:36
    e a construção da voz também
    foi aprendizado profundo.
  • 5:36 - 5:39
    Então, aprendizado profundo
    é esta coisa extraordinária.
  • 5:39 - 5:42
    É um único algoritmo
    que parece fazer quase tudo,
  • 5:42 - 5:45
    e uma ano antes descobri
    que também aprendeu a ver.
  • 5:45 - 5:47
    Nessa competição alemã desconhecida,
  • 5:47 - 5:50
    chamada: Modelo de Reconhecimento
    de Placas de Trânsito Alemãs,
  • 5:50 - 5:53
    o aprendizado profundo aprendeu
    a reconhecer placas de trânsito como este.
  • 5:53 - 5:55
    Não apenas conseguiu reconhecer as placas
  • 5:55 - 5:57
    melhor que qualquer outro algoritmo,
  • 5:57 - 6:00
    o ranking na verdade mostrou
    ser melhor do que as pessoas,
  • 6:00 - 6:02
    quase duas vezes melhor.
  • 6:02 - 6:04
    Então em 2011 tivemos o primeiro exemplo
  • 6:04 - 6:07
    de computadores que conseguem ver
    melhor do que as pessoas.
  • 6:07 - 6:09
    Desde então muito aconteceu.
  • 6:09 - 6:13
    Em 2012, o Google anunciou que havia
    um algoritmo de aprendizado profundo
  • 6:13 - 6:14
    assistindo vídeos do YouTube
  • 6:14 - 6:17
    e processando os dados em 16 mil
    computadores por um mês,
  • 6:17 - 6:22
    e o computador aprendeu sozinho
    conceitos como pessoas e gatos
  • 6:22 - 6:24
    apenas assistindo aos vídeos.
  • 6:24 - 6:26
    É desse jeito que os humanos aprendem.
  • 6:26 - 6:29
    Os humanos não aprendem com alguém
    explicando o que viram,
  • 6:29 - 6:32
    aprendem por si próprios.
  • 6:32 - 6:35
    Também em 2012, Geoffrey Hinton,
    a quem vimos antes,
  • 6:35 - 6:38
    venceu a conhecida competição ImageNet,
  • 6:38 - 6:42
    tentando descobrir a partir
    de um milhão e meio de imagens
  • 6:42 - 6:44
    o que elas retratam.
  • 6:44 - 6:47
    A partir de 2014 estamos
    com um percentual de erro de 6%
  • 6:47 - 6:49
    em reconhecimento de imagem.
  • 6:49 - 6:51
    De novo, isso é melhor que as pessoas.
  • 6:51 - 6:55
    Então, as máquinas estão fazendo
    um ótimo trabalho
  • 6:55 - 6:57
    e agora isso está sendo
    usado na indústria.
  • 6:57 - 7:00
    Por exemplo, o Google anunciou ano passado
  • 7:00 - 7:04
    que mapearam cada locação da França
    em duas horas,
  • 7:04 - 7:08
    e fizeram isso fornecendo imagens das ruas
  • 7:08 - 7:12
    para o algoritmo de aprendizado profundo
    reconhecer e ler os números das ruas.
  • 7:12 - 7:14
    Imaginem quanto levaria do jeito antigo:
  • 7:14 - 7:18
    dúzias de pessoas, muitos anos.
  • 7:18 - 7:20
    Também está acontecendo na China.
  • 7:20 - 7:24
    Baidu é um Google chinês, acho,
  • 7:24 - 7:26
    e o que vocês podem ver acima à esquerda
  • 7:26 - 7:30
    é um exemplo de uma foto que enviei
    ao sistema de aprendizado profundo deles,
  • 7:30 - 7:34
    e abaixo você pode ver que o sistema
    entendeu que foto era
  • 7:34 - 7:36
    e encontrou imagens similares.
  • 7:36 - 7:39
    As imagens similares de fato
    têm fundos similares,
  • 7:39 - 7:42
    direções de rostos similares,
    algumas até com a língua para fora.
  • 7:42 - 7:45
    Claramente não está olhando
    para o texto da página.
  • 7:45 - 7:47
    Tudo que carreguei foi uma foto.
  • 7:47 - 7:50
    Agora temos computadores
    que realmente entendem o que veem
  • 7:50 - 7:52
    e podem assim buscar em bancos de dados
  • 7:52 - 7:56
    de centenas de milhões
    de fotos em tempo real.
  • 7:56 - 7:59
    O que significa o fato dos
    computadores conseguirem ver?
  • 7:59 - 8:01
    Bem, não é só que conseguem ver.
  • 8:01 - 8:03
    De fato, o aprendizado profundo fez mais.
  • 8:03 - 8:06
    Frases matizadas e complexas
    como esta agora são
  • 8:06 - 8:09
    compreendidas pelo algoritmos
    de aprendizado profundo.
  • 8:09 - 8:10
    Como podem ver aqui,
  • 8:10 - 8:13
    este sistema de Stanford com
    o ponto vermelho acima
  • 8:13 - 8:17
    descobriu que esta frase expressa
    um sentimento negativo.
  • 8:17 - 8:20
    Na verdade o aprendizado profundo
    está alcançando a performance humana
  • 8:20 - 8:25
    ao entender sobre o que as frases são
    e o que dizem sobre as coisas.
  • 8:25 - 8:28
    Além disso o aprendizado profundo
    é usado para ler chinês,
  • 8:28 - 8:31
    de novo no nível do falante nativo.
  • 8:31 - 8:33
    Esse algoritmo, desenvolvido na Suíça
  • 8:33 - 8:37
    por pessoas que não falam chinês.
  • 8:37 - 8:39
    Como eu digo, usar aprendizado profundo
  • 8:39 - 8:41
    é o melhor sistema no mundo para isto,
  • 8:41 - 8:46
    até mesmo comparando
    ao entendimento do humano nativo.
  • 8:46 - 8:49
    Esse é um sistema que montamos
    na minha empresa
  • 8:49 - 8:51
    que mostra tudo isso colocado junto.
  • 8:51 - 8:54
    São fotos sem texto,
  • 8:54 - 8:56
    e enquanto digito frases aqui,
  • 8:56 - 8:59
    ele entende essas fotos em tempo real,
  • 8:59 - 9:01
    descobre sobre o que elas são
  • 9:01 - 9:04
    e encontra fotos similares
    ao que estou escrevendo.
  • 9:04 - 9:07
    Vocês podem ver, está realmente
    entendendo minhas frases
  • 9:07 - 9:09
    e entendendo essas imagens.
  • 9:09 - 9:11
    Sei que vocês viram algo assim no Google,
  • 9:11 - 9:14
    no qual você digita coisas e
    aparecem imagens,
  • 9:14 - 9:18
    mas na verdade o que acontece é que
    está buscando o texto na página.
  • 9:18 - 9:21
    Isso é muito diferente de na verdade
    entender as fotos.
  • 9:21 - 9:23
    Isto é algo que os computadores
    conseguiram fazer
  • 9:23 - 9:27
    pela primeira vez somente
    há alguns poucos meses.
  • 9:27 - 9:31
    Vemos que agora os computadores conseguem
    não apenas ver, mas ler também,
  • 9:31 - 9:34
    e claro, mostramos aqui
    que podem entender o que escutam.
  • 9:34 - 9:38
    Talvez não seja surpresa o que vou
    dizer agora: eles sabem escrever.
  • 9:38 - 9:43
    Aqui um texto gerado usando um algoritmo
    de aprendizado profundo ontem.
  • 9:43 - 9:47
    E aqui um texto gerado
    por um algoritmo de Stanford.
  • 9:47 - 9:48
    Cada uma dessas frases foi criada
  • 9:48 - 9:53
    por um algoritmo de aprendizado profundo
    para descrever cada uma dessas imagens.
  • 9:53 - 9:57
    Esse algoritmo nunca tinha visto um homem
    de camiseta preta tocando violão.
  • 9:57 - 9:59
    Ele já viu um homem antes,
    já viu a cor preta,
  • 9:59 - 10:01
    já viu um violão antes,
  • 10:01 - 10:05
    mas criou, independentemente,
    essa descrição inédita para essa imagem.
  • 10:05 - 10:09
    Ainda não chegamos ao patamar da
    performance humana, mas estamos perto.
  • 10:09 - 10:13
    Em testes, humanos preferem a legenda
    gerada por computador
  • 10:13 - 10:14
    uma a cada quatro vezes.
  • 10:14 - 10:16
    Agora esse sistema tem
    apenas duas semanas,
  • 10:16 - 10:18
    então provavelmente dentro de um ano,
  • 10:18 - 10:21
    o algoritmo de computador será
    melhor que o desempenho humano
  • 10:21 - 10:23
    no ritmo que as coisas vão.
  • 10:23 - 10:26
    Os computadores conseguem escrever.
  • 10:26 - 10:29
    Quando juntamos isso tudo,
    aparecem oportunidades muito empolgantes.
  • 10:29 - 10:31
    Por exemplo, na medicina,
  • 10:31 - 10:33
    uma equipe em Boston anunciou a descoberta
  • 10:33 - 10:36
    de dúzias de novas características
    clinicamente relevantes
  • 10:36 - 10:40
    de tumores que ajudam os médicos
    em prognósticos de câncer.
  • 10:42 - 10:44
    De modo semelhante, em Stanford,
  • 10:44 - 10:48
    um grupo anunciou que, examinando
    os tecidos ampliados,
  • 10:48 - 10:50
    desenvolveu um sistema
    de aprendizado de máquina
  • 10:50 - 10:53
    que de fato é melhor
    que patologistas humanos
  • 10:53 - 10:56
    ao predizer índices de sobrevivência
    para pacientes de câncer.
  • 10:57 - 11:00
    Em ambos os casos, não apenas as previsões
    eram mais precisas,
  • 11:00 - 11:03
    mas criaram uma ciência sagaz.
  • 11:03 - 11:04
    No caso da radiologia,
  • 11:04 - 11:07
    são indicadores clínicos novos
    que os humanos conseguem entender.
  • 11:07 - 11:09
    Nesse caso de patologia,
  • 11:09 - 11:14
    o sistema de computador descobriu
    que as células ao redor do câncer
  • 11:14 - 11:17
    são tão importantes quanto
    as próprias células cancerígenas
  • 11:17 - 11:19
    para se fazer um diagnóstico.
  • 11:19 - 11:23
    Isso é o oposto ao que os patologistas
    tinham ensinado por décadas.
  • 11:24 - 11:27
    Em cada um desses dois casos,
    foram os sistemas desenvolvidos
  • 11:27 - 11:31
    por um grupo de especialistas médicos
    e especialistas em aprendizado de máquina,
  • 11:31 - 11:34
    mas a partir do ano passado,
    já ultrapassamos isto também.
  • 11:34 - 11:37
    Este é um exemplo de identificação
    de áreas cancerígenas
  • 11:37 - 11:40
    em tecido humano sob um microscópio.
  • 11:40 - 11:44
    O sistema aqui consegue identificar
    essas áreas com mais precisão,
  • 11:44 - 11:47
    ou com a mesma precisão,
    do que patologistas humanos,
  • 11:47 - 11:51
    mas foi construído com aprendizado
    profundo sem conhecimento médico
  • 11:51 - 11:53
    por pessoas sem conhecimento na área.
  • 11:54 - 11:57
    De modo similar, aqui,
    esta segmentação de neurônios.
  • 11:57 - 12:00
    Agora podemos segmentar neurônios
    tão precisamente quanto os humanos,
  • 12:00 - 12:03
    mas este sistema foi desenvolvido
    com aprendizado profundo
  • 12:03 - 12:06
    por pessoas sem conhecimento
    prévio em medicina.
  • 12:06 - 12:10
    Então eu mesmo, que não tenho
    conhecimento em medicina,
  • 12:10 - 12:13
    pareço ser inteiramente qualificado
    para iniciar uma empresa médica,
  • 12:13 - 12:16
    que foi o que fiz.
  • 12:16 - 12:17
    Estava meio aterrorizado,
  • 12:17 - 12:20
    mas a teoria sugeria que era possível
  • 12:20 - 12:26
    fazer uma medicina muito útil usando
    apenas estas técnicas analíticas de dados.
  • 12:26 - 12:28
    E ainda bem, a reação tem sido fantástica,
  • 12:28 - 12:31
    não apenas da mídia,
    mas da comunidade médica,
  • 12:31 - 12:33
    que tem sido muito favorável.
  • 12:33 - 12:37
    A teoria é que podemos pegar a parte
    intermediária do processo médico
  • 12:37 - 12:40
    e transformá-la o quanto possível
    em análise de dados,
  • 12:40 - 12:43
    deixando aos médicos
    o que eles fazem de melhor.
  • 12:43 - 12:45
    Quero dar uma exemplo a vocês.
  • 12:45 - 12:49
    Hoje um novo teste de diagnóstico médico
    leva uns 15 minutos para ser feito
  • 12:49 - 12:51
    e vou mostrar em tempo real para vocês,
  • 12:51 - 12:53
    mas comprimi para três minutos,
  • 12:53 - 12:54
    cortando alguns pedaços.
  • 12:54 - 12:58
    Em vez de um teste de diagnóstico médico,
  • 12:58 - 13:01
    vou mostrar um teste de diagnóstico
    de imagens de carros,
  • 13:01 - 13:04
    pois é algo que todos podem entender.
  • 13:04 - 13:07
    Então aqui estamos iniciando com
    1,5 milhão de imagens de carro,
  • 13:07 - 13:10
    e quero criar algo que pode
    selecionar a partir do ângulo
  • 13:10 - 13:12
    em que a foto foi tirada.
  • 13:12 - 13:16
    Estas imagens não estão marcadas,
    então preciso começar do zero.
  • 13:16 - 13:18
    Com o algoritmo de aprendizado profundo,
  • 13:18 - 13:22
    pode-se automaticamente identificar áreas
    de estrutura nestas fotos.
  • 13:22 - 13:25
    O legal é que o humano e o computador
    agora podem trabalhar juntos.
  • 13:25 - 13:27
    Então o humano, como podem ver,
  • 13:27 - 13:30
    diz ao computador as áreas de interesse
  • 13:30 - 13:35
    que o computador usa
    para melhorar o algoritmo.
  • 13:35 - 13:39
    Esses sistemas de aprendizado profundo na
    verdade usa o espaço de 16 mil dimensões,
  • 13:39 - 13:42
    então você pode ver aqui o computador
    girando através do espaço,
  • 13:42 - 13:45
    tentando encontrar novas
    áreas de estrutura.
  • 13:45 - 13:46
    E quando consegue,
  • 13:46 - 13:50
    o humano que está no controle
    aponta as áreas de interesse.
  • 13:50 - 13:53
    Aqui o computador encontrou
    as áreas com sucesso,
  • 13:53 - 13:55
    por exemplo, ângulos.
  • 13:55 - 13:57
    Enquanto seguimos o processo,
  • 13:57 - 13:59
    gradualmente dizendo mais
    e mais ao computador
  • 13:59 - 14:01
    sobre os tipos de estruturas
    que estamos procurando.
  • 14:01 - 14:03
    Se fosse um teste diagnóstico,
  • 14:03 - 14:07
    seria um patologista identificando áreas
    de condição patológica, por exemplo,
  • 14:07 - 14:12
    ou um radiologista indicando nódulos
    potencialmente problemáticos.
  • 14:12 - 14:14
    E às vezes pode ser difícil
    para o algoritmo.
  • 14:14 - 14:16
    Nesse caso, ficou um pouco confuso.
  • 14:16 - 14:19
    As frentes e as traseiras estão
    todas misturadas.
  • 14:19 - 14:21
    Então temos que ser cuidadosos,
  • 14:21 - 14:24
    manualmente separando as frentes
    e as traseiras,
  • 14:24 - 14:29
    e dizendo ao computador que isso é
    o tipo de grupo
  • 14:29 - 14:31
    que nos interessa.
  • 14:31 - 14:34
    Então fizemos isso por um tempo,
    adiantamos um pouco,
  • 14:34 - 14:36
    treinamos o algoritmo de
    aprendizado de máquina
  • 14:36 - 14:38
    com base em algumas centenas de coisas,
  • 14:38 - 14:40
    e esperamos que tenha ficado melhor.
  • 14:40 - 14:43
    Vocês podem ver agora que algumas dessas
    fotos desapareceram,
  • 14:43 - 14:47
    mostrando que já consegue entender
    algumas por si próprio.
  • 14:47 - 14:50
    Podemos então usar esse conceito
    para fotos similares,
  • 14:50 - 14:53
    e usando fotos similares, vocês podem ver,
  • 14:53 - 14:56
    o computador nesse ponto consegue
    encontrar somente as frentes dos carros.
  • 14:56 - 15:00
    Nesse ponto o humano pode
    dizer ao computador,
  • 15:00 - 15:02
    "Ok, sim, você fez um bom trabalho".
  • 15:03 - 15:05
    Claro que às vezes ainda é difícil
  • 15:05 - 15:09
    separar grupos nesse ponto.
  • 15:09 - 15:13
    Neste caso mesmo após
    o computador girar um pouco,
  • 15:13 - 15:16
    ainda vemos que imagens do lado esquerdo
  • 15:16 - 15:18
    e do direito estão todas misturadas.
  • 15:18 - 15:20
    Podemos novamente
    dar dicas ao computador,
  • 15:20 - 15:23
    e dizer ok, encontre uma projeção
    que separe
  • 15:23 - 15:25
    os lados esquerdo e direito
    o melhor possível
  • 15:25 - 15:28
    usando o algoritmo
    de aprendizado profundo.
  • 15:28 - 15:31
    E dando aquela dica - ah, ok, conseguiu.
  • 15:31 - 15:33
    Encontrou um jeito de pensar
    nestes objetos
  • 15:33 - 15:35
    que acabou agrupando-os.
  • 15:36 - 15:38
    Vocês entendem a ideia aqui.
  • 15:39 - 15:46
    Não é o caso de substituir o humano
    pelo computador,
  • 15:46 - 15:49
    mas sim trabalharem juntos.
  • 15:49 - 15:52
    O que fazemos aqui é substituir algo
    que costumava demandar de uma equipe
  • 15:52 - 15:55
    de cinco ou seis pessoas
    por cerca de sete anos
  • 15:55 - 15:57
    com algo que leva apenas 15 minutos
  • 15:57 - 16:00
    para uma pessoa só.
  • 16:00 - 16:04
    Esse processo demanda
    cerca de quatro ou cinco iterações.
  • 16:04 - 16:05
    Podemos ver que agora temos 62%
  • 16:05 - 16:08
    de nossas 1,5 milhão de fotos
    classificadas corretamente.
  • 16:08 - 16:10
    Neste ponto podemos rapidamente
  • 16:10 - 16:12
    pegar seções inteiras
  • 16:12 - 16:15
    e checar se não há erros.
  • 16:15 - 16:19
    Ao encontramos erros, podemos deixar
    o computador analisar.
  • 16:19 - 16:22
    Usando esse tipo de processo
    em cada um dos diferentes grupos,
  • 16:22 - 16:25
    temos agora 80% de índice de sucesso
  • 16:25 - 16:27
    classificando 1,5 milhão de fotos.
  • 16:27 - 16:29
    Nesse ponto é só o caso de encontrar
  • 16:29 - 16:33
    o pequeno número que ainda
    não está classificado corretamente,
  • 16:33 - 16:36
    e tentar entender o motivo.
  • 16:36 - 16:37
    E com essa abordagem,
  • 16:37 - 16:41
    em 15 minutos temos 97%
    de índice de classificação.
  • 16:41 - 16:46
    Então esse tipo de técnica nos permite
    resolver um grande problema,
  • 16:46 - 16:49
    que é a falta de competência
    médica no mundo.
  • 16:49 - 16:53
    O Fórum Econômico Mundial diz que há
    escassez de algo entre 10 e 20 vezes
  • 16:53 - 16:55
    de médicos no mundo em desenvolvimento,
  • 16:55 - 16:57
    e que levaria cerca de 300 anos
  • 16:57 - 17:00
    para treinar gente suficiente
    para resolver o problema.
  • 17:00 - 17:03
    Imaginem conseguirmos
    aumentar a eficiência
  • 17:03 - 17:06
    usando essas abordagens
    de aprendizado profundo?
  • 17:06 - 17:08
    Por isso estou empolgado
    com as oportunidades.
  • 17:08 - 17:11
    E estou preocupado com os problemas.
  • 17:11 - 17:14
    O problema aqui é que cada área
    em azul no mapa
  • 17:14 - 17:18
    é um lugar onde os serviços correspondem
    a mais de 80% dos empregos.
  • 17:18 - 17:19
    O que são serviços?
  • 17:19 - 17:21
    São estes.
  • 17:21 - 17:25
    São também exatamente
    o que os computadores aprenderam a fazer.
  • 17:25 - 17:29
    Então, 80% dos empregos
    no mundo no mundo desenvolvido
  • 17:29 - 17:31
    é algo que computadores
    já aprenderam a fazer.
  • 17:31 - 17:33
    O que isso significa?
  • 17:33 - 17:35
    Ficaremos bem. Serão substituídos
    por outros empregos.
  • 17:35 - 17:38
    Por exemplo serão mais empregos
    para cientistas de dados.
  • 17:38 - 17:39
    Na verdade não.
  • 17:39 - 17:42
    Não leva muito tempo para cientistas
    de dados fazerem isto.
  • 17:42 - 17:45
    Por exemplo, os quatro algoritmos
    foram construídos pela mesma pessoa.
  • 17:45 - 17:48
    Então se pensar:
    "Ah, isso já aconteceu antes",
  • 17:48 - 17:52
    já vimos isso antes,
    quando coisas novas chegam
  • 17:52 - 17:54
    e novos empregos aparecem,
  • 17:54 - 17:56
    como serão estes novos empregos?
  • 17:56 - 17:58
    É muito difícil estimar isso,
  • 17:58 - 18:01
    porque o desempenho humano cresce
    neste ritmo gradual,
  • 18:01 - 18:03
    mas agora temos um sistema,
    aprendizado profundo,
  • 18:03 - 18:06
    que sabemos crescer em ritmo exponencial.
  • 18:06 - 18:08
    E estamos aqui.
  • 18:08 - 18:10
    Então hoje vemos as coisas ao redor
  • 18:10 - 18:13
    e dizemos: "Oh, os computadores
    são tão burros". Certo?
  • 18:13 - 18:16
    Mas em cinco anos os computadores
    estarão fora deste gráfico.
  • 18:16 - 18:20
    Então precisamos começar a pensar
    nesta capacidade desde já.
  • 18:20 - 18:22
    Já vimos isso antes, claro.
  • 18:22 - 18:23
    Na Revolução Industrial,
  • 18:23 - 18:26
    vimos uma mudança na capacidade
    graças aos motores.
  • 18:27 - 18:30
    Acontece que, as coisas foram
    se nivelando.
  • 18:30 - 18:32
    Houve distúrbio social,
  • 18:32 - 18:35
    mas quando os motores foram usados
    para gerar força em todas as situações
  • 18:35 - 18:37
    as coisas se acalmaram.
  • 18:38 - 18:42
    A Revolução do Aprendizado
    de Máquina será bem diferente,
  • 18:42 - 18:45
    porque ela nunca se acalma.
  • 18:45 - 18:48
    Quanto mais as capacidades
    intelectuais dos computadores melhorarem,
  • 18:48 - 18:52
    mais eles podem construir
    outros computadores, melhores nisso,
  • 18:52 - 18:54
    então esse será um tipo de mudança
  • 18:54 - 18:57
    que o mundo nunca teve antes,
  • 18:57 - 19:00
    então sua compreensão anterior
    do que é possível é diferente.
  • 19:00 - 19:02
    Isso já está nos afetando.
  • 19:02 - 19:06
    Nos últimos 25 anos,
    como a produtividade de capital aumentou,
  • 19:06 - 19:10
    a produtividade de mão de obra estacionou,
    de fato até caiu um pouco.
  • 19:11 - 19:14
    Então quero que comecemos
    esta discussão já.
  • 19:14 - 19:16
    Sei que quando conto isso para as pessoas,
  • 19:16 - 19:18
    elas podem acabar desdenhando:
  • 19:18 - 19:20
    "os computadores não sabem pensar,
  • 19:20 - 19:23
    não se emocionam, não entendem poesia,
  • 19:23 - 19:25
    não sabemos como eles funcionam".
  • 19:25 - 19:26
    E daí?
  • 19:26 - 19:29
    Hoje os computadores fazem coisas
  • 19:29 - 19:31
    que passamos a maior parte
    do tempo sendo pagos para fazer,
  • 19:31 - 19:34
    então chegou a hora de pensar
  • 19:34 - 19:37
    em como vamos ajustar nossas
    estruturas sociais e econômicas
  • 19:37 - 19:39
    para essa nova realidade.
  • 19:39 - 19:41
    Obrigado.
  • 19:41 - 19:44
    (Aplausos)
Title:
As maravilhosas e espantosas implicações dos computadores que podem aprender | Jeremy Howard | TEDxBrussels
Description:

Esta palestra foi dada em um evento TEDx que usa o formato de conferência TED mas é organizado de forma independente por uma comunidade local. Para saber mais visite http://ted.com/tedx

O que acontece quando ensinamos um computador a aprender?
O tecnólogo Jeremy Howard compartilha alguns novos e surpreendentes avanços no dinâmico campo do aprendizado profundo, uma técnica que dá aos computadores a habilidade de aprender chinês ou reconhecer objetos em fotos, ou ajudar a analisar um diagnóstico médico (uma ferramenta de aprendizado profundo, depois de assistir a horas de YouTube, aprendeu o conceito de "gatos").
Seja apanhado num campo que vai mudar o modo como os computadores se comportam ao seu redor... mais cedo que você pode imaginar.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
19:47

Portuguese, Brazilian subtitles

Revisions