Return to Video

Este aplicativo sabe como você se sente... pela expressão em seu rosto

  • 0:01 - 0:05
    Nossos sentimentos influenciam
    todos os aspectos de nossas vidas,
  • 0:05 - 0:08
    desde nossa saúde e aprendizado
    até como fazemos negócios e decisões,
  • 0:08 - 0:10
    grandes ou pequenas.
  • 0:10 - 0:14
    Nossos sentimentos também influenciam
    como nos conectamos.
  • 0:15 - 0:19
    Nós evoluímos para viver
    num mundo como esse,
  • 0:19 - 0:23
    mas em vez disso, cada vez mais
    vivemos nossas vidas assim;
  • 0:23 - 0:27
    esta mensagem
    da minha filha ontem à noite;
  • 0:27 - 0:29
    em um mundo desprovido de sentimentos.
  • 0:29 - 0:31
    Eu estou numa missão para mudar isso.
  • 0:31 - 0:35
    Quero recolocar os sentimentos
    em nossas vidas digitais.
  • 0:36 - 0:39
    Eu comecei essa jornada há 15 anos.
  • 0:39 - 0:41
    Eu era cientista da computação no Egito,
  • 0:41 - 0:46
    e tinha acabado de ser aceita
    em um Ph.D. na Universidade de Cambridge.
  • 0:46 - 0:48
    Então fiz algo bem inusitado
  • 0:48 - 0:51
    para uma jovem esposa
    egípcia muçulmana recém-casada:
  • 0:51 - 0:54
    (Risos)
  • 0:54 - 0:57
    Com o apoio de meu marido,
    que teve que ficar no Egito,
  • 0:57 - 1:00
    eu arrumei minhas malas
    e me mudei para a Inglaterra.
  • 1:00 - 1:03
    Em Cambridge, milhares
    de quilômetros longe de casa,
  • 1:03 - 1:06
    eu percebi que passava
    mais tempo com meu laptop
  • 1:06 - 1:08
    do que com qualquer outro ser humano.
  • 1:08 - 1:10
    E apesar desta intimidade,
  • 1:10 - 1:13
    meu laptop não tinha a menor ideia
    de como eu me sentia.
  • 1:13 - 1:17
    Não tinha ideia se eu estava feliz,
  • 1:17 - 1:20
    se num dia ruim, estressada, confusa,
  • 1:20 - 1:22
    e isso acabou ficando frustrante.
  • 1:24 - 1:29
    Pior ainda, enquanto eu me comunicava
    online com a minha família em casa,
  • 1:29 - 1:33
    eu sentia que todos os meus sentimentos
    desapareciam no cyberespaço.
  • 1:33 - 1:38
    Eu sentia saudades, estava sozinha,
    e alguns até mesmo chorava,
  • 1:38 - 1:43
    mas tudo que eu tinha
    para expressar esses sentimentos era isto.
  • 1:43 - 1:45
    (Risos)
  • 1:45 - 1:50
    A tecnologia atual tem muito QI,
    mas nenhum QE;
  • 1:50 - 1:53
    muita inteligência cognitiva,
    mas nenhuma inteligência emocional.
  • 1:53 - 1:55
    E isso me fez pensar,
  • 1:55 - 1:59
    e se nossa tecnologia pudesse
    perceber nossos sentimentos?
  • 1:59 - 2:01
    E se nossos dispositivos pudessem perceber
  • 2:01 - 2:03
    como nos sentimos e reagissem de acordo,
  • 2:03 - 2:06
    como um amigo
    emocionalmente inteligente faria?
  • 2:07 - 2:10
    Essas questões fizeram
    com que eu e minha equipe
  • 2:10 - 2:15
    criássemos tecnologias que pudessem
    ler e reagir aos nossos sentimentos,
  • 2:15 - 2:18
    e nosso ponto de partida
    foi o rosto humano.
  • 2:19 - 2:22
    Nosso rosto humano
    é um dos canais mais poderosos
  • 2:22 - 2:26
    que todos nós usamos para comunicar
    estados sociais e emocionais,
  • 2:26 - 2:29
    tudo desde alegria, surpresa,
  • 2:29 - 2:33
    empatia e curiosidade.
  • 2:33 - 2:34
    Na ciência dos sentimentos,
  • 2:34 - 2:38
    nós chamamos cada movimento
    muscular facial de unidade de ação.
  • 2:38 - 2:41
    Por exemplo, unidade de ação 12,
  • 2:41 - 2:43
    não é um filme de Holywood,
  • 2:43 - 2:45
    é sim uma fisgada no canto dos lábios,
  • 2:45 - 2:47
    que é o principal
    componente de um sorriso.
  • 2:47 - 2:49
    Tentem vocês.
    Vamos mostrar alguns sorrisos.
  • 2:49 - 2:52
    Outro exemplo é a unidade de ação 4.
    Que é a testa franzida.
  • 2:52 - 2:54
    É quando você junta as sobrancelhas
  • 2:54 - 2:56
    e cria todas estas texturas e dobras.
  • 2:56 - 2:57
    Não gostamos disso,
  • 2:57 - 3:00
    mas é um forte indicador
    de um sentimento negativo.
  • 3:00 - 3:03
    Temos cerca de 45 dessas unidades de ação,
  • 3:03 - 3:06
    e elas se combinam para expressar
    centenas de sentimentos.
  • 3:06 - 3:10
    Ensinar um computador a ler
    essas emoções faciais é difícil,
  • 3:10 - 3:13
    porque essas unidades de ação
    podem ser rápidas, elas são sutis,
  • 3:13 - 3:16
    e se combinam
    de várias maneiras diferentes.
  • 3:16 - 3:20
    Então peguem, por exemplo,
    o sorriso genuíno e o malicioso.
  • 3:20 - 3:23
    Eles se parecem de certa maneira,
    mas querem dizer coisas bem diferentes.
  • 3:23 - 3:25
    (Risos)
  • 3:25 - 3:29
    O sorriso genuíno é positivo,
    o malicioso normalmente é negativo.
  • 3:29 - 3:33
    Às vezes um sorriso malicioso
    pode torná-lo famoso.
  • 3:33 - 3:36
    Mas falando sério, é importante
    que um computador consiga
  • 3:36 - 3:38
    diferenciar essas duas expressões.
  • 3:38 - 3:40
    Então, como fazemos?
  • 3:40 - 3:42
    Nós damos ao nosso algoritmo
  • 3:42 - 3:45
    dezenas de milhares de exemplos de pessoas
  • 3:45 - 3:47
    que sabemos que estão sorrindo,
  • 3:47 - 3:50
    de diferentes etnias, idades e gêneros,
  • 3:50 - 3:52
    e fazemos o mesmo
    para sorrisos maliciosos.
  • 3:52 - 3:54
    E assim, usando aprendizagem profunda,
  • 3:54 - 3:57
    o algoritmo busca
    todas essas texturas e dobras
  • 3:57 - 3:59
    e mudanças de forma em nosso rosto
  • 3:59 - 4:02
    e aprende que todos os sorrisos genuínos
    têm características em comum,
  • 4:02 - 4:04
    todos os sorrisos maliciosos
  • 4:04 - 4:06
    têm características
    sutilmente diferentes.
  • 4:06 - 4:08
    E da próxima vez
    que ele vir um novo rosto,
  • 4:08 - 4:10
    ele aprende que
  • 4:10 - 4:13
    esse rosto tem as mesmas
    características de um sorriso genuíno,
  • 4:13 - 4:18
    Ele pensa: "Aha, este eu reconheço.
    É uma expressão de sorriso genuíno."
  • 4:18 - 4:21
    E a melhor maneira de mostrar
    que essa tecnologia funciona
  • 4:21 - 4:23
    é fazer uma demonstração ao vivo,
  • 4:23 - 4:27
    então vou precisar de um voluntário,
    de preferência alguém com um rosto.
  • 4:27 - 4:30
    (Risos)
  • 4:30 - 4:32
    A Cloe vai ser nossa voluntária hoje.
  • 4:33 - 4:35
    Durante os últimos cinco anos,
  • 4:35 - 4:38
    nós passamos de um projeto
    de pesquisa no MIT
  • 4:38 - 4:39
    para uma empresa,
  • 4:39 - 4:41
    na qual minha equipe trabalhou duro
  • 4:41 - 4:43
    para fazer essa tecnologia funcionar,
  • 4:43 - 4:45
    como gostamos de dizer, no meio selvagem.
  • 4:45 - 4:46
    E nós também a minimizamos
  • 4:46 - 4:48
    para que o mecanismo central
    de sentimentos
  • 4:48 - 4:51
    funcione em qualquer
    dispositivo móvel, como este iPad.
  • 4:51 - 4:53
    Então vamos testar.
  • 4:55 - 4:58
    Como podem ver, o algoritmo essencialmente
    encontrou o rosto da Cloe,
  • 4:58 - 5:00
    é essa caixa branca delimitadora,
  • 5:00 - 5:03
    e está acompanhando
    os pontos característicos em seu rosto,
  • 5:03 - 5:06
    as sobrancelhas, olhos, boca, e nariz.
  • 5:06 - 5:09
    A questão é: será que consegue
    reconhecer sua expressão?
  • 5:09 - 5:10
    Vamos testar a máquina.
  • 5:10 - 5:14
    Primeiro, faça uma cara de blefe.
    Isso, ótimo! (Risos)
  • 5:14 - 5:17
    E à medida que ela sorri,
    esse sorriso é genuíno, muito bom.
  • 5:17 - 5:20
    Podemos ver a barra verde
    aumentar enquanto ela sorri.
  • 5:20 - 5:21
    Foi um grande sorriso.
  • 5:21 - 5:24
    Pode tentar um sorriso sutil
    para ver se o computador reconhece?
  • 5:24 - 5:28
    Também reconhece sorrisos sutis.
    Trabalhamos muito que isso acontecesse.
  • 5:28 - 5:31
    As sobrancelhas levantadas,
    o que indica surpresa.
  • 5:31 - 5:36
    Testa franzida, o que indica confusão.
  • 5:36 - 5:40
    Cara fechada. Isso, perfeito.
  • 5:40 - 5:43
    Essas são as diferentes unidades de ação.
    Há muitas outras.
  • 5:43 - 5:45
    Esta é só uma curta demonstração.
  • 5:45 - 5:48
    Mas cada leitura é chamada
    de ponto de dados de sentimento,
  • 5:48 - 5:52
    e eles podem ser ativados ao mesmo tempo
    para retratar diferentes sentimentos.
  • 5:52 - 5:56
    Do lado direito da demonstração...
    Parece que você está feliz.
  • 5:56 - 5:58
    Isto é alegria. A alegria acende.
  • 5:58 - 5:59
    E faça uma cara de nojo.
  • 5:59 - 6:04
    Tente se lembrar como foi
    quando Zayn saiu do One Direction.
  • 6:04 - 6:05
    (Risos)
  • 6:05 - 6:09
    Isso, torça o nariz. Ótimo.
  • 6:09 - 6:13
    E a valência é bastante negativa,
    você deve ser uma grande fã.
  • 6:13 - 6:16
    Valência é quão positiva
    ou negativa é uma sensação,
  • 6:16 - 6:19
    e engajamento indica
    a expressividade também.
  • 6:19 - 6:22
    Imaginem se a Cloe tivesse acesso
    a esse fluxo de sentimentos em tempo real,
  • 6:22 - 6:25
    e pudesse compartilhar
    com quem ela quisesse.
  • 6:25 - 6:27
    Obrigada.
  • 6:27 - 6:29
    (Aplausos)
  • 6:34 - 6:39
    Até agora já acumulamos 12 bilhões
    de pontos de dados de sentimentos.
  • 6:39 - 6:42
    É o maior banco de dados
    de sentimentos do mundo.
  • 6:42 - 6:45
    Nós os conseguimos
    de 2,9 milhões de vídeos de rostos,
  • 6:45 - 6:48
    pessoas que aceitaram compartilhar
    seus sentimentos conosco,
  • 6:48 - 6:50
    e de 75 países por todo o mundo.
  • 6:50 - 6:52
    Está crescendo a cada dia.
  • 6:53 - 6:54
    Me deixa sem palavras
  • 6:54 - 6:58
    que agora podemos quantificar
    algo tão pessoal como nossos sentimentos,
  • 6:58 - 7:00
    e podemos fazê-lo nessa escala.
  • 7:00 - 7:02
    E o que já aprendemos?
  • 7:03 - 7:05
    Gênero.
  • 7:05 - 7:09
    Nossos dados confirmam uma coisa
    que talvez vocês suspeitem.
  • 7:09 - 7:11
    Mulheres são mais expressivas que homens.
  • 7:11 - 7:14
    Elas não só sorriem mais,
    seus sorrisos duram mais,
  • 7:14 - 7:17
    e agora conseguimos quantificar
    o que faz com que homens e mulheres
  • 7:17 - 7:19
    reajam de maneira diferente.
  • 7:19 - 7:21
    Vamos falar de cultura:
    nos Estados Unidos,
  • 7:21 - 7:24
    as mulheres são 40%
    mais expressivas que os homens,
  • 7:24 - 7:27
    mas curiosamente não vemos
    nenhuma diferença
  • 7:27 - 7:29
    no Reino Unido entre homens e mulheres.
  • 7:29 - 7:30
    (Risos)
  • 7:31 - 7:35
    Idade: pessoas com 50 anos ou mais
  • 7:35 - 7:39
    são 25% mais emotivas
    do que os mais jovens.
  • 7:39 - 7:44
    Mulheres na casa dos 20 sorriem muito mais
    do que homens com a mesma idade,
  • 7:44 - 7:47
    talvez uma necessidade para namorar.
  • 7:47 - 7:50
    Mas talvez o que mais
    nos surpreendeu nesses dados
  • 7:50 - 7:53
    é que somos expressivos o tempo todo,
  • 7:53 - 7:56
    mesmo quando estamos sozinhos
    com nossos dispositivos,
  • 7:56 - 8:00
    e não é só quando estamos
    assistindo vídeos de gatos no Facebook.
  • 8:00 - 8:03
    Somos expressivos quando escrevemos
    e-mails, mensagens, fazemos compras,
  • 8:03 - 8:06
    ou até mesmo declarando os impostos.
  • 8:06 - 8:08
    Onde esses dados são usados hoje?
  • 8:08 - 8:11
    Para entender como
    interagimos com a mídia,
  • 8:11 - 8:13
    entender viralidade
    e comportamento de votação;
  • 8:13 - 8:16
    e também capacitar e incluir
    sentimentos na tecnologia,
  • 8:16 - 8:21
    e eu gostaria de mostrar alguns
    dos meus exemplos preferidos.
  • 8:21 - 8:24
    Óculos que conseguem ler sentimentos
    podem ajudar
  • 8:24 - 8:27
    pessoas com deficiência visual
    a ler os rostos dos outros
  • 8:27 - 8:32
    e pode ajudar pessoas no espectro
    do autismo a interpretar sentimentos,
  • 8:32 - 8:34
    algo com que têm muita dificuldade.
  • 8:36 - 8:39
    Na educação, imagine
    se seus aplicativos de ensino
  • 8:39 - 8:42
    perceberem que você
    está confuso e desacelerarem,
  • 8:42 - 8:43
    ou que você está
    entediado e acelerarem,
  • 8:43 - 8:46
    assim como faria um bom
    professor em sala de aula.
  • 8:47 - 8:50
    E se seu relógio de pulso
    acompanhasse seu humor
  • 8:50 - 8:52
    ou seu carro percebesse
    que você está cansado,
  • 8:52 - 8:55
    ou talvez sua geladeira saiba
    que você está estressada,
  • 8:55 - 8:59
    e se tranca sozinha
    para que você não coma demais. (Risos)
  • 8:59 - 9:02
    Eu gostaria disso, sim.
  • 9:04 - 9:05
    E se, quando eu estava em Cambridge,
  • 9:05 - 9:08
    eu tivesse acesso ao meu fluxo
    de sentimentos em tempo real,
  • 9:08 - 9:09
    e pudesse compartilhá-lo
  • 9:09 - 9:12
    com a minha família em casa
    de maneira natural,
  • 9:12 - 9:15
    assim como eu faria se estivéssemos
    todos juntos na sala?
  • 9:15 - 9:18
    Acredito que daqui a cinco anos,
  • 9:18 - 9:21
    todos os nossos dispositivos
    vão ter um chip de sentimentos,
  • 9:21 - 9:23
    e nem vamos nos lembrar como era
  • 9:23 - 9:25
    quando não adiantava fazer cara feia
    para o dispositivo
  • 9:25 - 9:29
    e ele diria: "Hm, você não
    gostou disso, né?"
  • 9:29 - 9:33
    Nosso maior desafio é que há tantas
    aplicações para essa tecnologia,
  • 9:33 - 9:36
    que minha equipe percebeu
    que não podemos satisfazê-las sozinhos,
  • 9:36 - 9:39
    então nós disponibilizamos essa tecnologia
    a outros desenvolvedores
  • 9:39 - 9:41
    para que construam e usem a criatividade.
  • 9:41 - 9:46
    Nós reconhecemos que há potenciais riscos
  • 9:46 - 9:48
    e potencial para abuso,
  • 9:48 - 9:51
    mas pessoalmente,
    após muitos anos fazendo isso,
  • 9:51 - 9:53
    acredito que os benefícios à humanidade
  • 9:53 - 9:56
    de ter tecnologia
    emocionalmente inteligente
  • 9:56 - 9:59
    superam de longe o potencial de abuso.
  • 9:59 - 10:02
    E eu os convido todos
    a participarem da conversa.
  • 10:02 - 10:04
    Quanto mais pessoas
    conhecerem essa tecnologia,
  • 10:04 - 10:08
    mais peso terá nossa opinião
    sobre como usá-la.
  • 10:09 - 10:14
    E à medida que nossas vidas
    vão se digitalizando,
  • 10:14 - 10:17
    nós lutamos uma batalha perdida
    tentando frear nosso uso de dispositivos
  • 10:17 - 10:19
    para reivindicar nossos sentimentos.
  • 10:21 - 10:25
    Então o que estou tentando fazer
    é colocar sentimentos na tecnologia
  • 10:25 - 10:27
    e tornar nossa tecnologia mais responsiva.
  • 10:27 - 10:29
    Eu quero que esses dispositivos
    que nos separaram
  • 10:29 - 10:32
    juntem-nos novamente.
  • 10:32 - 10:36
    E humanizando a tecnologia,
    nós temos essa oportunidade de ouro
  • 10:36 - 10:40
    de reimaginar nossa conexão
    com as máquinas,
  • 10:40 - 10:44
    e assim, como nós, seres humanos,
  • 10:44 - 10:46
    nos conectamos uns com os outros.
  • 10:46 - 10:48
    Obrigada.
  • 10:48 - 10:52
    (Aplausos)
Title:
Este aplicativo sabe como você se sente... pela expressão em seu rosto
Speaker:
Rana el Kaliouby
Description:

Nossos sentimentos influenciam cada aspecto de nossas vidas: como aprendemos, como nos comunicamos, como tomamos decisões. E mesmo assim estão ausentes em nossas vidas digitais; os dispositivos e aplicativos com os quais interagimos não conseguem entender nossos sentimentos. A cientista Rana el Kaliouby quer mudar isso. Ela demonstra uma nova tecnologia poderosa que lê sua expressão facial e lhe atribui o sentimento correspondente. Essa "máquina de sentimentos" tem grandes implicações, segundo ela, e pode mudar não apenas como nós interagimos com as máquinas; mas também uns com os outros.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Portuguese, Brazilian subtitles

Revisions