Return to Video

Este aplicativo sabe como nos sentimos — pela expressão no nosso rosto

  • 0:01 - 0:04
    As nossas emoções influenciam
    todos os aspetos da nossa vida,
  • 0:04 - 0:07
    desde a nossa saúde,
    a forma como aprendemos
  • 0:07 - 0:09
    até como trabalhamos
    e tomamos decisões,
  • 0:09 - 0:10
    sejam elas pequenas ou grandes.
  • 0:11 - 0:15
    As nossas emoções também influenciam o modo
    como nos relacionamos uns com os outros.
  • 0:15 - 0:18
    Nós evoluímos para viver
    num mundo como este.
  • 0:19 - 0:24
    Mas, em vez disso, vivemos
    cada vez mais desta forma.
  • 0:24 - 0:26
    — esta foi a mensagem
    da minha filha ontem à noite —
  • 0:27 - 0:29
    num mundo desprovido de emoção.
  • 0:29 - 0:32
    Eu estou numa missão para mudar isto.
  • 0:32 - 0:35
    Quero fazer voltar as emoções
    às nossas experiências digitais.
  • 0:37 - 0:39
    Comecei neste caminho há 15 anos.
  • 0:39 - 0:42
    Eu era cientista de informática no Egito,
  • 0:42 - 0:45
    e tinha sido aceite
    num programa de doutoramento
  • 0:45 - 0:46
    na Universidade de Cambridge.
  • 0:46 - 0:48
    Então, fiz uma coisa bastante invulgar
  • 0:48 - 0:52
    para uma jovem esposa
    egípcia e muçulmana.
  • 0:54 - 0:57
    Com o apoio do meu marido,
    que teve que ficar no Egito,
  • 0:57 - 0:59
    fiz as malas e fui para Inglaterra.
  • 1:00 - 1:03
    Em Cambridge,
    a milhares de quilómetros de casa,
  • 1:03 - 1:06
    percebi que estava a passar
    mais tempo com o meu portátil
  • 1:06 - 1:08
    do que com qualquer ser humano.
  • 1:09 - 1:10
    Mas, apesar da intimidade,
  • 1:10 - 1:13
    o meu portátil não fazia ideia nenhuma
    de como eu me sentia.
  • 1:13 - 1:16
    Não sabia se eu estava feliz,
  • 1:16 - 1:20
    se estava a ter um dia mau,
    se estava tensa ou confusa,
  • 1:20 - 1:22
    e isso tornou-se frustrante.
  • 1:24 - 1:28
    Pior ainda, quando eu comunicava
    com a minha família online,
  • 1:29 - 1:32
    eu sentia que as minhas emoções
    desapareciam no ciberespaço.
  • 1:33 - 1:38
    Eu estava com saudades de casa, solitária,
    e, às vezes, até chorava,
  • 1:38 - 1:43
    mas tudo o que eu tinha para comunicar
    essas emoções era isto.
  • 1:43 - 1:45
    (Risos)
  • 1:45 - 1:49
    A tecnologia atual tem um alto Q.I,
    mas nenhum Q.E.,
  • 1:49 - 1:53
    ou seja, uma alta inteligência cognitiva,
    mas nenhuma inteligência emocional.
  • 1:53 - 1:56
    Então comecei a pensar:
  • 1:56 - 1:59
    E se a nossa tecnologia pudesse
    reconhecer as nossas emoções?
  • 1:59 - 2:01
    E se ela pudesse reconhecer
    os nossos sentimentos
  • 2:01 - 2:03
    e reagir de acordo com eles,
  • 2:03 - 2:06
    do mesmo modo que um amigo
    emocionalmente inteligente reagiria?
  • 2:07 - 2:10
    Estas perguntas fizeram
    com que eu e a minha equipa
  • 2:10 - 2:14
    criássemos tecnologias capazes
    de ler e de reagir às nossas emoções.
  • 2:15 - 2:17
    O nosso ponto de partida
    foi o rosto humano.
  • 2:19 - 2:22
    O rosto humano é um
    dos mais poderosos canais
  • 2:22 - 2:26
    que utilizamos para comunicar
    os estados sociais e emocionais,
  • 2:26 - 2:28
    como a alegria,
  • 2:28 - 2:29
    a surpresa,
  • 2:29 - 2:31
    a empatia
  • 2:31 - 2:33
    e a curiosidade.
  • 2:33 - 2:36
    Na ciência da emoção,
    chamamos "unidade de ação"
  • 2:36 - 2:38
    a cada movimento facial muscular ,
  • 2:38 - 2:41
    Por exemplo, ''unidade de ação 12'',
  • 2:41 - 2:43
    — não é um grande êxito de Hollywood —
  • 2:43 - 2:46
    é o levantar do canto do lábio,
    o principal componente de um sorriso.
  • 2:46 - 2:49
    Tentem, todos vocês.
    Vamos ver alguns sorrisos.
  • 2:49 - 2:52
    Outro exemplo é a "unidade de ação 4".
    É franzir a testa.
  • 2:52 - 2:56
    É quando aproximamos as sobrancelhas,
    e criamos várias texturas e rugas.
  • 2:56 - 3:00
    Não gostamos delas, mas é
    um forte indicador de emoções negativas.
  • 3:00 - 3:03
    Temos cerca de 45 unidades de ação,
  • 3:03 - 3:06
    que se combinam para exprimir
    centenas de emoções.
  • 3:06 - 3:10
    Ensinar um computador a ler
    essas emoções faciais é difícil
  • 3:10 - 3:13
    porque essas unidades de ação
    podem ser rápidas, podem ser subtis,
  • 3:13 - 3:16
    e combinam-se de muita formas diferentes.
  • 3:16 - 3:19
    Por exemplo, o sorriso alegre
    e o sorriso irónico.
  • 3:20 - 3:23
    São parecidos, mas
    significam coisas muito diferentes.
  • 3:23 - 3:25
    (Risos)
  • 3:25 - 3:27
    O sorriso alegre é positivo,
  • 3:27 - 3:29
    o sorriso irónico, geralmente, é negativo.
  • 3:29 - 3:32
    Às vezes o sorriso irónico
    pode tornar alguém famoso.
  • 3:33 - 3:38
    É importante que um computador
    consiga distinguir essas duas expressões.
  • 3:38 - 3:40
    Então como fazemos isso?
  • 3:40 - 3:42
    Damos aos nossos algoritmos
  • 3:42 - 3:47
    dezenas de milhares de exemplos
    de pessoas que sorriem alegremente,
  • 3:47 - 3:50
    pessoas de diferentes etnias,
    idades, sexos,
  • 3:50 - 3:52
    e fazemos o mesmo com o sorriso irónico.
  • 3:52 - 3:54
    Usando a aprendizagem profunda,
  • 3:54 - 3:57
    o algoritmo procura todas
    essas texturas e rugas
  • 3:57 - 3:59
    e as mudanças de forma no nosso rosto,
  • 3:59 - 4:03
    e aprende que todos os sorrisos alegres
    têm características em comum
  • 4:03 - 4:06
    e todos os sorrisos irónicos têm
    características subtilmente diferentes.
  • 4:06 - 4:08
    E quando voltar a ver um novo rosto,
  • 4:08 - 4:11
    ele aprende que esse rosto
  • 4:11 - 4:14
    tem as mesmas características
    de um sorriso alegre e diz:
  • 4:14 - 4:18
    ''Aha, eu reconheço isto.
    Esta é uma expressão de sorriso alegre.''
  • 4:19 - 4:21
    A melhor maneira de demonstrar
    como essa tecnologia funciona
  • 4:21 - 4:24
    é fazer uma demonstração ao vivo.
  • 4:24 - 4:27
    Portanto, preciso de um voluntário,
    de preferência alguém com um rosto.
  • 4:27 - 4:29
    (Risos)
  • 4:30 - 4:33
    Cloe vai ser hoje a nossa voluntária.
  • 4:33 - 4:38
    Nos últimos cinco anos, passámos
    de um projeto de pesquisa no MIT
  • 4:38 - 4:39
    para uma empresa,
  • 4:39 - 4:43
    onde o meu grupo tem trabalhado muito
    para fazer funcionar esta tecnologia,
  • 4:43 - 4:45
    como gostamos de dizer, no dia-a-dia.
  • 4:45 - 4:48
    E também a reduzimos para que
    o mecanismo de emoção central
  • 4:48 - 4:51
    funcione em qualquer aparelho
    com câmara, como este iPad.
  • 4:51 - 4:53
    Então vamos lá testá-lo.
  • 4:56 - 4:59
    Como podem ver, o algoritmo
    encontrou o rosto da Cloe
  • 4:59 - 5:01
    — é esta caixa delimitadora branca —
  • 5:01 - 5:03
    e está a procurar
    os pontos principais das feições dela:
  • 5:03 - 5:06
    as sobrancelhas, os olhos,
    a boca e o nariz.
  • 5:06 - 5:09
    A pergunta é: ''Poderá
    reconhecer a expressão dela?''
  • 5:09 - 5:10
    Vamos testar a máquina.
  • 5:10 - 5:13
    Primeiro, faz um rosto inexpressivo.
    Isso, fantástico.
  • 5:13 - 5:15
    (Risos)
  • 5:15 - 5:18
    Quando ela sorri, é um
    sorriso genuíno, é ótimo.
  • 5:18 - 5:20
    Vejam a barra verde
    subir quando ela sorri.
  • 5:20 - 5:21
    Esse foi um sorriso enorme.
  • 5:21 - 5:24
    Podes sorrir levemente,
    para ver se o computador reconhece?
  • 5:24 - 5:26
    Ele também reconhece sorrisos subtis.
  • 5:26 - 5:28
    Trabalhámos muito para que isto aconteça.
  • 5:28 - 5:31
    Agora o levantar das sobrancelhas,
    que indica surpresa.
  • 5:31 - 5:35
    O franzir da testa,
    que indica confusão.
  • 5:35 - 5:36
    (Risos)
  • 5:36 - 5:39
    O franzir de sobrancelhas. Perfeito.
  • 5:40 - 5:43
    Estas são diferentes unidades de ação.
    Existem muitas outras.
  • 5:43 - 5:45
    Esta é uma demonstração reduzida.
  • 5:45 - 5:48
    Nós consideramos cada leitura
    como um dado emocional.
  • 5:49 - 5:52
    Podem aparecer juntos
    para representar diferentes emoções.
  • 5:52 - 5:55
    No lado direito da demonstração
    — parece que estamos felizes.
  • 5:55 - 5:57
    Isso é alegria. A alegria dispara.
  • 5:58 - 6:00
    Agora faz uma cara de desgosto.
  • 6:00 - 6:03
    Tenta lembrar-te como te sentiste
    quando Zayn saiu dos One Direction.
  • 6:03 - 6:04
    (Risos)
  • 6:04 - 6:07
    Isso, enruga o nariz. Ótimo.
  • 6:10 - 6:13
    A valência está muito negativa,
    devias ser uma grande fã.
  • 6:13 - 6:16
    A valência é quão positiva
    ou negativa é uma experiência,
  • 6:16 - 6:19
    e o envolvimento é
    quão expressiva é a pessoa.
  • 6:19 - 6:22
    Imaginem se Cloe tivesse acesso
    a este fluxo digital de emoções,
  • 6:22 - 6:25
    e pudesse partilhar isso
    com quem ela quisesse.
  • 6:26 - 6:27
    Obrigada.
  • 6:27 - 6:30
    (Aplausos)
  • 6:34 - 6:39
    Até agora, já acumulámos 12 mil milhões
    destes dados emocionais.
  • 6:39 - 6:41
    É o maior banco de dados
    emocionais do mundo.
  • 6:41 - 6:45
    Fomos buscá-los a 2,9 milhões
    de vídeos de rostos,
  • 6:45 - 6:48
    de pessoas que aceitaram partilhar
    as suas emoções connosco,
  • 6:48 - 6:51
    de 75 países em todo o mundo.
  • 6:51 - 6:53
    Ele está a crescer todos os dias.
  • 6:53 - 6:55
    Eu fico espantada com o fato de que
  • 6:55 - 6:59
    hoje em dia podemos quantificar
    uma coisa tão pessoal como as emoções
  • 6:59 - 7:00
    e podemos fazer isso a este nível.
  • 7:00 - 7:03
    Então o que é que aprendemos até agora?
  • 7:03 - 7:05
    Diferenças entre sexos.
  • 7:05 - 7:08
    Os nossos dados confirmam uma coisa
    que vocês talvez suspeitem.
  • 7:09 - 7:11
    As mulheres são mais expressivas
    do que os homens.
  • 7:11 - 7:14
    Sorriem-se mais,
    e os sorrisos delas duram mais tempo.
  • 7:14 - 7:17
    Podemos quantificar
    a que é que homens e mulheres
  • 7:17 - 7:19
    reagem de modo diferente.
  • 7:19 - 7:20
    Vamos contribuir para a cultura:
  • 7:20 - 7:22
    Nos Estados Unidos,
  • 7:22 - 7:24
    as mulheres são 50% mais expressivas
    do que os homens
  • 7:24 - 7:28
    mas, curiosamente, não vemos diferença
    no Reino Unido entre homens e mulheres.
  • 7:28 - 7:31
    (Risos)
  • 7:32 - 7:36
    Idade: As pessoas com 50 anos ou mais
  • 7:36 - 7:38
    são 25% mais emotivas
    do que as pessoas jovens.
  • 7:39 - 7:44
    As mulheres na faixa dos 20 anos sorriem
    mais do que os homens da mesma idade,
  • 7:44 - 7:46
    talvez seja uma necessidade
    para arranjar namoro.
  • 7:48 - 7:50
    Mas talvez o que mais nos surpreendeu
    em relação a estes dados
  • 7:50 - 7:53
    é que nós somos expressivos o tempo todo,
  • 7:53 - 7:57
    mesmo quando estamos sentados sozinhos
    em frente dos nossos computadores,
  • 7:57 - 8:00
    e não é só quando assistimos
    a vídeos de gatos no Facebook.
  • 8:00 - 8:04
    Somos expressivos quando enviamos e-mails
    e mensagens, quando compramos online,
  • 8:04 - 8:06
    e até quando fazemos
    a declaração de impostos.
  • 8:06 - 8:08
    Onde é que esses dados são usados hoje?
  • 8:08 - 8:11
    Para compreender
    como nos envolvemos com os media;
  • 8:11 - 8:14
    para compreender os fenómenos virais
    e o comportamento eleitoral;
  • 8:14 - 8:17
    e também nas tecnologias
    que reforçam ou provocam emoções.
  • 8:17 - 8:20
    Quero mostrar-vos alguns exemplos
    que considero muito especiais.
  • 8:21 - 8:24
    Óculos que reconheçam emoções
    podem ajudar indivíduos
  • 8:24 - 8:27
    que possuem deficiente visão
    a ler o rosto dos outros.
  • 8:28 - 8:31
    Podem ajudar indivíduos do espetro
    autista a interpretar emoções,
  • 8:31 - 8:34
    que é uma coisa
    em que eles têm muita dificuldade.
  • 8:36 - 8:39
    Na área do ensino, imaginem se
    os aplicativos educacionais
  • 8:39 - 8:42
    percebam que estamos confusos
    e abrandem de velocidade
  • 8:42 - 8:45
    ou que estamos aborrecidos
    e avancem mais depressa,
  • 8:45 - 8:47
    como faria um bom professor na aula.
  • 8:48 - 8:50
    E se o nosso relógio detetasse
    a nossa disposição?
  • 8:50 - 8:52
    Ou se o nosso carro sentisse que
    estamos cansados?
  • 8:52 - 8:55
    Ou o nosso frigorífico percebesse
    que estamos nervosos
  • 8:55 - 8:58
    e trancasse automaticamente
    para impedir que comamos demais?
  • 8:58 - 9:00
    (Risos)
  • 9:00 - 9:01
    Eu adoraria isso.
  • 9:04 - 9:06
    E se, quando eu estava em Cambridge,
  • 9:06 - 9:08
    eu tivesse tido acesso ao
    meu fluxo de emoções em tempo real
  • 9:08 - 9:12
    e pudesse partilhar isso
    com a minha família de modo natural,
  • 9:12 - 9:15
    tal como faria se estivéssemos
    todos juntos na mesma sala?
  • 9:16 - 9:18
    Eu acho que, daqui a 5 anos,
  • 9:18 - 9:21
    todos os nossos aparelhos
    terão um chip emocional.
  • 9:21 - 9:25
    Nem nos vamos lembrar como era não poder
    franzir testa para o computador
  • 9:25 - 9:28
    e ele responder:
    ''Hmm, não gostaste disto, pois não?.''
  • 9:29 - 9:33
    O nosso maior desafio é que há
    tantas aplicações desta tecnologia
  • 9:33 - 9:36
    que a minha equipa e eu percebemos que
    não podemos montar tudo sozinhos.
  • 9:36 - 9:40
    Assim, tornámos disponível esta tecnologia
    para que outras pessoas
  • 9:40 - 9:42
    possam começar a construir e a criar.
  • 9:42 - 9:46
    Sabemos que há riscos potenciais
  • 9:46 - 9:48
    e há potencial para abusos,
  • 9:48 - 9:51
    mas, pessoalmente, como trabalhei
    nisto durante muitos anos,
  • 9:51 - 9:53
    acredito que os benefícios
    para a humanidade
  • 9:53 - 9:56
    de termos uma tecnologia
    emocionalmente inteligente
  • 9:56 - 9:59
    são muito maiores que o potencial
    para uso indevido.
  • 9:59 - 10:02
    Convido todos vocês para
    participar nessa discussão.
  • 10:02 - 10:05
    Quanto mais pessoas souberem
    sobre esta tecnologia,
  • 10:05 - 10:08
    mais força terá a nossa voz
    quanto à forma como for usada.
  • 10:09 - 10:14
    À medida que a nossa vida
    é cada vez mais digital,
  • 10:14 - 10:18
    travamos uma luta perdida ao tentar
    restringir o nosso uso de tecnologias
  • 10:18 - 10:20
    para reivindicar as nossas emoções.
  • 10:20 - 10:25
    Em vez disso, quero introduzir
    as emoções na nossa tecnologia
  • 10:25 - 10:27
    e tornar a nossa tecnologia mais recetível.
  • 10:27 - 10:30
    Quero que estes aparelhos
    que nos separaram
  • 10:30 - 10:32
    nos unam novamente.
  • 10:33 - 10:37
    Ao humanizar a tecnologia,
    temos uma oportunidade perfeita
  • 10:37 - 10:40
    para re-imaginar como
    nos relacionamos com máquinas
  • 10:40 - 10:44
    e, portanto, como nós,
    enquanto seres humanos,
  • 10:44 - 10:46
    nos relacionamos uns com os outros.
  • 10:46 - 10:48
    Obrigada.
  • 10:48 - 10:51
    (Aplausos)
Title:
Este aplicativo sabe como nos sentimos — pela expressão no nosso rosto
Speaker:
Rana el Kaliouby
Description:

As nossas emoções influenciam cada aspeto da nossa vida: como aprendemos, como comunicamos, como tomamos decisões. Contudo, elas estão ausentes da nossa vida digital. As ferramentas e aplicativos com que interagimos não sabem como nos sentimos. A cientista Rana el Kaliouby pretende mudar isso. Ela apresenta uma nova tecnologia poderosa que lê as expressões faciais e as liga às emoções correspondentes. O ''mecanismo da emoção'' tem grandes implicações, diz ela, e pode mudar não só a forma como interagimos com máquinas, mas também como interagimos uns com os outros.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Portuguese subtitles

Revisions