Nossos sentimentos influenciam
todos os aspectos de nossas vidas,
desde nossa saúde e aprendizado
até como fazemos negócios e decisões,
grandes ou pequenas.
Nossos sentimentos também influenciam
como nos conectamos.
Nós evoluímos para viver
num mundo como esse,
mas em vez disso, cada vez mais
vivemos nossas vidas assim;
esta mensagem
da minha filha ontem à noite;
em um mundo desprovido de sentimentos.
Eu estou numa missão para mudar isso.
Quero recolocar os sentimentos
em nossas vidas digitais.
Eu comecei essa jornada há 15 anos.
Eu era cientista da computação no Egito,
e tinha acabado de ser aceita
em um Ph.D. na Universidade de Cambridge.
Então fiz algo bem inusitado
para uma jovem esposa
egípcia muçulmana recém-casada:
(Risos)
Com o apoio de meu marido,
que teve que ficar no Egito,
eu arrumei minhas malas
e me mudei para a Inglaterra.
Em Cambridge, milhares
de quilômetros longe de casa,
eu percebi que passava
mais tempo com meu laptop
do que com qualquer outro ser humano.
E apesar desta intimidade,
meu laptop não tinha a menor ideia
de como eu me sentia.
Não tinha ideia se eu estava feliz,
se num dia ruim, estressada, confusa,
e isso acabou ficando frustrante.
Pior ainda, enquanto eu me comunicava
online com a minha família em casa,
eu sentia que todos os meus sentimentos
desapareciam no cyberespaço.
Eu sentia saudades, estava sozinha,
e alguns até mesmo chorava,
mas tudo que eu tinha
para expressar esses sentimentos era isto.
(Risos)
A tecnologia atual tem muito QI,
mas nenhum QE;
muita inteligência cognitiva,
mas nenhuma inteligência emocional.
E isso me fez pensar,
e se nossa tecnologia pudesse
perceber nossos sentimentos?
E se nossos dispositivos pudessem perceber
como nos sentimos e reagissem de acordo,
como um amigo
emocionalmente inteligente faria?
Essas questões fizeram
com que eu e minha equipe
criássemos tecnologias que pudessem
ler e reagir aos nossos sentimentos,
e nosso ponto de partida
foi o rosto humano.
Nosso rosto humano
é um dos canais mais poderosos
que todos nós usamos para comunicar
estados sociais e emocionais,
tudo desde alegria, surpresa,
empatia e curiosidade.
Na ciência dos sentimentos,
nós chamamos cada movimento
muscular facial de unidade de ação.
Por exemplo, unidade de ação 12,
não é um filme de Holywood,
é sim uma fisgada no canto dos lábios,
que é o principal
componente de um sorriso.
Tentem vocês.
Vamos mostrar alguns sorrisos.
Outro exemplo é a unidade de ação 4.
Que é a testa franzida.
É quando você junta as sobrancelhas
e cria todas estas texturas e dobras.
Não gostamos disso,
mas é um forte indicador
de um sentimento negativo.
Temos cerca de 45 dessas unidades de ação,
e elas se combinam para expressar
centenas de sentimentos.
Ensinar um computador a ler
essas emoções faciais é difícil,
porque essas unidades de ação
podem ser rápidas, elas são sutis,
e se combinam
de várias maneiras diferentes.
Então peguem, por exemplo,
o sorriso genuíno e o malicioso.
Eles se parecem de certa maneira,
mas querem dizer coisas bem diferentes.
(Risos)
O sorriso genuíno é positivo,
o malicioso normalmente é negativo.
Às vezes um sorriso malicioso
pode torná-lo famoso.
Mas falando sério, é importante
que um computador consiga
diferenciar essas duas expressões.
Então, como fazemos?
Nós damos ao nosso algoritmo
dezenas de milhares de exemplos de pessoas
que sabemos que estão sorrindo,
de diferentes etnias, idades e gêneros,
e fazemos o mesmo
para sorrisos maliciosos.
E assim, usando aprendizagem profunda,
o algoritmo busca
todas essas texturas e dobras
e mudanças de forma em nosso rosto
e aprende que todos os sorrisos genuínos
têm características em comum,
todos os sorrisos maliciosos
têm características
sutilmente diferentes.
E da próxima vez
que ele vir um novo rosto,
ele aprende que
esse rosto tem as mesmas
características de um sorriso genuíno,
Ele pensa: "Aha, este eu reconheço.
É uma expressão de sorriso genuíno."
E a melhor maneira de mostrar
que essa tecnologia funciona
é fazer uma demonstração ao vivo,
então vou precisar de um voluntário,
de preferência alguém com um rosto.
(Risos)
A Cloe vai ser nossa voluntária hoje.
Durante os últimos cinco anos,
nós passamos de um projeto
de pesquisa no MIT
para uma empresa,
na qual minha equipe trabalhou duro
para fazer essa tecnologia funcionar,
como gostamos de dizer, no meio selvagem.
E nós também a minimizamos
para que o mecanismo central
de sentimentos
funcione em qualquer
dispositivo móvel, como este iPad.
Então vamos testar.
Como podem ver, o algoritmo essencialmente
encontrou o rosto da Cloe,
é essa caixa branca delimitadora,
e está acompanhando
os pontos característicos em seu rosto,
as sobrancelhas, olhos, boca, e nariz.
A questão é: será que consegue
reconhecer sua expressão?
Vamos testar a máquina.
Primeiro, faça uma cara de blefe.
Isso, ótimo! (Risos)
E à medida que ela sorri,
esse sorriso é genuíno, muito bom.
Podemos ver a barra verde
aumentar enquanto ela sorri.
Foi um grande sorriso.
Pode tentar um sorriso sutil
para ver se o computador reconhece?
Também reconhece sorrisos sutis.
Trabalhamos muito que isso acontecesse.
As sobrancelhas levantadas,
o que indica surpresa.
Testa franzida, o que indica confusão.
Cara fechada. Isso, perfeito.
Essas são as diferentes unidades de ação.
Há muitas outras.
Esta é só uma curta demonstração.
Mas cada leitura é chamada
de ponto de dados de sentimento,
e eles podem ser ativados ao mesmo tempo
para retratar diferentes sentimentos.
Do lado direito da demonstração...
Parece que você está feliz.
Isto é alegria. A alegria acende.
E faça uma cara de nojo.
Tente se lembrar como foi
quando Zayn saiu do One Direction.
(Risos)
Isso, torça o nariz. Ótimo.
E a valência é bastante negativa,
você deve ser uma grande fã.
Valência é quão positiva
ou negativa é uma sensação,
e engajamento indica
a expressividade também.
Imaginem se a Cloe tivesse acesso
a esse fluxo de sentimentos em tempo real,
e pudesse compartilhar
com quem ela quisesse.
Obrigada.
(Aplausos)
Até agora já acumulamos 12 bilhões
de pontos de dados de sentimentos.
É o maior banco de dados
de sentimentos do mundo.
Nós os conseguimos
de 2,9 milhões de vídeos de rostos,
pessoas que aceitaram compartilhar
seus sentimentos conosco,
e de 75 países por todo o mundo.
Está crescendo a cada dia.
Me deixa sem palavras
que agora podemos quantificar
algo tão pessoal como nossos sentimentos,
e podemos fazê-lo nessa escala.
E o que já aprendemos?
Gênero.
Nossos dados confirmam uma coisa
que talvez vocês suspeitem.
Mulheres são mais expressivas que homens.
Elas não só sorriem mais,
seus sorrisos duram mais,
e agora conseguimos quantificar
o que faz com que homens e mulheres
reajam de maneira diferente.
Vamos falar de cultura:
nos Estados Unidos,
as mulheres são 40%
mais expressivas que os homens,
mas curiosamente não vemos
nenhuma diferença
no Reino Unido entre homens e mulheres.
(Risos)
Idade: pessoas com 50 anos ou mais
são 25% mais emotivas
do que os mais jovens.
Mulheres na casa dos 20 sorriem muito mais
do que homens com a mesma idade,
talvez uma necessidade para namorar.
Mas talvez o que mais
nos surpreendeu nesses dados
é que somos expressivos o tempo todo,
mesmo quando estamos sozinhos
com nossos dispositivos,
e não é só quando estamos
assistindo vídeos de gatos no Facebook.
Somos expressivos quando escrevemos
e-mails, mensagens, fazemos compras,
ou até mesmo declarando os impostos.
Onde esses dados são usados hoje?
Para entender como
interagimos com a mídia,
entender viralidade
e comportamento de votação;
e também capacitar e incluir
sentimentos na tecnologia,
e eu gostaria de mostrar alguns
dos meus exemplos preferidos.
Óculos que conseguem ler sentimentos
podem ajudar
pessoas com deficiência visual
a ler os rostos dos outros
e pode ajudar pessoas no espectro
do autismo a interpretar sentimentos,
algo com que têm muita dificuldade.
Na educação, imagine
se seus aplicativos de ensino
perceberem que você
está confuso e desacelerarem,
ou que você está
entediado e acelerarem,
assim como faria um bom
professor em sala de aula.
E se seu relógio de pulso
acompanhasse seu humor
ou seu carro percebesse
que você está cansado,
ou talvez sua geladeira saiba
que você está estressada,
e se tranca sozinha
para que você não coma demais. (Risos)
Eu gostaria disso, sim.
E se, quando eu estava em Cambridge,
eu tivesse acesso ao meu fluxo
de sentimentos em tempo real,
e pudesse compartilhá-lo
com a minha família em casa
de maneira natural,
assim como eu faria se estivéssemos
todos juntos na sala?
Acredito que daqui a cinco anos,
todos os nossos dispositivos
vão ter um chip de sentimentos,
e nem vamos nos lembrar como era
quando não adiantava fazer cara feia
para o dispositivo
e ele diria: "Hm, você não
gostou disso, né?"
Nosso maior desafio é que há tantas
aplicações para essa tecnologia,
que minha equipe percebeu
que não podemos satisfazê-las sozinhos,
então nós disponibilizamos essa tecnologia
a outros desenvolvedores
para que construam e usem a criatividade.
Nós reconhecemos que há potenciais riscos
e potencial para abuso,
mas pessoalmente,
após muitos anos fazendo isso,
acredito que os benefícios à humanidade
de ter tecnologia
emocionalmente inteligente
superam de longe o potencial de abuso.
E eu os convido todos
a participarem da conversa.
Quanto mais pessoas
conhecerem essa tecnologia,
mais peso terá nossa opinião
sobre como usá-la.
E à medida que nossas vidas
vão se digitalizando,
nós lutamos uma batalha perdida
tentando frear nosso uso de dispositivos
para reivindicar nossos sentimentos.
Então o que estou tentando fazer
é colocar sentimentos na tecnologia
e tornar nossa tecnologia mais responsiva.
Eu quero que esses dispositivos
que nos separaram
juntem-nos novamente.
E humanizando a tecnologia,
nós temos essa oportunidade de ouro
de reimaginar nossa conexão
com as máquinas,
e assim, como nós, seres humanos,
nos conectamos uns com os outros.
Obrigada.
(Aplausos)