0:00:00.556,0:00:04.573 Nossos sentimentos influenciam[br]todos os aspectos de nossas vidas, 0:00:04.573,0:00:08.149 desde nossa saúde e aprendizado[br]até como fazemos negócios e decisões, 0:00:08.149,0:00:09.922 grandes ou pequenas. 0:00:10.482,0:00:14.162 Nossos sentimentos também influenciam[br]como nos conectamos. 0:00:14.912,0:00:19.108 Nós evoluímos para viver[br]num mundo como esse, 0:00:19.108,0:00:23.427 mas em vez disso, cada vez mais[br]vivemos nossas vidas assim; 0:00:23.427,0:00:26.561 esta mensagem[br]da minha filha ontem à noite; 0:00:26.561,0:00:29.301 em um mundo desprovido de sentimentos. 0:00:29.301,0:00:31.252 Eu estou numa missão para mudar isso. 0:00:31.252,0:00:35.343 Quero recolocar os sentimentos[br]em nossas vidas digitais. 0:00:36.223,0:00:39.300 Eu comecei essa jornada há 15 anos. 0:00:39.300,0:00:41.366 Eu era cientista da computação no Egito, 0:00:41.366,0:00:45.871 e tinha acabado de ser aceita[br]em um Ph.D. na Universidade de Cambridge. 0:00:45.871,0:00:47.984 Então fiz algo bem inusitado 0:00:47.984,0:00:50.599 para uma jovem esposa[br]egípcia muçulmana recém-casada: 0:00:50.599,0:00:53.599 (Risos) 0:00:53.599,0:00:56.598 Com o apoio de meu marido,[br]que teve que ficar no Egito, 0:00:56.598,0:00:59.616 eu arrumei minhas malas[br]e me mudei para a Inglaterra. 0:00:59.616,0:01:02.844 Em Cambridge, milhares[br]de quilômetros longe de casa, 0:01:02.844,0:01:05.927 eu percebi que passava[br]mais tempo com meu laptop 0:01:05.927,0:01:08.486 do que com qualquer outro ser humano. 0:01:08.486,0:01:10.099 E apesar desta intimidade, 0:01:10.099,0:01:13.339 meu laptop não tinha a menor ideia[br]de como eu me sentia. 0:01:13.339,0:01:16.550 Não tinha ideia se eu estava feliz, 0:01:16.550,0:01:19.538 se num dia ruim, estressada, confusa, 0:01:19.538,0:01:22.460 e isso acabou ficando frustrante. 0:01:23.600,0:01:28.831 Pior ainda, enquanto eu me comunicava[br]online com a minha família em casa, 0:01:29.211,0:01:32.703 eu sentia que todos os meus sentimentos[br]desapareciam no cyberespaço. 0:01:32.703,0:01:37.858 Eu sentia saudades, estava sozinha,[br]e alguns até mesmo chorava, 0:01:37.858,0:01:42.786 mas tudo que eu tinha[br]para expressar esses sentimentos era isto. 0:01:42.786,0:01:44.806 (Risos) 0:01:44.806,0:01:49.780 A tecnologia atual tem muito QI,[br]mas nenhum QE; 0:01:49.780,0:01:52.956 muita inteligência cognitiva,[br]mas nenhuma inteligência emocional. 0:01:52.956,0:01:55.153 E isso me fez pensar, 0:01:55.153,0:01:58.777 e se nossa tecnologia pudesse[br]perceber nossos sentimentos? 0:01:58.777,0:02:00.843 E se nossos dispositivos pudessem perceber 0:02:00.843,0:02:02.853 como nos sentimos e reagissem de acordo, 0:02:02.853,0:02:05.866 como um amigo[br]emocionalmente inteligente faria? 0:02:06.666,0:02:10.230 Essas questões fizeram[br]com que eu e minha equipe 0:02:10.230,0:02:14.607 criássemos tecnologias que pudessem[br]ler e reagir aos nossos sentimentos, 0:02:14.607,0:02:17.697 e nosso ponto de partida[br]foi o rosto humano. 0:02:18.577,0:02:21.750 Nosso rosto humano[br]é um dos canais mais poderosos 0:02:21.750,0:02:25.766 que todos nós usamos para comunicar[br]estados sociais e emocionais, 0:02:25.766,0:02:28.776 tudo desde alegria, surpresa, 0:02:28.776,0:02:32.979 empatia e curiosidade. 0:02:32.979,0:02:34.407 Na ciência dos sentimentos, 0:02:34.407,0:02:37.907 nós chamamos cada movimento[br]muscular facial de unidade de ação. 0:02:37.907,0:02:40.832 Por exemplo, unidade de ação 12, 0:02:40.832,0:02:42.720 não é um filme de Holywood, 0:02:42.720,0:02:44.610 é sim uma fisgada no canto dos lábios, 0:02:44.610,0:02:46.682 que é o principal[br]componente de um sorriso. 0:02:46.682,0:02:49.300 Tentem vocês.[br]Vamos mostrar alguns sorrisos. 0:02:49.300,0:02:52.174 Outro exemplo é a unidade de ação 4.[br]Que é a testa franzida. 0:02:52.174,0:02:54.192 É quando você junta as sobrancelhas 0:02:54.192,0:02:56.069 e cria todas estas texturas e dobras. 0:02:56.069,0:02:57.374 Não gostamos disso, 0:02:57.374,0:02:59.934 mas é um forte indicador[br]de um sentimento negativo. 0:02:59.934,0:03:02.680 Temos cerca de 45 dessas unidades de ação, 0:03:02.680,0:03:06.350 e elas se combinam para expressar[br]centenas de sentimentos. 0:03:06.350,0:03:10.031 Ensinar um computador a ler[br]essas emoções faciais é difícil, 0:03:10.031,0:03:13.223 porque essas unidades de ação[br]podem ser rápidas, elas são sutis, 0:03:13.223,0:03:15.777 e se combinam[br]de várias maneiras diferentes. 0:03:15.777,0:03:19.515 Então peguem, por exemplo,[br]o sorriso genuíno e o malicioso. 0:03:19.515,0:03:23.268 Eles se parecem de certa maneira,[br]mas querem dizer coisas bem diferentes. 0:03:23.268,0:03:24.986 (Risos) 0:03:24.986,0:03:28.880 O sorriso genuíno é positivo,[br]o malicioso normalmente é negativo. 0:03:28.880,0:03:33.226 Às vezes um sorriso malicioso[br]pode torná-lo famoso. 0:03:33.226,0:03:35.960 Mas falando sério, é importante[br]que um computador consiga 0:03:35.960,0:03:38.435 diferenciar essas duas expressões. 0:03:38.435,0:03:40.317 Então, como fazemos? 0:03:40.317,0:03:42.414 Nós damos ao nosso algoritmo 0:03:42.414,0:03:44.514 dezenas de milhares de exemplos de pessoas 0:03:44.514,0:03:46.524 que sabemos que estão sorrindo, 0:03:46.524,0:03:49.589 de diferentes etnias, idades e gêneros, 0:03:49.589,0:03:52.230 e fazemos o mesmo[br]para sorrisos maliciosos. 0:03:52.230,0:03:54.114 E assim, usando aprendizagem profunda, 0:03:54.114,0:03:56.810 o algoritmo busca[br]todas essas texturas e dobras 0:03:56.810,0:03:59.170 e mudanças de forma em nosso rosto 0:03:59.170,0:04:02.402 e aprende que todos os sorrisos genuínos[br]têm características em comum, 0:04:02.402,0:04:04.002 todos os sorrisos maliciosos 0:04:04.002,0:04:05.993 têm características[br]sutilmente diferentes. 0:04:05.993,0:04:08.161 E da próxima vez[br]que ele vir um novo rosto, 0:04:08.161,0:04:10.440 ele aprende que 0:04:10.440,0:04:13.473 esse rosto tem as mesmas[br]características de um sorriso genuíno, 0:04:13.473,0:04:17.751 Ele pensa: "Aha, este eu reconheço.[br]É uma expressão de sorriso genuíno." 0:04:18.381,0:04:21.181 E a melhor maneira de mostrar[br]que essa tecnologia funciona 0:04:21.181,0:04:23.317 é fazer uma demonstração ao vivo, 0:04:23.317,0:04:27.230 então vou precisar de um voluntário,[br]de preferência alguém com um rosto. 0:04:27.230,0:04:29.564 (Risos) 0:04:29.564,0:04:32.335 A Cloe vai ser nossa voluntária hoje. 0:04:33.325,0:04:35.003 Durante os últimos cinco anos, 0:04:35.003,0:04:37.653 nós passamos de um projeto[br]de pesquisa no MIT 0:04:37.653,0:04:38.939 para uma empresa, 0:04:38.939,0:04:40.619 na qual minha equipe trabalhou duro 0:04:40.619,0:04:42.521 para fazer essa tecnologia funcionar, 0:04:42.521,0:04:44.540 como gostamos de dizer, no meio selvagem. 0:04:44.540,0:04:45.800 E nós também a minimizamos 0:04:45.800,0:04:47.870 para que o mecanismo central[br]de sentimentos 0:04:47.870,0:04:50.530 funcione em qualquer[br]dispositivo móvel, como este iPad. 0:04:50.530,0:04:52.976 Então vamos testar. 0:04:54.516,0:04:58.380 Como podem ver, o algoritmo essencialmente[br]encontrou o rosto da Cloe, 0:04:58.380,0:05:00.312 é essa caixa branca delimitadora, 0:05:00.312,0:05:03.122 e está acompanhando [br]os pontos característicos em seu rosto, 0:05:03.122,0:05:05.959 as sobrancelhas, olhos, boca, e nariz. 0:05:05.959,0:05:08.586 A questão é: será que consegue[br]reconhecer sua expressão? 0:05:08.586,0:05:10.387 Vamos testar a máquina. 0:05:10.387,0:05:14.493 Primeiro, faça uma cara de blefe.[br]Isso, ótimo! (Risos) 0:05:14.493,0:05:17.336 E à medida que ela sorri,[br]esse sorriso é genuíno, muito bom. 0:05:17.336,0:05:19.856 Podemos ver a barra verde[br]aumentar enquanto ela sorri. 0:05:19.856,0:05:21.378 Foi um grande sorriso. 0:05:21.378,0:05:24.411 Pode tentar um sorriso sutil[br]para ver se o computador reconhece? 0:05:24.411,0:05:27.902 Também reconhece sorrisos sutis. [br]Trabalhamos muito que isso acontecesse. 0:05:27.902,0:05:31.439 As sobrancelhas levantadas,[br]o que indica surpresa. 0:05:31.439,0:05:35.688 Testa franzida, o que indica confusão. 0:05:35.688,0:05:39.695 Cara fechada. Isso, perfeito. 0:05:39.695,0:05:43.188 Essas são as diferentes unidades de ação.[br]Há muitas outras. 0:05:43.188,0:05:45.220 Esta é só uma curta demonstração. 0:05:45.220,0:05:48.258 Mas cada leitura é chamada[br]de ponto de dados de sentimento, 0:05:48.258,0:05:51.957 e eles podem ser ativados ao mesmo tempo[br]para retratar diferentes sentimentos. 0:05:51.957,0:05:55.990 Do lado direito da demonstração...[br]Parece que você está feliz. 0:05:55.990,0:05:57.604 Isto é alegria. A alegria acende. 0:05:57.604,0:05:59.371 E faça uma cara de nojo. 0:05:59.371,0:06:03.643 Tente se lembrar como foi[br]quando Zayn saiu do One Direction. 0:06:03.643,0:06:05.153 (Risos) 0:06:05.153,0:06:08.545 Isso, torça o nariz. Ótimo. 0:06:09.495,0:06:13.226 E a valência é bastante negativa,[br]você deve ser uma grande fã. 0:06:13.226,0:06:15.926 Valência é quão positiva[br]ou negativa é uma sensação, 0:06:15.926,0:06:18.542 e engajamento indica[br]a expressividade também. 0:06:18.542,0:06:22.206 Imaginem se a Cloe tivesse acesso[br]a esse fluxo de sentimentos em tempo real, 0:06:22.206,0:06:24.935 e pudesse compartilhar[br]com quem ela quisesse. 0:06:24.935,0:06:26.858 Obrigada. 0:06:26.858,0:06:29.479 (Aplausos) 0:06:33.749,0:06:39.019 Até agora já acumulamos 12 bilhões[br]de pontos de dados de sentimentos. 0:06:39.019,0:06:41.630 É o maior banco de dados[br]de sentimentos do mundo. 0:06:41.630,0:06:44.543 Nós os conseguimos[br]de 2,9 milhões de vídeos de rostos, 0:06:44.543,0:06:47.693 pessoas que aceitaram compartilhar[br]seus sentimentos conosco, 0:06:47.693,0:06:50.398 e de 75 países por todo o mundo. 0:06:50.398,0:06:52.113 Está crescendo a cada dia. 0:06:52.603,0:06:54.370 Me deixa sem palavras 0:06:54.370,0:06:57.795 que agora podemos quantificar[br]algo tão pessoal como nossos sentimentos, 0:06:57.795,0:07:00.100 e podemos fazê-lo nessa escala. 0:07:00.100,0:07:02.277 E o que já aprendemos? 0:07:03.057,0:07:04.788 Gênero. 0:07:05.388,0:07:08.864 Nossos dados confirmam uma coisa[br]que talvez vocês suspeitem. 0:07:08.864,0:07:10.891 Mulheres são mais expressivas que homens. 0:07:10.891,0:07:13.574 Elas não só sorriem mais,[br]seus sorrisos duram mais, 0:07:13.574,0:07:16.858 e agora conseguimos quantificar[br]o que faz com que homens e mulheres 0:07:16.858,0:07:18.614 reajam de maneira diferente. 0:07:18.614,0:07:20.904 Vamos falar de cultura: [br]nos Estados Unidos, 0:07:20.904,0:07:24.108 as mulheres são 40%[br]mais expressivas que os homens, 0:07:24.108,0:07:26.518 mas curiosamente não vemos[br]nenhuma diferença 0:07:26.518,0:07:28.583 no Reino Unido entre homens e mulheres. 0:07:28.583,0:07:30.259 (Risos) 0:07:31.296,0:07:35.323 Idade: pessoas com 50 anos ou mais 0:07:35.323,0:07:38.759 são 25% mais emotivas[br]do que os mais jovens. 0:07:39.469,0:07:43.751 Mulheres na casa dos 20 sorriem muito mais[br]do que homens com a mesma idade, 0:07:43.751,0:07:47.360 talvez uma necessidade para namorar. 0:07:47.360,0:07:50.207 Mas talvez o que mais[br]nos surpreendeu nesses dados 0:07:50.207,0:07:53.410 é que somos expressivos o tempo todo, 0:07:53.410,0:07:56.243 mesmo quando estamos sozinhos[br]com nossos dispositivos, 0:07:56.243,0:07:59.517 e não é só quando estamos[br]assistindo vídeos de gatos no Facebook. 0:07:59.847,0:08:03.417 Somos expressivos quando escrevemos[br]e-mails, mensagens, fazemos compras, 0:08:03.417,0:08:05.527 ou até mesmo declarando os impostos. 0:08:05.527,0:08:07.919 Onde esses dados são usados hoje? 0:08:07.919,0:08:10.682 Para entender como[br]interagimos com a mídia, 0:08:10.682,0:08:13.166 entender viralidade[br]e comportamento de votação; 0:08:13.166,0:08:15.906 e também capacitar e incluir[br]sentimentos na tecnologia, 0:08:15.906,0:08:20.527 e eu gostaria de mostrar alguns [br]dos meus exemplos preferidos. 0:08:21.197,0:08:24.265 Óculos que conseguem ler sentimentos[br]podem ajudar 0:08:24.265,0:08:27.493 pessoas com deficiência visual[br]a ler os rostos dos outros 0:08:27.493,0:08:31.680 e pode ajudar pessoas no espectro[br]do autismo a interpretar sentimentos, 0:08:31.680,0:08:34.458 algo com que têm muita dificuldade. 0:08:35.918,0:08:38.777 Na educação, imagine[br]se seus aplicativos de ensino 0:08:38.777,0:08:41.587 perceberem que você[br]está confuso e desacelerarem, 0:08:41.587,0:08:43.444 ou que você está[br]entediado e acelerarem, 0:08:43.444,0:08:46.413 assim como faria um bom[br]professor em sala de aula. 0:08:47.043,0:08:49.644 E se seu relógio de pulso[br]acompanhasse seu humor 0:08:49.644,0:08:52.337 ou seu carro percebesse[br]que você está cansado, 0:08:52.337,0:08:55.315 ou talvez sua geladeira saiba[br]que você está estressada, 0:08:55.315,0:08:59.421 e se tranca sozinha [br]para que você não coma demais. (Risos) 0:08:59.421,0:09:02.218 Eu gostaria disso, sim. 0:09:03.528,0:09:05.135 E se, quando eu estava em Cambridge, 0:09:05.135,0:09:08.018 eu tivesse acesso ao meu fluxo[br]de sentimentos em tempo real, 0:09:08.018,0:09:09.358 e pudesse compartilhá-lo 0:09:09.358,0:09:11.757 com a minha família em casa[br]de maneira natural, 0:09:11.757,0:09:15.408 assim como eu faria se estivéssemos[br]todos juntos na sala? 0:09:15.408,0:09:18.020 Acredito que daqui a cinco anos, 0:09:18.020,0:09:20.887 todos os nossos dispositivos[br]vão ter um chip de sentimentos, 0:09:20.887,0:09:22.501 e nem vamos nos lembrar como era 0:09:22.501,0:09:25.411 quando não adiantava fazer cara feia[br]para o dispositivo 0:09:25.411,0:09:29.200 e ele diria: "Hm, você não[br]gostou disso, né?" 0:09:29.200,0:09:32.711 Nosso maior desafio é que há tantas[br]aplicações para essa tecnologia, 0:09:32.711,0:09:36.024 que minha equipe percebeu[br]que não podemos satisfazê-las sozinhos, 0:09:36.024,0:09:39.360 então nós disponibilizamos essa tecnologia[br]a outros desenvolvedores 0:09:39.360,0:09:41.474 para que construam e usem a criatividade. 0:09:41.474,0:09:45.560 Nós reconhecemos que há potenciais riscos 0:09:45.560,0:09:47.627 e potencial para abuso, 0:09:47.627,0:09:50.576 mas pessoalmente, [br]após muitos anos fazendo isso, 0:09:50.576,0:09:52.978 acredito que os benefícios à humanidade 0:09:52.978,0:09:55.823 de ter tecnologia[br]emocionalmente inteligente 0:09:55.823,0:09:59.399 superam de longe o potencial de abuso. 0:09:59.399,0:10:01.930 E eu os convido todos[br]a participarem da conversa. 0:10:01.930,0:10:04.484 Quanto mais pessoas[br]conhecerem essa tecnologia, 0:10:04.484,0:10:07.661 mais peso terá nossa opinião[br]sobre como usá-la. 0:10:09.081,0:10:13.655 E à medida que nossas vidas[br]vão se digitalizando, 0:10:13.655,0:10:17.153 nós lutamos uma batalha perdida[br]tentando frear nosso uso de dispositivos 0:10:17.153,0:10:19.382 para reivindicar nossos sentimentos. 0:10:20.622,0:10:24.536 Então o que estou tentando fazer[br]é colocar sentimentos na tecnologia 0:10:24.536,0:10:26.845 e tornar nossa tecnologia mais responsiva. 0:10:26.845,0:10:29.435 Eu quero que esses dispositivos[br]que nos separaram 0:10:29.435,0:10:31.897 juntem-nos novamente. 0:10:31.897,0:10:36.485 E humanizando a tecnologia,[br]nós temos essa oportunidade de ouro 0:10:36.485,0:10:39.782 de reimaginar nossa conexão[br]com as máquinas, 0:10:39.782,0:10:44.263 e assim, como nós, seres humanos, 0:10:44.263,0:10:46.167 nos conectamos uns com os outros. 0:10:46.167,0:10:48.027 Obrigada. 0:10:48.027,0:10:51.640 (Aplausos)