1 00:00:00,556 --> 00:00:04,573 Nossos sentimentos influenciam todos os aspectos de nossas vidas, 2 00:00:04,573 --> 00:00:08,149 desde nossa saúde e aprendizado até como fazemos negócios e decisões, 3 00:00:08,149 --> 00:00:09,922 grandes ou pequenas. 4 00:00:10,482 --> 00:00:14,162 Nossos sentimentos também influenciam como nos conectamos. 5 00:00:14,912 --> 00:00:19,108 Nós evoluímos para viver num mundo como esse, 6 00:00:19,108 --> 00:00:23,427 mas em vez disso, cada vez mais vivemos nossas vidas assim; 7 00:00:23,427 --> 00:00:26,561 esta mensagem da minha filha ontem à noite; 8 00:00:26,561 --> 00:00:29,301 em um mundo desprovido de sentimentos. 9 00:00:29,301 --> 00:00:31,252 Eu estou numa missão para mudar isso. 10 00:00:31,252 --> 00:00:35,343 Quero recolocar os sentimentos em nossas vidas digitais. 11 00:00:36,223 --> 00:00:39,300 Eu comecei essa jornada há 15 anos. 12 00:00:39,300 --> 00:00:41,366 Eu era cientista da computação no Egito, 13 00:00:41,366 --> 00:00:45,871 e tinha acabado de ser aceita em um Ph.D. na Universidade de Cambridge. 14 00:00:45,871 --> 00:00:47,984 Então fiz algo bem inusitado 15 00:00:47,984 --> 00:00:50,599 para uma jovem esposa egípcia muçulmana recém-casada: 16 00:00:50,599 --> 00:00:53,599 (Risos) 17 00:00:53,599 --> 00:00:56,598 Com o apoio de meu marido, que teve que ficar no Egito, 18 00:00:56,598 --> 00:00:59,616 eu arrumei minhas malas e me mudei para a Inglaterra. 19 00:00:59,616 --> 00:01:02,844 Em Cambridge, milhares de quilômetros longe de casa, 20 00:01:02,844 --> 00:01:05,927 eu percebi que passava mais tempo com meu laptop 21 00:01:05,927 --> 00:01:08,486 do que com qualquer outro ser humano. 22 00:01:08,486 --> 00:01:10,099 E apesar desta intimidade, 23 00:01:10,099 --> 00:01:13,339 meu laptop não tinha a menor ideia de como eu me sentia. 24 00:01:13,339 --> 00:01:16,550 Não tinha ideia se eu estava feliz, 25 00:01:16,550 --> 00:01:19,538 se num dia ruim, estressada, confusa, 26 00:01:19,538 --> 00:01:22,460 e isso acabou ficando frustrante. 27 00:01:23,600 --> 00:01:28,831 Pior ainda, enquanto eu me comunicava online com a minha família em casa, 28 00:01:29,211 --> 00:01:32,703 eu sentia que todos os meus sentimentos desapareciam no cyberespaço. 29 00:01:32,703 --> 00:01:37,858 Eu sentia saudades, estava sozinha, e alguns até mesmo chorava, 30 00:01:37,858 --> 00:01:42,786 mas tudo que eu tinha para expressar esses sentimentos era isto. 31 00:01:42,786 --> 00:01:44,806 (Risos) 32 00:01:44,806 --> 00:01:49,780 A tecnologia atual tem muito QI, mas nenhum QE; 33 00:01:49,780 --> 00:01:52,956 muita inteligência cognitiva, mas nenhuma inteligência emocional. 34 00:01:52,956 --> 00:01:55,153 E isso me fez pensar, 35 00:01:55,153 --> 00:01:58,777 e se nossa tecnologia pudesse perceber nossos sentimentos? 36 00:01:58,777 --> 00:02:00,843 E se nossos dispositivos pudessem perceber 37 00:02:00,843 --> 00:02:02,853 como nos sentimos e reagissem de acordo, 38 00:02:02,853 --> 00:02:05,866 como um amigo emocionalmente inteligente faria? 39 00:02:06,666 --> 00:02:10,230 Essas questões fizeram com que eu e minha equipe 40 00:02:10,230 --> 00:02:14,607 criássemos tecnologias que pudessem ler e reagir aos nossos sentimentos, 41 00:02:14,607 --> 00:02:17,697 e nosso ponto de partida foi o rosto humano. 42 00:02:18,577 --> 00:02:21,750 Nosso rosto humano é um dos canais mais poderosos 43 00:02:21,750 --> 00:02:25,766 que todos nós usamos para comunicar estados sociais e emocionais, 44 00:02:25,766 --> 00:02:28,776 tudo desde alegria, surpresa, 45 00:02:28,776 --> 00:02:32,979 empatia e curiosidade. 46 00:02:32,979 --> 00:02:34,407 Na ciência dos sentimentos, 47 00:02:34,407 --> 00:02:37,907 nós chamamos cada movimento muscular facial de unidade de ação. 48 00:02:37,907 --> 00:02:40,832 Por exemplo, unidade de ação 12, 49 00:02:40,832 --> 00:02:42,720 não é um filme de Holywood, 50 00:02:42,720 --> 00:02:44,610 é sim uma fisgada no canto dos lábios, 51 00:02:44,610 --> 00:02:46,682 que é o principal componente de um sorriso. 52 00:02:46,682 --> 00:02:49,300 Tentem vocês. Vamos mostrar alguns sorrisos. 53 00:02:49,300 --> 00:02:52,174 Outro exemplo é a unidade de ação 4. Que é a testa franzida. 54 00:02:52,174 --> 00:02:54,192 É quando você junta as sobrancelhas 55 00:02:54,192 --> 00:02:56,069 e cria todas estas texturas e dobras. 56 00:02:56,069 --> 00:02:57,374 Não gostamos disso, 57 00:02:57,374 --> 00:02:59,934 mas é um forte indicador de um sentimento negativo. 58 00:02:59,934 --> 00:03:02,680 Temos cerca de 45 dessas unidades de ação, 59 00:03:02,680 --> 00:03:06,350 e elas se combinam para expressar centenas de sentimentos. 60 00:03:06,350 --> 00:03:10,031 Ensinar um computador a ler essas emoções faciais é difícil, 61 00:03:10,031 --> 00:03:13,223 porque essas unidades de ação podem ser rápidas, elas são sutis, 62 00:03:13,223 --> 00:03:15,777 e se combinam de várias maneiras diferentes. 63 00:03:15,777 --> 00:03:19,515 Então peguem, por exemplo, o sorriso genuíno e o malicioso. 64 00:03:19,515 --> 00:03:23,268 Eles se parecem de certa maneira, mas querem dizer coisas bem diferentes. 65 00:03:23,268 --> 00:03:24,986 (Risos) 66 00:03:24,986 --> 00:03:28,880 O sorriso genuíno é positivo, o malicioso normalmente é negativo. 67 00:03:28,880 --> 00:03:33,226 Às vezes um sorriso malicioso pode torná-lo famoso. 68 00:03:33,226 --> 00:03:35,960 Mas falando sério, é importante que um computador consiga 69 00:03:35,960 --> 00:03:38,435 diferenciar essas duas expressões. 70 00:03:38,435 --> 00:03:40,317 Então, como fazemos? 71 00:03:40,317 --> 00:03:42,414 Nós damos ao nosso algoritmo 72 00:03:42,414 --> 00:03:44,514 dezenas de milhares de exemplos de pessoas 73 00:03:44,514 --> 00:03:46,524 que sabemos que estão sorrindo, 74 00:03:46,524 --> 00:03:49,589 de diferentes etnias, idades e gêneros, 75 00:03:49,589 --> 00:03:52,230 e fazemos o mesmo para sorrisos maliciosos. 76 00:03:52,230 --> 00:03:54,114 E assim, usando aprendizagem profunda, 77 00:03:54,114 --> 00:03:56,810 o algoritmo busca todas essas texturas e dobras 78 00:03:56,810 --> 00:03:59,170 e mudanças de forma em nosso rosto 79 00:03:59,170 --> 00:04:02,402 e aprende que todos os sorrisos genuínos têm características em comum, 80 00:04:02,402 --> 00:04:04,002 todos os sorrisos maliciosos 81 00:04:04,002 --> 00:04:05,993 têm características sutilmente diferentes. 82 00:04:05,993 --> 00:04:08,161 E da próxima vez que ele vir um novo rosto, 83 00:04:08,161 --> 00:04:10,440 ele aprende que 84 00:04:10,440 --> 00:04:13,473 esse rosto tem as mesmas características de um sorriso genuíno, 85 00:04:13,473 --> 00:04:17,751 Ele pensa: "Aha, este eu reconheço. É uma expressão de sorriso genuíno." 86 00:04:18,381 --> 00:04:21,181 E a melhor maneira de mostrar que essa tecnologia funciona 87 00:04:21,181 --> 00:04:23,317 é fazer uma demonstração ao vivo, 88 00:04:23,317 --> 00:04:27,230 então vou precisar de um voluntário, de preferência alguém com um rosto. 89 00:04:27,230 --> 00:04:29,564 (Risos) 90 00:04:29,564 --> 00:04:32,335 A Cloe vai ser nossa voluntária hoje. 91 00:04:33,325 --> 00:04:35,003 Durante os últimos cinco anos, 92 00:04:35,003 --> 00:04:37,653 nós passamos de um projeto de pesquisa no MIT 93 00:04:37,653 --> 00:04:38,939 para uma empresa, 94 00:04:38,939 --> 00:04:40,619 na qual minha equipe trabalhou duro 95 00:04:40,619 --> 00:04:42,521 para fazer essa tecnologia funcionar, 96 00:04:42,521 --> 00:04:44,540 como gostamos de dizer, no meio selvagem. 97 00:04:44,540 --> 00:04:45,800 E nós também a minimizamos 98 00:04:45,800 --> 00:04:47,870 para que o mecanismo central de sentimentos 99 00:04:47,870 --> 00:04:50,530 funcione em qualquer dispositivo móvel, como este iPad. 100 00:04:50,530 --> 00:04:52,976 Então vamos testar. 101 00:04:54,516 --> 00:04:58,380 Como podem ver, o algoritmo essencialmente encontrou o rosto da Cloe, 102 00:04:58,380 --> 00:05:00,312 é essa caixa branca delimitadora, 103 00:05:00,312 --> 00:05:03,122 e está acompanhando os pontos característicos em seu rosto, 104 00:05:03,122 --> 00:05:05,959 as sobrancelhas, olhos, boca, e nariz. 105 00:05:05,959 --> 00:05:08,586 A questão é: será que consegue reconhecer sua expressão? 106 00:05:08,586 --> 00:05:10,387 Vamos testar a máquina. 107 00:05:10,387 --> 00:05:14,493 Primeiro, faça uma cara de blefe. Isso, ótimo! (Risos) 108 00:05:14,493 --> 00:05:17,336 E à medida que ela sorri, esse sorriso é genuíno, muito bom. 109 00:05:17,336 --> 00:05:19,856 Podemos ver a barra verde aumentar enquanto ela sorri. 110 00:05:19,856 --> 00:05:21,378 Foi um grande sorriso. 111 00:05:21,378 --> 00:05:24,411 Pode tentar um sorriso sutil para ver se o computador reconhece? 112 00:05:24,411 --> 00:05:27,902 Também reconhece sorrisos sutis. Trabalhamos muito que isso acontecesse. 113 00:05:27,902 --> 00:05:31,439 As sobrancelhas levantadas, o que indica surpresa. 114 00:05:31,439 --> 00:05:35,688 Testa franzida, o que indica confusão. 115 00:05:35,688 --> 00:05:39,695 Cara fechada. Isso, perfeito. 116 00:05:39,695 --> 00:05:43,188 Essas são as diferentes unidades de ação. Há muitas outras. 117 00:05:43,188 --> 00:05:45,220 Esta é só uma curta demonstração. 118 00:05:45,220 --> 00:05:48,258 Mas cada leitura é chamada de ponto de dados de sentimento, 119 00:05:48,258 --> 00:05:51,957 e eles podem ser ativados ao mesmo tempo para retratar diferentes sentimentos. 120 00:05:51,957 --> 00:05:55,990 Do lado direito da demonstração... Parece que você está feliz. 121 00:05:55,990 --> 00:05:57,604 Isto é alegria. A alegria acende. 122 00:05:57,604 --> 00:05:59,371 E faça uma cara de nojo. 123 00:05:59,371 --> 00:06:03,643 Tente se lembrar como foi quando Zayn saiu do One Direction. 124 00:06:03,643 --> 00:06:05,153 (Risos) 125 00:06:05,153 --> 00:06:08,545 Isso, torça o nariz. Ótimo. 126 00:06:09,495 --> 00:06:13,226 E a valência é bastante negativa, você deve ser uma grande fã. 127 00:06:13,226 --> 00:06:15,926 Valência é quão positiva ou negativa é uma sensação, 128 00:06:15,926 --> 00:06:18,542 e engajamento indica a expressividade também. 129 00:06:18,542 --> 00:06:22,206 Imaginem se a Cloe tivesse acesso a esse fluxo de sentimentos em tempo real, 130 00:06:22,206 --> 00:06:24,935 e pudesse compartilhar com quem ela quisesse. 131 00:06:24,935 --> 00:06:26,858 Obrigada. 132 00:06:26,858 --> 00:06:29,479 (Aplausos) 133 00:06:33,749 --> 00:06:39,019 Até agora já acumulamos 12 bilhões de pontos de dados de sentimentos. 134 00:06:39,019 --> 00:06:41,630 É o maior banco de dados de sentimentos do mundo. 135 00:06:41,630 --> 00:06:44,543 Nós os conseguimos de 2,9 milhões de vídeos de rostos, 136 00:06:44,543 --> 00:06:47,693 pessoas que aceitaram compartilhar seus sentimentos conosco, 137 00:06:47,693 --> 00:06:50,398 e de 75 países por todo o mundo. 138 00:06:50,398 --> 00:06:52,113 Está crescendo a cada dia. 139 00:06:52,603 --> 00:06:54,370 Me deixa sem palavras 140 00:06:54,370 --> 00:06:57,795 que agora podemos quantificar algo tão pessoal como nossos sentimentos, 141 00:06:57,795 --> 00:07:00,100 e podemos fazê-lo nessa escala. 142 00:07:00,100 --> 00:07:02,277 E o que já aprendemos? 143 00:07:03,057 --> 00:07:04,788 Gênero. 144 00:07:05,388 --> 00:07:08,864 Nossos dados confirmam uma coisa que talvez vocês suspeitem. 145 00:07:08,864 --> 00:07:10,891 Mulheres são mais expressivas que homens. 146 00:07:10,891 --> 00:07:13,574 Elas não só sorriem mais, seus sorrisos duram mais, 147 00:07:13,574 --> 00:07:16,858 e agora conseguimos quantificar o que faz com que homens e mulheres 148 00:07:16,858 --> 00:07:18,614 reajam de maneira diferente. 149 00:07:18,614 --> 00:07:20,904 Vamos falar de cultura: nos Estados Unidos, 150 00:07:20,904 --> 00:07:24,108 as mulheres são 40% mais expressivas que os homens, 151 00:07:24,108 --> 00:07:26,518 mas curiosamente não vemos nenhuma diferença 152 00:07:26,518 --> 00:07:28,583 no Reino Unido entre homens e mulheres. 153 00:07:28,583 --> 00:07:30,259 (Risos) 154 00:07:31,296 --> 00:07:35,323 Idade: pessoas com 50 anos ou mais 155 00:07:35,323 --> 00:07:38,759 são 25% mais emotivas do que os mais jovens. 156 00:07:39,469 --> 00:07:43,751 Mulheres na casa dos 20 sorriem muito mais do que homens com a mesma idade, 157 00:07:43,751 --> 00:07:47,360 talvez uma necessidade para namorar. 158 00:07:47,360 --> 00:07:50,207 Mas talvez o que mais nos surpreendeu nesses dados 159 00:07:50,207 --> 00:07:53,410 é que somos expressivos o tempo todo, 160 00:07:53,410 --> 00:07:56,243 mesmo quando estamos sozinhos com nossos dispositivos, 161 00:07:56,243 --> 00:07:59,517 e não é só quando estamos assistindo vídeos de gatos no Facebook. 162 00:07:59,847 --> 00:08:03,417 Somos expressivos quando escrevemos e-mails, mensagens, fazemos compras, 163 00:08:03,417 --> 00:08:05,527 ou até mesmo declarando os impostos. 164 00:08:05,527 --> 00:08:07,919 Onde esses dados são usados hoje? 165 00:08:07,919 --> 00:08:10,682 Para entender como interagimos com a mídia, 166 00:08:10,682 --> 00:08:13,166 entender viralidade e comportamento de votação; 167 00:08:13,166 --> 00:08:15,906 e também capacitar e incluir sentimentos na tecnologia, 168 00:08:15,906 --> 00:08:20,527 e eu gostaria de mostrar alguns dos meus exemplos preferidos. 169 00:08:21,197 --> 00:08:24,265 Óculos que conseguem ler sentimentos podem ajudar 170 00:08:24,265 --> 00:08:27,493 pessoas com deficiência visual a ler os rostos dos outros 171 00:08:27,493 --> 00:08:31,680 e pode ajudar pessoas no espectro do autismo a interpretar sentimentos, 172 00:08:31,680 --> 00:08:34,458 algo com que têm muita dificuldade. 173 00:08:35,918 --> 00:08:38,777 Na educação, imagine se seus aplicativos de ensino 174 00:08:38,777 --> 00:08:41,587 perceberem que você está confuso e desacelerarem, 175 00:08:41,587 --> 00:08:43,444 ou que você está entediado e acelerarem, 176 00:08:43,444 --> 00:08:46,413 assim como faria um bom professor em sala de aula. 177 00:08:47,043 --> 00:08:49,644 E se seu relógio de pulso acompanhasse seu humor 178 00:08:49,644 --> 00:08:52,337 ou seu carro percebesse que você está cansado, 179 00:08:52,337 --> 00:08:55,315 ou talvez sua geladeira saiba que você está estressada, 180 00:08:55,315 --> 00:08:59,421 e se tranca sozinha para que você não coma demais. (Risos) 181 00:08:59,421 --> 00:09:02,218 Eu gostaria disso, sim. 182 00:09:03,528 --> 00:09:05,135 E se, quando eu estava em Cambridge, 183 00:09:05,135 --> 00:09:08,018 eu tivesse acesso ao meu fluxo de sentimentos em tempo real, 184 00:09:08,018 --> 00:09:09,358 e pudesse compartilhá-lo 185 00:09:09,358 --> 00:09:11,757 com a minha família em casa de maneira natural, 186 00:09:11,757 --> 00:09:15,408 assim como eu faria se estivéssemos todos juntos na sala? 187 00:09:15,408 --> 00:09:18,020 Acredito que daqui a cinco anos, 188 00:09:18,020 --> 00:09:20,887 todos os nossos dispositivos vão ter um chip de sentimentos, 189 00:09:20,887 --> 00:09:22,501 e nem vamos nos lembrar como era 190 00:09:22,501 --> 00:09:25,411 quando não adiantava fazer cara feia para o dispositivo 191 00:09:25,411 --> 00:09:29,200 e ele diria: "Hm, você não gostou disso, né?" 192 00:09:29,200 --> 00:09:32,711 Nosso maior desafio é que há tantas aplicações para essa tecnologia, 193 00:09:32,711 --> 00:09:36,024 que minha equipe percebeu que não podemos satisfazê-las sozinhos, 194 00:09:36,024 --> 00:09:39,360 então nós disponibilizamos essa tecnologia a outros desenvolvedores 195 00:09:39,360 --> 00:09:41,474 para que construam e usem a criatividade. 196 00:09:41,474 --> 00:09:45,560 Nós reconhecemos que há potenciais riscos 197 00:09:45,560 --> 00:09:47,627 e potencial para abuso, 198 00:09:47,627 --> 00:09:50,576 mas pessoalmente, após muitos anos fazendo isso, 199 00:09:50,576 --> 00:09:52,978 acredito que os benefícios à humanidade 200 00:09:52,978 --> 00:09:55,823 de ter tecnologia emocionalmente inteligente 201 00:09:55,823 --> 00:09:59,399 superam de longe o potencial de abuso. 202 00:09:59,399 --> 00:10:01,930 E eu os convido todos a participarem da conversa. 203 00:10:01,930 --> 00:10:04,484 Quanto mais pessoas conhecerem essa tecnologia, 204 00:10:04,484 --> 00:10:07,661 mais peso terá nossa opinião sobre como usá-la. 205 00:10:09,081 --> 00:10:13,655 E à medida que nossas vidas vão se digitalizando, 206 00:10:13,655 --> 00:10:17,153 nós lutamos uma batalha perdida tentando frear nosso uso de dispositivos 207 00:10:17,153 --> 00:10:19,382 para reivindicar nossos sentimentos. 208 00:10:20,622 --> 00:10:24,536 Então o que estou tentando fazer é colocar sentimentos na tecnologia 209 00:10:24,536 --> 00:10:26,845 e tornar nossa tecnologia mais responsiva. 210 00:10:26,845 --> 00:10:29,435 Eu quero que esses dispositivos que nos separaram 211 00:10:29,435 --> 00:10:31,897 juntem-nos novamente. 212 00:10:31,897 --> 00:10:36,485 E humanizando a tecnologia, nós temos essa oportunidade de ouro 213 00:10:36,485 --> 00:10:39,782 de reimaginar nossa conexão com as máquinas, 214 00:10:39,782 --> 00:10:44,263 e assim, como nós, seres humanos, 215 00:10:44,263 --> 00:10:46,167 nos conectamos uns com os outros. 216 00:10:46,167 --> 00:10:48,027 Obrigada. 217 00:10:48,027 --> 00:10:51,640 (Aplausos)