0:00:01.116,0:00:04.463 As nossas emoções influenciam[br]todos os aspetos da nossa vida, 0:00:04.463,0:00:06.609 desde a nossa saúde,[br]a forma como aprendemos 0:00:06.609,0:00:08.638 até como trabalhamos [br]e tomamos decisões, 0:00:08.638,0:00:10.458 sejam elas pequenas ou grandes. 0:00:10.867,0:00:15.380 As nossas emoções também influenciam o modo[br]como nos relacionamos uns com os outros. 0:00:15.356,0:00:18.377 Nós evoluímos para viver[br]num mundo como este. 0:00:19.196,0:00:23.652 Mas, em vez disso, vivemos[br]cada vez mais desta forma. 0:00:23.652,0:00:26.349 — esta foi a mensagem [br]da minha filha ontem à noite — 0:00:26.921,0:00:29.271 num mundo desprovido de emoção. 0:00:29.271,0:00:31.718 Eu estou numa missão para mudar isto. 0:00:31.718,0:00:34.919 Quero fazer voltar as emoções[br]às nossas experiências digitais. 0:00:36.512,0:00:38.990 Comecei neste caminho há 15 anos. 0:00:38.990,0:00:41.830 Eu era cientista de informática no Egito, 0:00:41.830,0:00:44.527 e tinha sido aceite [br]num programa de doutoramento 0:00:44.527,0:00:46.245 na Universidade de Cambridge. 0:00:46.245,0:00:48.480 Então, fiz uma coisa bastante invulgar 0:00:48.480,0:00:51.903 para uma jovem esposa [br]egípcia e muçulmana. 0:00:53.929,0:00:56.664 Com o apoio do meu marido, [br]que teve que ficar no Egito, 0:00:56.664,0:00:59.332 fiz as malas e fui para Inglaterra. 0:00:59.723,0:01:02.924 Em Cambridge, [br]a milhares de quilómetros de casa, 0:01:02.924,0:01:05.904 percebi que estava a passar[br]mais tempo com o meu portátil 0:01:05.904,0:01:08.266 do que com qualquer ser humano. 0:01:08.716,0:01:10.334 Mas, apesar da intimidade, 0:01:10.334,0:01:13.470 o meu portátil não fazia ideia nenhuma[br]de como eu me sentia. 0:01:13.470,0:01:15.917 Não sabia se eu estava feliz, 0:01:16.047,0:01:19.721 se estava a ter um dia mau, [br]se estava tensa ou confusa, 0:01:19.721,0:01:21.847 e isso tornou-se frustrante. 0:01:23.659,0:01:27.640 Pior ainda, quando eu comunicava [br]com a minha família online, 0:01:29.309,0:01:32.450 eu sentia que as minhas emoções[br]desapareciam no ciberespaço. 0:01:32.718,0:01:37.890 Eu estava com saudades de casa, solitária,[br]e, às vezes, até chorava, 0:01:37.890,0:01:42.666 mas tudo o que eu tinha para comunicar[br]essas emoções era isto. 0:01:43.210,0:01:44.894 (Risos) 0:01:45.130,0:01:49.036 A tecnologia atual tem um alto Q.I,[br]mas nenhum Q.E., 0:01:49.036,0:01:53.450 ou seja, uma alta inteligência cognitiva,[br]mas nenhuma inteligência emocional. 0:01:53.086,0:01:55.590 Então comecei a pensar: 0:01:55.590,0:01:59.058 E se a nossa tecnologia pudesse[br]reconhecer as nossas emoções? 0:01:59.058,0:02:01.495 E se ela pudesse reconhecer [br]os nossos sentimentos 0:02:01.495,0:02:03.226 e reagir de acordo com eles, 0:02:03.226,0:02:06.247 do mesmo modo que um amigo[br]emocionalmente inteligente reagiria? 0:02:06.742,0:02:10.274 Estas perguntas fizeram [br]com que eu e a minha equipa 0:02:10.274,0:02:13.992 criássemos tecnologias capazes [br]de ler e de reagir às nossas emoções. 0:02:14.566,0:02:17.411 O nosso ponto de partida[br]foi o rosto humano. 0:02:18.560,0:02:21.959 O rosto humano é um [br]dos mais poderosos canais 0:02:21.959,0:02:25.741 que utilizamos para comunicar[br]os estados sociais e emocionais, 0:02:25.741,0:02:27.904 como a alegria, 0:02:27.904,0:02:29.462 a surpresa, 0:02:29.462,0:02:31.162 a empatia 0:02:31.162,0:02:32.946 e a curiosidade. 0:02:33.255,0:02:36.202 Na ciência da emoção, [br]chamamos "unidade de ação" 0:02:36.202,0:02:38.247 a cada movimento facial muscular , 0:02:38.247,0:02:40.515 Por exemplo, ''unidade de ação 12'', 0:02:40.515,0:02:42.811 — não é um grande êxito de Hollywood — 0:02:42.811,0:02:46.303 é o levantar do canto do lábio,[br]o principal componente de um sorriso. 0:02:46.303,0:02:48.654 Tentem, todos vocês. [br]Vamos ver alguns sorrisos. 0:02:49.116,0:02:52.197 Outro exemplo é a "unidade de ação 4".[br]É franzir a testa. 0:02:52.197,0:02:55.934 É quando aproximamos as sobrancelhas,[br]e criamos várias texturas e rugas. 0:02:55.934,0:03:00.117 Não gostamos delas, mas é [br]um forte indicador de emoções negativas. 0:03:00.117,0:03:02.775 Temos cerca de 45 unidades de ação, 0:03:02.775,0:03:05.852 que se combinam para exprimir[br]centenas de emoções. 0:03:06.345,0:03:09.972 Ensinar um computador a ler [br]essas emoções faciais é difícil 0:03:09.972,0:03:13.283 porque essas unidades de ação[br]podem ser rápidas, podem ser subtis, 0:03:13.283,0:03:15.797 e combinam-se de muita formas diferentes. 0:03:15.797,0:03:18.774 Por exemplo, o sorriso alegre[br]e o sorriso irónico. 0:03:19.743,0:03:23.441 São parecidos, mas [br]significam coisas muito diferentes. 0:03:23.441,0:03:24.905 (Risos) 0:03:25.232,0:03:27.142 O sorriso alegre é positivo, 0:03:27.142,0:03:29.229 o sorriso irónico, geralmente, é negativo. 0:03:29.229,0:03:32.120 Às vezes o sorriso irónico[br]pode tornar alguém famoso. 0:03:33.140,0:03:38.387 É importante que um computador[br]consiga distinguir essas duas expressões. 0:03:38.387,0:03:40.270 Então como fazemos isso? 0:03:40.346,0:03:42.466 Damos aos nossos algoritmos 0:03:42.466,0:03:46.614 dezenas de milhares de exemplos[br]de pessoas que sorriem alegremente, 0:03:46.669,0:03:49.738 pessoas de diferentes etnias,[br]idades, sexos, 0:03:49.738,0:03:52.320 e fazemos o mesmo com o sorriso irónico. 0:03:52.132,0:03:54.148 Usando a aprendizagem profunda, 0:03:54.148,0:03:56.980 o algoritmo procura todas[br]essas texturas e rugas 0:03:57.000,0:03:59.264 e as mudanças de forma no nosso rosto, 0:03:59.264,0:04:02.532 e aprende que todos os sorrisos alegres[br]têm características em comum 0:04:02.532,0:04:05.926 e todos os sorrisos irónicos têm[br]características subtilmente diferentes. 0:04:05.926,0:04:08.119 E quando voltar a ver um novo rosto, 0:04:08.119,0:04:11.282 ele aprende que esse rosto 0:04:11.282,0:04:14.259 tem as mesmas características[br]de um sorriso alegre e diz: 0:04:14.259,0:04:17.621 ''Aha, eu reconheço isto.[br]Esta é uma expressão de sorriso alegre.'' 0:04:18.581,0:04:21.393 A melhor maneira de demonstrar[br]como essa tecnologia funciona 0:04:21.393,0:04:23.514 é fazer uma demonstração ao vivo. 0:04:23.514,0:04:26.951 Portanto, preciso de um voluntário,[br]de preferência alguém com um rosto. 0:04:26.951,0:04:29.270 (Risos) 0:04:30.250,0:04:32.712 Cloe vai ser hoje a nossa voluntária. 0:04:33.343,0:04:37.898 Nos últimos cinco anos, passámos[br]de um projeto de pesquisa no MIT 0:04:37.898,0:04:39.281 para uma empresa, 0:04:39.281,0:04:42.823 onde o meu grupo tem trabalhado muito[br]para fazer funcionar esta tecnologia, 0:04:42.823,0:04:44.665 como gostamos de dizer, no dia-a-dia. 0:04:44.665,0:04:47.617 E também a reduzimos para que[br]o mecanismo de emoção central 0:04:47.617,0:04:50.593 funcione em qualquer aparelho[br]com câmara, como este iPad. 0:04:50.593,0:04:52.746 Então vamos lá testá-lo. 0:04:55.770,0:04:58.760 Como podem ver, o algoritmo[br]encontrou o rosto da Cloe 0:04:58.760,0:05:00.656 — é esta caixa delimitadora branca — 0:05:00.656,0:05:03.287 e está a procurar[br]os pontos principais das feições dela: 0:05:03.287,0:05:05.687 as sobrancelhas, os olhos,[br]a boca e o nariz. 0:05:05.907,0:05:08.585 A pergunta é: ''Poderá[br]reconhecer a expressão dela?'' 0:05:08.585,0:05:10.289 Vamos testar a máquina. 0:05:10.289,0:05:12.874 Primeiro, faz um rosto inexpressivo.[br]Isso, fantástico. 0:05:12.874,0:05:14.556 (Risos) 0:05:15.128,0:05:17.742 Quando ela sorri, é um[br]sorriso genuíno, é ótimo. 0:05:17.742,0:05:19.748 Vejam a barra verde[br]subir quando ela sorri. 0:05:19.748,0:05:21.123 Esse foi um sorriso enorme. 0:05:21.123,0:05:23.895 Podes sorrir levemente,[br]para ver se o computador reconhece? 0:05:23.895,0:05:25.718 Ele também reconhece sorrisos subtis. 0:05:25.718,0:05:27.886 Trabalhámos muito para que isto aconteça. 0:05:27.886,0:05:30.892 Agora o levantar das sobrancelhas,[br]que indica surpresa. 0:05:31.218,0:05:34.758 O franzir da testa,[br]que indica confusão. 0:05:34.758,0:05:36.266 (Risos) 0:05:36.266,0:05:39.189 O franzir de sobrancelhas. Perfeito. 0:05:39.745,0:05:42.741 Estas são diferentes unidades de ação.[br]Existem muitas outras. 0:05:42.741,0:05:44.856 Esta é uma demonstração reduzida. 0:05:45.223,0:05:48.325 Nós consideramos cada leitura [br]como um dado emocional. 0:05:48.688,0:05:51.612 Podem aparecer juntos[br]para representar diferentes emoções. 0:05:51.612,0:05:55.450 No lado direito da demonstração[br]— parece que estamos felizes. 0:05:55.450,0:05:57.283 Isso é alegria. A alegria dispara. 0:05:57.585,0:05:59.523 Agora faz uma cara de desgosto. 0:05:59.523,0:06:02.840 Tenta lembrar-te como te sentiste[br]quando Zayn saiu dos One Direction. 0:06:02.840,0:06:04.331 (Risos) 0:06:04.331,0:06:07.188 Isso, enruga o nariz. Ótimo. 0:06:09.914,0:06:13.189 A valência está muito negativa, [br]devias ser uma grande fã. 0:06:13.189,0:06:16.390 A valência é quão positiva[br]ou negativa é uma experiência, 0:06:16.390,0:06:18.837 e o envolvimento é[br]quão expressiva é a pessoa. 0:06:18.837,0:06:22.223 Imaginem se Cloe tivesse acesso[br]a este fluxo digital de emoções, 0:06:22.223,0:06:24.877 e pudesse partilhar isso[br]com quem ela quisesse. 0:06:25.610,0:06:26.546 Obrigada. 0:06:26.771,0:06:29.771 (Aplausos) 0:06:33.851,0:06:38.972 Até agora, já acumulámos 12 mil milhões[br]destes dados emocionais. 0:06:38.972,0:06:41.430 É o maior banco de dados [br]emocionais do mundo. 0:06:41.430,0:06:44.979 Fomos buscá-los a 2,9 milhões [br]de vídeos de rostos, 0:06:44.979,0:06:48.135 de pessoas que aceitaram partilhar[br]as suas emoções connosco, 0:06:48.135,0:06:50.601 de 75 países em todo o mundo. 0:06:50.601,0:06:52.643 Ele está a crescer todos os dias. 0:06:52.697,0:06:55.185 Eu fico espantada com o fato de que 0:06:55.185,0:06:58.524 hoje em dia podemos quantificar[br]uma coisa tão pessoal como as emoções 0:06:58.524,0:07:00.359 e podemos fazer isso a este nível. 0:07:00.359,0:07:02.522 Então o que é que aprendemos até agora? 0:07:03.227,0:07:04.966 Diferenças entre sexos. 0:07:05.356,0:07:08.477 Os nossos dados confirmam uma coisa[br]que vocês talvez suspeitem. 0:07:08.897,0:07:11.395 As mulheres são mais expressivas[br]do que os homens. 0:07:11.395,0:07:13.964 Sorriem-se mais, [br]e os sorrisos delas duram mais tempo. 0:07:13.964,0:07:16.774 Podemos quantificar [br]a que é que homens e mulheres 0:07:16.774,0:07:18.670 reagem de modo diferente. 0:07:18.670,0:07:20.234 Vamos contribuir para a cultura: 0:07:20.234,0:07:21.636 Nos Estados Unidos, 0:07:21.636,0:07:24.184 as mulheres são 50% mais expressivas[br]do que os homens 0:07:24.184,0:07:28.347 mas, curiosamente, não vemos diferença[br]no Reino Unido entre homens e mulheres. 0:07:28.456,0:07:30.576 (Risos) 0:07:31.615,0:07:35.540 Idade: As pessoas com 50 anos ou mais 0:07:35.540,0:07:38.496 são 25% mais emotivas [br]do que as pessoas jovens. 0:07:39.396,0:07:43.658 As mulheres na faixa dos 20 anos sorriem[br]mais do que os homens da mesma idade, 0:07:43.658,0:07:46.382 talvez seja uma necessidade[br]para arranjar namoro. 0:07:47.506,0:07:50.456 Mas talvez o que mais nos surpreendeu[br]em relação a estes dados 0:07:50.456,0:07:53.294 é que nós somos expressivos o tempo todo, 0:07:53.294,0:07:56.746 mesmo quando estamos sentados sozinhos[br]em frente dos nossos computadores, 0:07:56.746,0:07:59.780 e não é só quando assistimos[br]a vídeos de gatos no Facebook. 0:07:59.935,0:08:03.699 Somos expressivos quando enviamos e-mails[br]e mensagens, quando compramos online, 0:08:03.699,0:08:05.899 e até quando fazemos[br]a declaração de impostos. 0:08:05.972,0:08:08.088 Onde é que esses dados são usados hoje? 0:08:08.088,0:08:10.561 Para compreender [br]como nos envolvemos com os media; 0:08:10.561,0:08:13.682 para compreender os fenómenos virais[br]e o comportamento eleitoral; 0:08:13.682,0:08:16.893 e também nas tecnologias[br]que reforçam ou provocam emoções. 0:08:16.893,0:08:20.207 Quero mostrar-vos alguns exemplos[br]que considero muito especiais. 0:08:21.357,0:08:24.408 Óculos que reconheçam emoções[br]podem ajudar indivíduos 0:08:24.408,0:08:27.219 que possuem deficiente visão[br]a ler o rosto dos outros. 0:08:27.562,0:08:31.179 Podem ajudar indivíduos do espetro[br]autista a interpretar emoções, 0:08:31.179,0:08:33.794 que é uma coisa [br]em que eles têm muita dificuldade. 0:08:35.667,0:08:38.954 Na área do ensino, imaginem se[br]os aplicativos educacionais 0:08:38.954,0:08:41.626 percebam que estamos confusos[br]e abrandem de velocidade 0:08:41.626,0:08:44.660 ou que estamos aborrecidos[br]e avancem mais depressa, 0:08:44.660,0:08:46.830 como faria um bom professor na aula. 0:08:47.660,0:08:50.080 E se o nosso relógio detetasse[br]a nossa disposição? 0:08:50.080,0:08:52.463 Ou se o nosso carro sentisse que[br]estamos cansados? 0:08:52.463,0:08:55.350 Ou o nosso frigorífico percebesse[br]que estamos nervosos 0:08:55.350,0:08:58.425 e trancasse automaticamente[br]para impedir que comamos demais? 0:08:58.443,0:08:59.597 (Risos) 0:08:59.597,0:09:01.283 Eu adoraria isso. 0:09:03.786,0:09:05.615 E se, quando eu estava em Cambridge, 0:09:05.615,0:09:08.462 eu tivesse tido acesso ao[br]meu fluxo de emoções em tempo real 0:09:08.462,0:09:11.607 e pudesse partilhar isso [br]com a minha família de modo natural, 0:09:11.607,0:09:14.880 tal como faria se estivéssemos[br]todos juntos na mesma sala? 0:09:15.623,0:09:18.314 Eu acho que, daqui a 5 anos, 0:09:18.314,0:09:20.758 todos os nossos aparelhos[br]terão um chip emocional. 0:09:21.220,0:09:25.226 Nem nos vamos lembrar como era não poder[br]franzir testa para o computador 0:09:25.226,0:09:28.299 e ele responder: [br]''Hmm, não gostaste disto, pois não?.'' 0:09:29.407,0:09:32.835 O nosso maior desafio é que há[br]tantas aplicações desta tecnologia 0:09:32.835,0:09:36.239 que a minha equipa e eu percebemos que[br]não podemos montar tudo sozinhos. 0:09:36.239,0:09:39.541 Assim, tornámos disponível esta tecnologia[br]para que outras pessoas 0:09:39.541,0:09:41.820 possam começar a construir e a criar. 0:09:41.820,0:09:45.779 Sabemos que há riscos potenciais 0:09:45.779,0:09:47.871 e há potencial para abusos, 0:09:47.871,0:09:50.776 mas, pessoalmente, como trabalhei[br]nisto durante muitos anos, 0:09:50.776,0:09:53.206 acredito que os benefícios[br]para a humanidade 0:09:53.206,0:09:55.936 de termos uma tecnologia[br]emocionalmente inteligente 0:09:55.936,0:09:58.928 são muito maiores que o potencial[br]para uso indevido. 0:09:59.441,0:10:02.176 Convido todos vocês para[br]participar nessa discussão. 0:10:02.176,0:10:04.589 Quanto mais pessoas souberem[br]sobre esta tecnologia, 0:10:04.589,0:10:07.710 mais força terá a nossa voz[br]quanto à forma como for usada. 0:10:09.315,0:10:13.695 À medida que a nossa vida[br]é cada vez mais digital, 0:10:13.695,0:10:17.508 travamos uma luta perdida ao tentar[br]restringir o nosso uso de tecnologias 0:10:17.508,0:10:19.654 para reivindicar as nossas emoções. 0:10:20.479,0:10:24.744 Em vez disso, quero introduzir[br]as emoções na nossa tecnologia 0:10:24.744,0:10:27.131 e tornar a nossa tecnologia mais recetível. 0:10:27.131,0:10:29.665 Quero que estes aparelhos[br]que nos separaram 0:10:29.665,0:10:31.622 nos unam novamente. 0:10:32.518,0:10:36.695 Ao humanizar a tecnologia,[br]temos uma oportunidade perfeita 0:10:36.695,0:10:39.706 para re-imaginar como [br]nos relacionamos com máquinas 0:10:40.287,0:10:44.146 e, portanto, como nós, [br]enquanto seres humanos, 0:10:44.146,0:10:46.205 nos relacionamos uns com os outros. 0:10:46.351,0:10:48.133 Obrigada. 0:10:48.345,0:10:50.817 (Aplausos)