WEBVTT 00:00:01.116 --> 00:00:04.463 As nossas emoções influenciam todos os aspetos da nossa vida, 00:00:04.463 --> 00:00:06.609 desde a nossa saúde, a forma como aprendemos 00:00:06.609 --> 00:00:08.638 até como trabalhamos e tomamos decisões, 00:00:08.638 --> 00:00:10.458 sejam elas pequenas ou grandes. NOTE Paragraph 00:00:10.867 --> 00:00:15.380 As nossas emoções também influenciam o modo como nos relacionamos uns com os outros. 00:00:15.356 --> 00:00:18.377 Nós evoluímos para viver num mundo como este. 00:00:19.196 --> 00:00:23.652 Mas, em vez disso, vivemos cada vez mais desta forma. 00:00:23.652 --> 00:00:26.349 — esta foi a mensagem da minha filha ontem à noite — 00:00:26.921 --> 00:00:29.271 num mundo desprovido de emoção. 00:00:29.271 --> 00:00:31.718 Eu estou numa missão para mudar isto. 00:00:31.718 --> 00:00:34.919 Quero fazer voltar as emoções às nossas experiências digitais. 00:00:36.512 --> 00:00:38.990 Comecei neste caminho há 15 anos. 00:00:38.990 --> 00:00:41.830 Eu era cientista de informática no Egito, 00:00:41.830 --> 00:00:44.527 e tinha sido aceite num programa de doutoramento 00:00:44.527 --> 00:00:46.245 na Universidade de Cambridge. NOTE Paragraph 00:00:46.245 --> 00:00:48.480 Então, fiz uma coisa bastante invulgar 00:00:48.480 --> 00:00:51.903 para uma jovem esposa egípcia e muçulmana. 00:00:53.929 --> 00:00:56.664 Com o apoio do meu marido, que teve que ficar no Egito, 00:00:56.664 --> 00:00:59.332 fiz as malas e fui para Inglaterra. 00:00:59.723 --> 00:01:02.924 Em Cambridge, a milhares de quilómetros de casa, 00:01:02.924 --> 00:01:05.904 percebi que estava a passar mais tempo com o meu portátil 00:01:05.904 --> 00:01:08.266 do que com qualquer ser humano. 00:01:08.716 --> 00:01:10.334 Mas, apesar da intimidade, 00:01:10.334 --> 00:01:13.470 o meu portátil não fazia ideia nenhuma de como eu me sentia. 00:01:13.470 --> 00:01:15.917 Não sabia se eu estava feliz, 00:01:16.047 --> 00:01:19.721 se estava a ter um dia mau, se estava tensa ou confusa, 00:01:19.721 --> 00:01:21.847 e isso tornou-se frustrante. 00:01:23.659 --> 00:01:27.640 Pior ainda, quando eu comunicava com a minha família online, 00:01:29.309 --> 00:01:32.450 eu sentia que as minhas emoções desapareciam no ciberespaço. 00:01:32.718 --> 00:01:37.890 Eu estava com saudades de casa, solitária, e, às vezes, até chorava, 00:01:37.890 --> 00:01:42.666 mas tudo o que eu tinha para comunicar essas emoções era isto. 00:01:43.210 --> 00:01:44.894 (Risos) NOTE Paragraph 00:01:45.130 --> 00:01:49.036 A tecnologia atual tem um alto Q.I, mas nenhum Q.E., 00:01:49.036 --> 00:01:53.450 ou seja, uma alta inteligência cognitiva, mas nenhuma inteligência emocional. 00:01:53.086 --> 00:01:55.590 Então comecei a pensar: 00:01:55.590 --> 00:01:59.058 E se a nossa tecnologia pudesse reconhecer as nossas emoções? 00:01:59.058 --> 00:02:01.495 E se ela pudesse reconhecer os nossos sentimentos 00:02:01.495 --> 00:02:03.226 e reagir de acordo com eles, 00:02:03.226 --> 00:02:06.247 do mesmo modo que um amigo emocionalmente inteligente reagiria? 00:02:06.742 --> 00:02:10.274 Estas perguntas fizeram com que eu e a minha equipa 00:02:10.274 --> 00:02:13.992 criássemos tecnologias capazes de ler e de reagir às nossas emoções. 00:02:14.566 --> 00:02:17.411 O nosso ponto de partida foi o rosto humano. 00:02:18.560 --> 00:02:21.959 O rosto humano é um dos mais poderosos canais 00:02:21.959 --> 00:02:25.741 que utilizamos para comunicar os estados sociais e emocionais, NOTE Paragraph 00:02:25.741 --> 00:02:27.904 como a alegria, 00:02:27.904 --> 00:02:29.462 a surpresa, 00:02:29.462 --> 00:02:31.162 a empatia 00:02:31.162 --> 00:02:32.946 e a curiosidade. 00:02:33.255 --> 00:02:36.202 Na ciência da emoção, chamamos "unidade de ação" 00:02:36.202 --> 00:02:38.247 a cada movimento facial muscular , 00:02:38.247 --> 00:02:40.515 Por exemplo, ''unidade de ação 12'', 00:02:40.515 --> 00:02:42.811 — não é um grande êxito de Hollywood — 00:02:42.811 --> 00:02:46.303 é o levantar do canto do lábio, o principal componente de um sorriso. 00:02:46.303 --> 00:02:48.654 Tentem, todos vocês. Vamos ver alguns sorrisos. 00:02:49.116 --> 00:02:52.197 Outro exemplo é a "unidade de ação 4". É franzir a testa. 00:02:52.197 --> 00:02:55.934 É quando aproximamos as sobrancelhas, e criamos várias texturas e rugas. 00:02:55.934 --> 00:03:00.117 Não gostamos delas, mas é um forte indicador de emoções negativas. 00:03:00.117 --> 00:03:02.775 Temos cerca de 45 unidades de ação, 00:03:02.775 --> 00:03:05.852 que se combinam para exprimir centenas de emoções. 00:03:06.345 --> 00:03:09.972 Ensinar um computador a ler essas emoções faciais é difícil 00:03:09.972 --> 00:03:13.283 porque essas unidades de ação podem ser rápidas, podem ser subtis, NOTE Paragraph 00:03:13.283 --> 00:03:15.797 e combinam-se de muita formas diferentes. 00:03:15.797 --> 00:03:18.774 Por exemplo, o sorriso alegre e o sorriso irónico. 00:03:19.743 --> 00:03:23.441 São parecidos, mas significam coisas muito diferentes. 00:03:23.441 --> 00:03:24.905 (Risos) 00:03:25.232 --> 00:03:27.142 O sorriso alegre é positivo, 00:03:27.142 --> 00:03:29.229 o sorriso irónico, geralmente, é negativo. 00:03:29.229 --> 00:03:32.120 Às vezes o sorriso irónico pode tornar alguém famoso. 00:03:33.140 --> 00:03:38.387 É importante que um computador consiga distinguir essas duas expressões. 00:03:38.387 --> 00:03:40.270 Então como fazemos isso? 00:03:40.346 --> 00:03:42.466 Damos aos nossos algoritmos NOTE Paragraph 00:03:42.466 --> 00:03:46.614 dezenas de milhares de exemplos de pessoas que sorriem alegremente, 00:03:46.669 --> 00:03:49.738 pessoas de diferentes etnias, idades, sexos, 00:03:49.738 --> 00:03:52.320 e fazemos o mesmo com o sorriso irónico. 00:03:52.132 --> 00:03:54.148 Usando a aprendizagem profunda, 00:03:54.148 --> 00:03:56.980 o algoritmo procura todas essas texturas e rugas 00:03:57.000 --> 00:03:59.264 e as mudanças de forma no nosso rosto, 00:03:59.264 --> 00:04:02.532 e aprende que todos os sorrisos alegres têm características em comum 00:04:02.532 --> 00:04:05.926 e todos os sorrisos irónicos têm características subtilmente diferentes. 00:04:05.926 --> 00:04:08.119 E quando voltar a ver um novo rosto, 00:04:08.119 --> 00:04:11.282 ele aprende que esse rosto 00:04:11.282 --> 00:04:14.259 tem as mesmas características de um sorriso alegre e diz: 00:04:14.259 --> 00:04:17.621 ''Aha, eu reconheço isto. Esta é uma expressão de sorriso alegre.'' 00:04:18.581 --> 00:04:21.393 A melhor maneira de demonstrar como essa tecnologia funciona 00:04:21.393 --> 00:04:23.514 é fazer uma demonstração ao vivo. NOTE Paragraph 00:04:23.514 --> 00:04:26.951 Portanto, preciso de um voluntário, de preferência alguém com um rosto. 00:04:26.951 --> 00:04:29.270 (Risos) 00:04:30.250 --> 00:04:32.712 Cloe vai ser hoje a nossa voluntária. 00:04:33.343 --> 00:04:37.898 Nos últimos cinco anos, passámos de um projeto de pesquisa no MIT 00:04:37.898 --> 00:04:39.281 para uma empresa, NOTE Paragraph 00:04:39.281 --> 00:04:42.823 onde o meu grupo tem trabalhado muito para fazer funcionar esta tecnologia, 00:04:42.823 --> 00:04:44.665 como gostamos de dizer, no dia-a-dia. 00:04:44.665 --> 00:04:47.617 E também a reduzimos para que o mecanismo de emoção central 00:04:47.617 --> 00:04:50.593 funcione em qualquer aparelho com câmara, como este iPad. 00:04:50.593 --> 00:04:52.746 Então vamos lá testá-lo. 00:04:55.770 --> 00:04:58.760 Como podem ver, o algoritmo encontrou o rosto da Cloe 00:04:58.760 --> 00:05:00.656 — é esta caixa delimitadora branca — NOTE Paragraph 00:05:00.656 --> 00:05:03.287 e está a procurar os pontos principais das feições dela: 00:05:03.287 --> 00:05:05.687 as sobrancelhas, os olhos, a boca e o nariz. 00:05:05.907 --> 00:05:08.585 A pergunta é: ''Poderá reconhecer a expressão dela?'' 00:05:08.585 --> 00:05:10.289 Vamos testar a máquina. 00:05:10.289 --> 00:05:12.874 Primeiro, faz um rosto inexpressivo. Isso, fantástico. 00:05:12.874 --> 00:05:14.556 (Risos) 00:05:15.128 --> 00:05:17.742 Quando ela sorri, é um sorriso genuíno, é ótimo. 00:05:17.742 --> 00:05:19.748 Vejam a barra verde subir quando ela sorri. 00:05:19.748 --> 00:05:21.123 Esse foi um sorriso enorme. 00:05:21.123 --> 00:05:23.895 Podes sorrir levemente, para ver se o computador reconhece? 00:05:23.895 --> 00:05:25.718 Ele também reconhece sorrisos subtis. 00:05:25.718 --> 00:05:27.886 Trabalhámos muito para que isto aconteça. 00:05:27.886 --> 00:05:30.892 Agora o levantar das sobrancelhas, que indica surpresa. 00:05:31.218 --> 00:05:34.758 O franzir da testa, que indica confusão. 00:05:34.758 --> 00:05:36.266 (Risos) 00:05:36.266 --> 00:05:39.189 O franzir de sobrancelhas. Perfeito. 00:05:39.745 --> 00:05:42.741 Estas são diferentes unidades de ação. Existem muitas outras. 00:05:42.741 --> 00:05:44.856 Esta é uma demonstração reduzida. 00:05:45.223 --> 00:05:48.325 Nós consideramos cada leitura como um dado emocional. 00:05:48.688 --> 00:05:51.612 Podem aparecer juntos para representar diferentes emoções. 00:05:51.612 --> 00:05:55.450 No lado direito da demonstração — parece que estamos felizes. 00:05:55.450 --> 00:05:57.283 Isso é alegria. A alegria dispara. 00:05:57.585 --> 00:05:59.523 Agora faz uma cara de desgosto. 00:05:59.523 --> 00:06:02.840 Tenta lembrar-te como te sentiste quando Zayn saiu dos One Direction. 00:06:02.840 --> 00:06:04.331 (Risos) 00:06:04.331 --> 00:06:07.188 Isso, enruga o nariz. Ótimo. 00:06:09.914 --> 00:06:13.189 A valência está muito negativa, devias ser uma grande fã. 00:06:13.189 --> 00:06:16.390 A valência é quão positiva ou negativa é uma experiência, 00:06:16.390 --> 00:06:18.837 e o envolvimento é quão expressiva é a pessoa. 00:06:18.837 --> 00:06:22.223 Imaginem se Cloe tivesse acesso a este fluxo digital de emoções, 00:06:22.223 --> 00:06:24.877 e pudesse partilhar isso com quem ela quisesse. 00:06:25.610 --> 00:06:26.546 Obrigada. 00:06:26.771 --> 00:06:29.771 (Aplausos) 00:06:33.851 --> 00:06:38.972 Até agora, já acumulámos 12 mil milhões destes dados emocionais. 00:06:38.972 --> 00:06:41.430 É o maior banco de dados emocionais do mundo. NOTE Paragraph 00:06:41.430 --> 00:06:44.979 Fomos buscá-los a 2,9 milhões de vídeos de rostos, 00:06:44.979 --> 00:06:48.135 de pessoas que aceitaram partilhar as suas emoções connosco, 00:06:48.135 --> 00:06:50.601 de 75 países em todo o mundo. 00:06:50.601 --> 00:06:52.643 Ele está a crescer todos os dias. 00:06:52.697 --> 00:06:55.185 Eu fico espantada com o fato de que 00:06:55.185 --> 00:06:58.524 hoje em dia podemos quantificar uma coisa tão pessoal como as emoções 00:06:58.524 --> 00:07:00.359 e podemos fazer isso a este nível. 00:07:00.359 --> 00:07:02.522 Então o que é que aprendemos até agora? 00:07:03.227 --> 00:07:04.966 Diferenças entre sexos. NOTE Paragraph 00:07:05.356 --> 00:07:08.477 Os nossos dados confirmam uma coisa que vocês talvez suspeitem. 00:07:08.897 --> 00:07:11.395 As mulheres são mais expressivas do que os homens. 00:07:11.395 --> 00:07:13.964 Sorriem-se mais, e os sorrisos delas duram mais tempo. 00:07:13.964 --> 00:07:16.774 Podemos quantificar a que é que homens e mulheres 00:07:16.774 --> 00:07:18.670 reagem de modo diferente. 00:07:18.670 --> 00:07:20.234 Vamos contribuir para a cultura: 00:07:20.234 --> 00:07:21.636 Nos Estados Unidos, 00:07:21.636 --> 00:07:24.184 as mulheres são 50% mais expressivas do que os homens 00:07:24.184 --> 00:07:28.347 mas, curiosamente, não vemos diferença no Reino Unido entre homens e mulheres. 00:07:28.456 --> 00:07:30.576 (Risos) 00:07:31.615 --> 00:07:35.540 Idade: As pessoas com 50 anos ou mais 00:07:35.540 --> 00:07:38.496 são 25% mais emotivas do que as pessoas jovens. 00:07:39.396 --> 00:07:43.658 As mulheres na faixa dos 20 anos sorriem mais do que os homens da mesma idade, 00:07:43.658 --> 00:07:46.382 talvez seja uma necessidade para arranjar namoro. 00:07:47.506 --> 00:07:50.456 Mas talvez o que mais nos surpreendeu em relação a estes dados 00:07:50.456 --> 00:07:53.294 é que nós somos expressivos o tempo todo, 00:07:53.294 --> 00:07:56.746 mesmo quando estamos sentados sozinhos em frente dos nossos computadores, 00:07:56.746 --> 00:07:59.780 e não é só quando assistimos a vídeos de gatos no Facebook. 00:07:59.935 --> 00:08:03.699 Somos expressivos quando enviamos e-mails e mensagens, quando compramos online, 00:08:03.699 --> 00:08:05.899 e até quando fazemos a declaração de impostos. 00:08:05.972 --> 00:08:08.088 Onde é que esses dados são usados hoje? 00:08:08.088 --> 00:08:10.561 Para compreender como nos envolvemos com os media; NOTE Paragraph 00:08:10.561 --> 00:08:13.682 para compreender os fenómenos virais e o comportamento eleitoral; 00:08:13.682 --> 00:08:16.893 e também nas tecnologias que reforçam ou provocam emoções. 00:08:16.893 --> 00:08:20.207 Quero mostrar-vos alguns exemplos que considero muito especiais. 00:08:21.357 --> 00:08:24.408 Óculos que reconheçam emoções podem ajudar indivíduos 00:08:24.408 --> 00:08:27.219 que possuem deficiente visão a ler o rosto dos outros. 00:08:27.562 --> 00:08:31.179 Podem ajudar indivíduos do espetro autista a interpretar emoções, 00:08:31.179 --> 00:08:33.794 que é uma coisa em que eles têm muita dificuldade. 00:08:35.667 --> 00:08:38.954 Na área do ensino, imaginem se os aplicativos educacionais 00:08:38.954 --> 00:08:41.626 percebam que estamos confusos e abrandem de velocidade 00:08:41.626 --> 00:08:44.660 ou que estamos aborrecidos e avancem mais depressa, 00:08:44.660 --> 00:08:46.830 como faria um bom professor na aula. 00:08:47.660 --> 00:08:50.080 E se o nosso relógio detetasse a nossa disposição? 00:08:50.080 --> 00:08:52.463 Ou se o nosso carro sentisse que estamos cansados? 00:08:52.463 --> 00:08:55.350 Ou o nosso frigorífico percebesse que estamos nervosos NOTE Paragraph 00:08:55.350 --> 00:08:58.425 e trancasse automaticamente para impedir que comamos demais? 00:08:58.443 --> 00:08:59.597 (Risos) 00:08:59.597 --> 00:09:01.283 Eu adoraria isso. 00:09:03.786 --> 00:09:05.615 E se, quando eu estava em Cambridge, 00:09:05.615 --> 00:09:08.462 eu tivesse tido acesso ao meu fluxo de emoções em tempo real 00:09:08.462 --> 00:09:11.607 e pudesse partilhar isso com a minha família de modo natural, 00:09:11.607 --> 00:09:14.880 tal como faria se estivéssemos todos juntos na mesma sala? 00:09:15.623 --> 00:09:18.314 Eu acho que, daqui a 5 anos, 00:09:18.314 --> 00:09:20.758 todos os nossos aparelhos terão um chip emocional. NOTE Paragraph 00:09:21.220 --> 00:09:25.226 Nem nos vamos lembrar como era não poder franzir testa para o computador 00:09:25.226 --> 00:09:28.299 e ele responder: ''Hmm, não gostaste disto, pois não?.'' 00:09:29.407 --> 00:09:32.835 O nosso maior desafio é que há tantas aplicações desta tecnologia 00:09:32.835 --> 00:09:36.239 que a minha equipa e eu percebemos que não podemos montar tudo sozinhos. 00:09:36.239 --> 00:09:39.541 Assim, tornámos disponível esta tecnologia para que outras pessoas 00:09:39.541 --> 00:09:41.820 possam começar a construir e a criar. 00:09:41.820 --> 00:09:45.779 Sabemos que há riscos potenciais 00:09:45.779 --> 00:09:47.871 e há potencial para abusos, 00:09:47.871 --> 00:09:50.776 mas, pessoalmente, como trabalhei nisto durante muitos anos, 00:09:50.776 --> 00:09:53.206 acredito que os benefícios para a humanidade 00:09:53.206 --> 00:09:55.936 de termos uma tecnologia emocionalmente inteligente 00:09:55.936 --> 00:09:58.928 são muito maiores que o potencial para uso indevido. 00:09:59.441 --> 00:10:02.176 Convido todos vocês para participar nessa discussão. 00:10:02.176 --> 00:10:04.589 Quanto mais pessoas souberem sobre esta tecnologia, 00:10:04.589 --> 00:10:07.710 mais força terá a nossa voz quanto à forma como for usada. 00:10:09.315 --> 00:10:13.695 À medida que a nossa vida é cada vez mais digital, 00:10:13.695 --> 00:10:17.508 travamos uma luta perdida ao tentar restringir o nosso uso de tecnologias 00:10:17.508 --> 00:10:19.654 para reivindicar as nossas emoções. 00:10:20.479 --> 00:10:24.744 Em vez disso, quero introduzir as emoções na nossa tecnologia 00:10:24.744 --> 00:10:27.131 e tornar a nossa tecnologia mais recetível. 00:10:27.131 --> 00:10:29.665 Quero que estes aparelhos que nos separaram 00:10:29.665 --> 00:10:31.622 nos unam novamente. 00:10:32.518 --> 00:10:36.695 Ao humanizar a tecnologia, temos uma oportunidade perfeita 00:10:36.695 --> 00:10:39.706 para re-imaginar como nos relacionamos com máquinas 00:10:40.287 --> 00:10:44.146 e, portanto, como nós, enquanto seres humanos, 00:10:44.146 --> 00:10:46.205 nos relacionamos uns com os outros. 00:10:46.351 --> 00:10:48.133 Obrigada. 00:10:48.345 --> 00:10:50.817 (Aplausos)