0:00:00.542,0:00:04.542 Las emociones influyen en[br]cada aspecto de nuestras vidas, 0:00:04.573,0:00:08.407 de la salud y el aprendizaje, a la forma[br]de hacer negocios y tomar decisiones, 0:00:08.408,0:00:09.922 grandes y pequeñas. 0:00:10.667,0:00:14.334 Las emociones influyen en la forma[br]en la cual interaccionamos entre nosotros. 0:00:15.132,0:00:19.107 Hemos evolucionado para vivir[br]en un mundo como este, 0:00:19.108,0:00:23.426 pero en cambio, vivimos la vida[br]cada vez más de esta manera 0:00:23.427,0:00:26.560 --este es el mensaje de texto[br]que recibí de mi hija anoche-- 0:00:26.561,0:00:29.300 en un mundo desprovisto de emoción. 0:00:29.301,0:00:31.251 Mi misión es cambiar esto. 0:00:31.252,0:00:35.343 Quiero devolver las emociones[br]a nuestra experiencia digital. 0:00:36.223,0:00:39.299 Empecé con esto hace 15 años. 0:00:39.300,0:00:41.365 Era ingeniera informática en Egipto 0:00:41.366,0:00:45.870 y fui aceptada en un programa de doctorado[br]en la Universidad de Cambridge. 0:00:45.871,0:00:47.983 E hice algo bastante inusual 0:00:47.984,0:00:52.209 para una joven recién casada,[br]egipcia y musulmana: 0:00:53.599,0:00:56.597 con el apoyo de mi marido,[br]que debía quedarse en Egipto, 0:00:56.598,0:00:59.615 hice las maletas y me mudé a Inglaterra. 0:00:59.616,0:01:02.833 En Cambridge, a miles[br]de kilómetros de casa, 0:01:02.834,0:01:06.251 me di cuenta de que estaba[br]pasando más horas con mi laptop 0:01:06.257,0:01:08.485 que con otros seres humanos. 0:01:08.486,0:01:13.338 Pero a pesar de esta intimidad, mi laptop[br]no tenía ni idea de mi estado de ánimo. 0:01:13.339,0:01:16.541 No tenía idea de si yo era feliz, 0:01:16.542,0:01:19.541 si tenía un mal día, o estaba[br]estresada o confundida, 0:01:19.542,0:01:22.460 y eso era frustrante. 0:01:23.600,0:01:28.831 Aun peor, cuando me comunicaba[br]en línea con mi familia en casa, 0:01:29.421,0:01:32.702 sentía que todas mis emociones[br]desaparecían en el ciberespacio. 0:01:32.703,0:01:37.857 Sentía nostalgia, estaba sola,[br]y algunos días lloraba, 0:01:37.858,0:01:42.785 pero todo lo que tenía para[br]comunicar mis emociones era esto. 0:01:42.786,0:01:44.805 (Risas) 0:01:44.806,0:01:49.779 Hoy la tecnología es[br]inteligente pero no emocional 0:01:49.780,0:01:52.955 mucha inteligencia cognitiva,[br]pero nada de inteligencia emocional. 0:01:52.956,0:01:55.152 Eso me hizo pensar, 0:01:55.153,0:01:58.776 ¿y si la tecnología pudiera[br]interpretar nuestras emociones? 0:01:58.777,0:02:02.852 ¿Y si nuestros dispositivos pudieran[br]detectar y reaccionar en consecuencia, 0:02:02.853,0:02:05.866 como lo harían los amigos[br]con inteligencia emocional? 0:02:06.666,0:02:10.228 Esas preguntas me guiaron[br]a mí y a mi equipo 0:02:10.229,0:02:14.606 a crear tecnologías capaces[br]de leer emociones y responder, 0:02:14.607,0:02:17.697 y nuestro punto de partida[br]fue el rostro humano. 0:02:18.577,0:02:21.749 Nuestro rostro es uno de[br]los canales más poderosos 0:02:21.750,0:02:25.765 que usamos para comunicar[br]estados sociales y emocionales, 0:02:25.766,0:02:28.776 todo, del disfrute y la sorpresa, 0:02:28.792,0:02:32.978 a la empatía y la curiosidad. 0:02:32.979,0:02:36.526 En la ciencia de las emociones, cada[br]movimiento de cada músculo facial, 0:02:36.527,0:02:37.906 es una unidad de acción. 0:02:37.907,0:02:40.831 Por ejemplo, la unidad de acción 12, 0:02:40.832,0:02:42.869 no es una superproducción de Hollywood, 0:02:42.870,0:02:46.311 es el tirón de la comisura labial,[br]componente principal de una sonrisa. 0:02:46.312,0:02:49.299 Intenten todos. Sonriamos. 0:02:49.300,0:02:51.153 Otro ejemplo es la unidad de acción 4, 0:02:51.154,0:02:54.321 las líneas de expresión en el entrecejo[br]cuando juntamos las cejas 0:02:54.322,0:02:56.458 y se forman estos pliegues y arrugas. 0:02:56.459,0:03:00.753 No nos gustan, pero es una[br]fuerte señal de una emoción negativa. 0:03:00.754,0:03:02.959 Hay unas 45 unidades de acción, 0:03:02.960,0:03:06.349 y combinadas expresan[br]cientos de emociones, 0:03:06.350,0:03:10.250 Enseñarle a una computadora a leer[br]estas emociones faciales es difícil, 0:03:10.251,0:03:13.222 porque estas unidades de acción[br]pueden ser rápidas y sutiles, 0:03:13.223,0:03:15.776 y se combinan de muchas formas. 0:03:15.777,0:03:19.514 Tomemos por ejemplo[br]la sonrisa genuina y la socarrona. 0:03:19.515,0:03:23.267 Se parecen pero expresan cosas diferentes. 0:03:23.268,0:03:24.985 (Risas) 0:03:24.986,0:03:27.529 La sonrisa genuina es positiva, 0:03:27.530,0:03:29.519 la sonrisa socarrona a veces es negativa. 0:03:29.520,0:03:33.135 A veces una mueca puede hacerte célebre. 0:03:33.136,0:03:35.959 Pero en serio, es importante[br]para una computadora poder 0:03:35.960,0:03:38.814 notar la diferencia entre[br]las dos expresiones. 0:03:38.815,0:03:40.626 ¿Cómo hacemos esto? 0:03:40.627,0:03:42.723 Introducimos en el programa de computación 0:03:42.724,0:03:46.523 decenas de miles de ejemplos[br]de personas que sonríen 0:03:46.524,0:03:49.588 de distintas etnias, edades, géneros, 0:03:49.589,0:03:52.399 y hacemos lo mismo con[br]las sonrisas socarronas. 0:03:52.400,0:03:54.783 Luego, los algoritmos[br]en aprendizaje automático 0:03:54.784,0:03:59.291 buscan estas lineas, pliegues[br]y cambios musculares faciales 0:03:59.292,0:04:00.426 y básicamente aprenden 0:04:00.426,0:04:03.366 que todas las sonrisas genuinas[br]tienen características comunes 0:04:03.366,0:04:06.907 mientras que las sonrisas socarronas[br]tienen otras sensiblemente diferentes. 0:04:06.908,0:04:10.160 Y la próxima vez que vean[br]un nuevo rostro, sabrán 0:04:10.161,0:04:13.603 que este rostro tiene las mismas[br]características de una sonrisa genuina, 0:04:13.604,0:04:16.980 y dirán: "Ajá, la reconozco.[br]Esta es la expresión de una sonrisa". 0:04:18.380,0:04:21.459 Y la mejor manera de demostrar[br]cómo funciona esta tecnología 0:04:21.459,0:04:23.316 es con una demo en vivo, 0:04:23.317,0:04:27.229 para esto necesito un voluntario,[br]preferentemente alguien con un rostro. 0:04:27.230,0:04:29.563 (Risas) 0:04:29.564,0:04:32.335 Chloe será nuestra voluntaria de hoy. 0:04:33.334,0:04:37.789 En los últimos 5 años, pasamos de ser[br]un proyecto de investigación en el MIT 0:04:37.790,0:04:38.938 a ser una empresa, 0:04:38.939,0:04:42.130 donde mi equipo ha trabajado[br]arduamente en esta tecnología, 0:04:42.131,0:04:44.539 para que funcione fuera del laboratorio. 0:04:44.540,0:04:47.919 Y la hemos compactado tanto como[br]para que el lector de las emociones 0:04:47.920,0:04:50.980 funcione en un dispositivo móvil[br]con una cámara, como este iPad. 0:04:50.981,0:04:52.918 Así que probémosla. 0:04:54.756,0:04:58.679 Como pueden ver, el algoritmo[br]detectó el rostro de Chloe, 0:04:58.680,0:05:00.371 es este cuadro delimitador blanco, 0:05:00.372,0:05:03.282 que detecta los contornos principales[br]de sus rasgos faciales, 0:05:03.283,0:05:05.798 sus cejas, sus ojos, su boca y nariz. 0:05:05.799,0:05:08.785 La pregunta es:[br]¿puede reconocer su expresión? 0:05:08.786,0:05:10.457 Vamos a probar la máquina. 0:05:10.459,0:05:14.626 Ante todo, pon cara [br]de póquer. Sí, genial. (Risas) 0:05:14.643,0:05:17.885 Y a medida que sonríe --esta es[br]una sonrisa genuina, es genial-- 0:05:17.886,0:05:19.755 pueden ver como aumenta la barra verde. 0:05:19.756,0:05:20.977 Esa fue una gran sonrisa. 0:05:20.978,0:05:24.510 ¿Puedes intentar una sonrisa sutil[br]para ver si la computadora la reconoce? 0:05:24.511,0:05:26.351 También reconoce sonrisas sutiles. 0:05:26.352,0:05:28.646 Hemos trabajado arduamente[br]para que esto suceda. 0:05:28.647,0:05:31.438 Luego levanta una ceja,[br]que indica sorpresa. 0:05:31.439,0:05:35.666 Frunce el ceño,[br]que indica la confusión. 0:05:35.667,0:05:39.667 Enfurruñate. Sí, perfecto. 0:05:39.695,0:05:43.187 Estas son diferentes unidades[br]de acción. Hay muchas más. 0:05:43.188,0:05:45.219 Esta es solo una demo superficial. 0:05:45.220,0:05:48.367 Llamamos a cada lectura[br]un dato emocional, 0:05:48.368,0:05:51.646 que luego pueden actuar juntos[br]para crear distintas emociones. 0:05:51.647,0:05:55.399 A la derecha de la demo,[br]parece que estás feliz. 0:05:55.400,0:05:57.443 Eso es alegría. Se desata la alegría. 0:05:57.444,0:05:59.371 Ahora pon cara de disgusto. 0:05:59.375,0:06:03.642 Trata de recordar qué sentiste[br]cuando Zayn dejó One Direction. 0:06:03.643,0:06:05.152 (Risas) 0:06:05.153,0:06:09.495 Sí, arruga la nariz. Genial. 0:06:09.501,0:06:13.225 La valencia es bastante negativa,[br]por lo que debe haber sido una gran fan. 0:06:13.226,0:06:16.193 La valencia indica cuán positiva[br]o negativa es una experiencia, 0:06:16.193,0:06:18.711 y la vinculación indica lo[br]expresiva que es también. 0:06:18.712,0:06:22.335 Imaginen que Chloe tiene acceso a este[br]contenido emocional en tiempo real, 0:06:22.336,0:06:24.934 y que puede compartir sus[br]emociones con quien quiere. 0:06:24.935,0:06:26.497 Gracias. 0:06:26.498,0:06:28.169 (Aplausos) 0:06:33.749,0:06:39.018 Hasta ahora contamos con 12 000[br]millones de estos indicadores emocionales. 0:06:39.019,0:06:41.628 Es la base de datos de emociones[br]más grande del mundo. 0:06:41.629,0:06:44.835 La hemos recopilado a partir de[br]2,9 millones de rostros en videos, 0:06:44.842,0:06:47.953 de personas que accedieron a compartir[br]sus emociones con nosotros, 0:06:47.953,0:06:50.397 de 75 países del mundo. 0:06:50.398,0:06:52.113 Crece cada día. 0:06:52.603,0:06:54.669 Me resulta impactante 0:06:54.670,0:06:57.864 que ahora podamos cuantificar algo[br]tan personal como las emociones, 0:06:57.865,0:07:00.099 y poder hacerlo a esta escala. 0:07:00.100,0:07:02.277 ¿Qué hemos aprendido hasta la fecha? 0:07:03.057,0:07:05.387 Hay diferencias por género. 0:07:05.388,0:07:08.543 Nuestros datos confirman algo[br]que Uds. ya sospechaban. 0:07:08.544,0:07:10.890 Las mujeres son más[br]expresivas que los hombres. 0:07:10.891,0:07:13.573 No solo sonríen más,[br]sus sonrisas duran más, 0:07:13.574,0:07:16.477 y ahora podemos cuantificar[br]cómo es que hombres y mujeres 0:07:16.478,0:07:18.614 responden de maneras tan diferentes. 0:07:18.626,0:07:20.903 Veamos culturalmente: en EE.UU., 0:07:20.904,0:07:24.108 las mujeres son un 40 %[br]más expresivas que los hombres, 0:07:24.125,0:07:27.959 pero curiosamente, no vemos diferencia[br]entre hombres y mujeres en el R.U. 0:07:27.960,0:07:30.259 (Risas) 0:07:31.296,0:07:35.322 Por edad: las personas de 50 años o más 0:07:35.323,0:07:38.759 son un 25 % más emotivos[br]que los más jóvenes. 0:07:39.918,0:07:43.752 Las mujeres de veintipico sonríen mucho[br]más que los hombres de la misma edad, 0:07:43.753,0:07:47.589 quizá es una necesidad para las citas. 0:07:47.590,0:07:50.206 Pero quizá lo que más[br]nos sorprende de estos datos 0:07:50.207,0:07:53.409 es que solemos ser[br]expresivos todo el tiempo, 0:07:53.410,0:07:56.752 incluso cuando estamos sentados[br]solos frente a nuestros dispositivos 0:07:56.753,0:07:59.487 y no solo cuando miramos[br]videos de gatos en Facebook. 0:08:00.209,0:08:03.918 Somos expresivos cuando mandamos emails,[br]mensajes, cuando compramos en línea, 0:08:03.919,0:08:05.526 o incluso pagando impuestos. 0:08:05.527,0:08:07.918 ¿Para qué se usan estos datos hoy? 0:08:07.919,0:08:10.666 Para entender cómo nos[br]relacionamos con los medios, 0:08:10.667,0:08:13.376 para entender la viralidad[br]y el comportamiento del voto; 0:08:13.396,0:08:16.785 y también para dar poder[br]dotar de emoción a la tecnología, 0:08:16.786,0:08:20.527 y quiero compartir algunos ejemplos[br]particularmente especiales para mi. 0:08:21.197,0:08:23.904 Las gafas portátiles con lector[br]emotivo pueden ayudar 0:08:23.905,0:08:27.492 a las personas con discapacidad visual[br]a leer los rostros de los demás, 0:08:27.493,0:08:31.679 y a las personas del espectro autista[br]a interpretar pistas emocionales 0:08:31.680,0:08:34.037 algo que les cuesta mucho. 0:08:35.918,0:08:38.785 En educación, imaginen[br]si sus apps educativas 0:08:38.787,0:08:41.586 detectaran que están confundidos[br]y bajaran la velocidad, 0:08:41.587,0:08:43.442 o que están aburridos, y aceleraran, 0:08:43.443,0:08:46.413 como haría un buen profesor en el aula. 0:08:47.043,0:08:49.643 Y si una pulsera leyera su estado anímico, 0:08:49.644,0:08:52.333 o el auto detectara que están cansados, 0:08:52.334,0:08:55.252 o quizá si el frigorífico[br]supiera que están estresados, 0:08:55.292,0:09:00.950 y se autobloqueara para[br]evitar atracones. (Risas) 0:09:00.951,0:09:03.667 Me gustaría eso, sí. 0:09:03.668,0:09:05.594 ¿Y si, cuando estuve en Cambridge, 0:09:05.595,0:09:08.627 hubiera tenido acceso en tiempo[br]real a mi contenido emocional 0:09:08.628,0:09:12.216 y hubiera podido compartirlo con mi[br]familia en casa de manera muy natural, 0:09:12.217,0:09:15.407 como si estuviéramos en[br]la misma habitación juntos? 0:09:15.408,0:09:18.259 Creo que dentro de 5 años, 0:09:18.260,0:09:21.076 todos los dispositivos tendrán[br]un chip lector de emociones 0:09:21.077,0:09:24.950 y no recordaremos cómo era no poder[br]fruncir el ceño a nuestro dispositivo 0:09:24.951,0:09:29.079 y que nuestro dispositivo dijera:[br]"Mmm, no te gusta, ¿no?" 0:09:29.080,0:09:32.960 Nuestro desafío más grande es que hay[br]tantas aplicaciones para esta tecnología, 0:09:32.961,0:09:36.323 que mi equipo y yo nos dimos cuenta[br]de que no podemos con todo solos, 0:09:36.324,0:09:38.249 por eso liberamos esta tecnología 0:09:38.250,0:09:41.473 para que otros desarrolladores[br]puedan desarrollarla y ser creativos. 0:09:41.474,0:09:45.559 Reconocemos que hay riesgos potenciales 0:09:45.560,0:09:47.626 y potencial para el abuso, 0:09:47.627,0:09:50.575 pero en mi opinión, habiendo pasado[br]muchos años haciendo esto, 0:09:50.576,0:09:53.377 creo que los beneficios para la humanidad 0:09:53.378,0:09:55.892 de contar con tecnología[br]emocionalmente inteligente 0:09:55.893,0:09:59.398 superan con creces las[br]desventajas por uso indebido. 0:09:59.399,0:10:01.929 Y los invito a todos[br]a tomar parte en el debate. 0:10:01.930,0:10:04.483 Cuantas más personas[br]conozcan esta tecnología, 0:10:04.484,0:10:07.661 más podemos decir[br]sobre cómo se usa. 0:10:09.081,0:10:13.654 Conforme nuestras vidas[br]se vuelven cada vez más digitales, 0:10:13.655,0:10:17.152 estamos librando una batalla perdida[br]tratando de evitar los dispositivos 0:10:17.153,0:10:19.382 para recuperar nuestras emociones. 0:10:20.622,0:10:24.535 Por eso yo propongo, en cambio,[br]incorporar las emociones a la tecnología 0:10:24.536,0:10:27.034 y hacer que nuestras tecnologías[br]sean más receptivas. 0:10:27.035,0:10:29.434 Quiero que esos dispositivos[br]que nos han separado 0:10:29.435,0:10:31.896 nos vuelvan a unir. 0:10:31.897,0:10:36.484 Y humanizando la tecnología,[br]tenemos esta oportunidad excelente 0:10:36.485,0:10:39.781 de reinventar la manera de[br]conectarnos con las máquinas, 0:10:39.782,0:10:44.262 y por lo tanto, la manera de como[br]nosotros, los seres humanos, 0:10:44.263,0:10:46.166 conectamos unos con otros. 0:10:46.167,0:10:47.506 Gracias. 0:10:47.507,0:10:49.190 (Aplausos)