Return to Video

Un lector emocional de tu expresión facial

  • 0:01 - 0:05
    Las emociones influyen en
    cada aspecto de nuestras vidas,
  • 0:05 - 0:08
    de la salud y el aprendizaje, a la forma
    de hacer negocios y tomar decisiones,
  • 0:08 - 0:10
    grandes y pequeñas.
  • 0:11 - 0:14
    Las emociones influyen en la forma
    en la cual interaccionamos entre nosotros.
  • 0:15 - 0:19
    Hemos evolucionado para vivir
    en un mundo como este,
  • 0:19 - 0:23
    pero en cambio, vivimos la vida
    cada vez más de esta manera
  • 0:23 - 0:27
    --este es el mensaje de texto
    que recibí de mi hija anoche--
  • 0:27 - 0:29
    en un mundo desprovisto de emoción.
  • 0:29 - 0:31
    Mi misión es cambiar esto.
  • 0:31 - 0:35
    Quiero devolver las emociones
    a nuestra experiencia digital.
  • 0:36 - 0:39
    Empecé con esto hace 15 años.
  • 0:39 - 0:41
    Era ingeniera informática en Egipto
  • 0:41 - 0:46
    y fui aceptada en un programa de doctorado
    en la Universidad de Cambridge.
  • 0:46 - 0:48
    E hice algo bastante inusual
  • 0:48 - 0:52
    para una joven recién casada,
    egipcia y musulmana:
  • 0:54 - 0:57
    con el apoyo de mi marido,
    que debía quedarse en Egipto,
  • 0:57 - 1:00
    hice las maletas y me mudé a Inglaterra.
  • 1:00 - 1:03
    En Cambridge, a miles
    de kilómetros de casa,
  • 1:03 - 1:06
    me di cuenta de que estaba
    pasando más horas con mi laptop
  • 1:06 - 1:08
    que con otros seres humanos.
  • 1:08 - 1:13
    Pero a pesar de esta intimidad, mi laptop
    no tenía ni idea de mi estado de ánimo.
  • 1:13 - 1:17
    No tenía idea de si yo era feliz,
  • 1:17 - 1:20
    si tenía un mal día, o estaba
    estresada o confundida,
  • 1:20 - 1:22
    y eso era frustrante.
  • 1:24 - 1:29
    Aun peor, cuando me comunicaba
    en línea con mi familia en casa,
  • 1:29 - 1:33
    sentía que todas mis emociones
    desaparecían en el ciberespacio.
  • 1:33 - 1:38
    Sentía nostalgia, estaba sola,
    y algunos días lloraba,
  • 1:38 - 1:43
    pero todo lo que tenía para
    comunicar mis emociones era esto.
  • 1:43 - 1:45
    (Risas)
  • 1:45 - 1:50
    Hoy la tecnología es
    inteligente pero no emocional
  • 1:50 - 1:53
    mucha inteligencia cognitiva,
    pero nada de inteligencia emocional.
  • 1:53 - 1:55
    Eso me hizo pensar,
  • 1:55 - 1:59
    ¿y si la tecnología pudiera
    interpretar nuestras emociones?
  • 1:59 - 2:03
    ¿Y si nuestros dispositivos pudieran
    detectar y reaccionar en consecuencia,
  • 2:03 - 2:06
    como lo harían los amigos
    con inteligencia emocional?
  • 2:07 - 2:10
    Esas preguntas me guiaron
    a mí y a mi equipo
  • 2:10 - 2:15
    a crear tecnologías capaces
    de leer emociones y responder,
  • 2:15 - 2:18
    y nuestro punto de partida
    fue el rostro humano.
  • 2:19 - 2:22
    Nuestro rostro es uno de
    los canales más poderosos
  • 2:22 - 2:26
    que usamos para comunicar
    estados sociales y emocionales,
  • 2:26 - 2:29
    todo, del disfrute y la sorpresa,
  • 2:29 - 2:33
    a la empatía y la curiosidad.
  • 2:33 - 2:37
    En la ciencia de las emociones, cada
    movimiento de cada músculo facial,
  • 2:37 - 2:38
    es una unidad de acción.
  • 2:38 - 2:41
    Por ejemplo, la unidad de acción 12,
  • 2:41 - 2:43
    no es una superproducción de Hollywood,
  • 2:43 - 2:46
    es el tirón de la comisura labial,
    componente principal de una sonrisa.
  • 2:46 - 2:49
    Intenten todos. Sonriamos.
  • 2:49 - 2:51
    Otro ejemplo es la unidad de acción 4,
  • 2:51 - 2:54
    las líneas de expresión en el entrecejo
    cuando juntamos las cejas
  • 2:54 - 2:56
    y se forman estos pliegues y arrugas.
  • 2:56 - 3:01
    No nos gustan, pero es una
    fuerte señal de una emoción negativa.
  • 3:01 - 3:03
    Hay unas 45 unidades de acción,
  • 3:03 - 3:06
    y combinadas expresan
    cientos de emociones,
  • 3:06 - 3:10
    Enseñarle a una computadora a leer
    estas emociones faciales es difícil,
  • 3:10 - 3:13
    porque estas unidades de acción
    pueden ser rápidas y sutiles,
  • 3:13 - 3:16
    y se combinan de muchas formas.
  • 3:16 - 3:20
    Tomemos por ejemplo
    la sonrisa genuina y la socarrona.
  • 3:20 - 3:23
    Se parecen pero expresan cosas diferentes.
  • 3:23 - 3:25
    (Risas)
  • 3:25 - 3:28
    La sonrisa genuina es positiva,
  • 3:28 - 3:30
    la sonrisa socarrona a veces es negativa.
  • 3:30 - 3:33
    A veces una mueca puede hacerte célebre.
  • 3:33 - 3:36
    Pero en serio, es importante
    para una computadora poder
  • 3:36 - 3:39
    notar la diferencia entre
    las dos expresiones.
  • 3:39 - 3:41
    ¿Cómo hacemos esto?
  • 3:41 - 3:43
    Introducimos en el programa de computación
  • 3:43 - 3:47
    decenas de miles de ejemplos
    de personas que sonríen
  • 3:47 - 3:50
    de distintas etnias, edades, géneros,
  • 3:50 - 3:52
    y hacemos lo mismo con
    las sonrisas socarronas.
  • 3:52 - 3:55
    Luego, los algoritmos
    en aprendizaje automático
  • 3:55 - 3:59
    buscan estas lineas, pliegues
    y cambios musculares faciales
  • 3:59 - 4:00
    y básicamente aprenden
  • 4:00 - 4:03
    que todas las sonrisas genuinas
    tienen características comunes
  • 4:03 - 4:07
    mientras que las sonrisas socarronas
    tienen otras sensiblemente diferentes.
  • 4:07 - 4:10
    Y la próxima vez que vean
    un nuevo rostro, sabrán
  • 4:10 - 4:14
    que este rostro tiene las mismas
    características de una sonrisa genuina,
  • 4:14 - 4:17
    y dirán: "Ajá, la reconozco.
    Esta es la expresión de una sonrisa".
  • 4:18 - 4:21
    Y la mejor manera de demostrar
    cómo funciona esta tecnología
  • 4:21 - 4:23
    es con una demo en vivo,
  • 4:23 - 4:27
    para esto necesito un voluntario,
    preferentemente alguien con un rostro.
  • 4:27 - 4:30
    (Risas)
  • 4:30 - 4:32
    Chloe será nuestra voluntaria de hoy.
  • 4:33 - 4:38
    En los últimos 5 años, pasamos de ser
    un proyecto de investigación en el MIT
  • 4:38 - 4:39
    a ser una empresa,
  • 4:39 - 4:42
    donde mi equipo ha trabajado
    arduamente en esta tecnología,
  • 4:42 - 4:45
    para que funcione fuera del laboratorio.
  • 4:45 - 4:48
    Y la hemos compactado tanto como
    para que el lector de las emociones
  • 4:48 - 4:51
    funcione en un dispositivo móvil
    con una cámara, como este iPad.
  • 4:51 - 4:53
    Así que probémosla.
  • 4:55 - 4:59
    Como pueden ver, el algoritmo
    detectó el rostro de Chloe,
  • 4:59 - 5:00
    es este cuadro delimitador blanco,
  • 5:00 - 5:03
    que detecta los contornos principales
    de sus rasgos faciales,
  • 5:03 - 5:06
    sus cejas, sus ojos, su boca y nariz.
  • 5:06 - 5:09
    La pregunta es:
    ¿puede reconocer su expresión?
  • 5:09 - 5:10
    Vamos a probar la máquina.
  • 5:10 - 5:15
    Ante todo, pon cara
    de póquer. Sí, genial. (Risas)
  • 5:15 - 5:18
    Y a medida que sonríe --esta es
    una sonrisa genuina, es genial--
  • 5:18 - 5:20
    pueden ver como aumenta la barra verde.
  • 5:20 - 5:21
    Esa fue una gran sonrisa.
  • 5:21 - 5:25
    ¿Puedes intentar una sonrisa sutil
    para ver si la computadora la reconoce?
  • 5:25 - 5:26
    También reconoce sonrisas sutiles.
  • 5:26 - 5:29
    Hemos trabajado arduamente
    para que esto suceda.
  • 5:29 - 5:31
    Luego levanta una ceja,
    que indica sorpresa.
  • 5:31 - 5:36
    Frunce el ceño,
    que indica la confusión.
  • 5:36 - 5:40
    Enfurruñate. Sí, perfecto.
  • 5:40 - 5:43
    Estas son diferentes unidades
    de acción. Hay muchas más.
  • 5:43 - 5:45
    Esta es solo una demo superficial.
  • 5:45 - 5:48
    Llamamos a cada lectura
    un dato emocional,
  • 5:48 - 5:52
    que luego pueden actuar juntos
    para crear distintas emociones.
  • 5:52 - 5:55
    A la derecha de la demo,
    parece que estás feliz.
  • 5:55 - 5:57
    Eso es alegría. Se desata la alegría.
  • 5:57 - 5:59
    Ahora pon cara de disgusto.
  • 5:59 - 6:04
    Trata de recordar qué sentiste
    cuando Zayn dejó One Direction.
  • 6:04 - 6:05
    (Risas)
  • 6:05 - 6:09
    Sí, arruga la nariz. Genial.
  • 6:10 - 6:13
    La valencia es bastante negativa,
    por lo que debe haber sido una gran fan.
  • 6:13 - 6:16
    La valencia indica cuán positiva
    o negativa es una experiencia,
  • 6:16 - 6:19
    y la vinculación indica lo
    expresiva que es también.
  • 6:19 - 6:22
    Imaginen que Chloe tiene acceso a este
    contenido emocional en tiempo real,
  • 6:22 - 6:25
    y que puede compartir sus
    emociones con quien quiere.
  • 6:25 - 6:26
    Gracias.
  • 6:26 - 6:28
    (Aplausos)
  • 6:34 - 6:39
    Hasta ahora contamos con 12 000
    millones de estos indicadores emocionales.
  • 6:39 - 6:42
    Es la base de datos de emociones
    más grande del mundo.
  • 6:42 - 6:45
    La hemos recopilado a partir de
    2,9 millones de rostros en videos,
  • 6:45 - 6:48
    de personas que accedieron a compartir
    sus emociones con nosotros,
  • 6:48 - 6:50
    de 75 países del mundo.
  • 6:50 - 6:52
    Crece cada día.
  • 6:53 - 6:55
    Me resulta impactante
  • 6:55 - 6:58
    que ahora podamos cuantificar algo
    tan personal como las emociones,
  • 6:58 - 7:00
    y poder hacerlo a esta escala.
  • 7:00 - 7:02
    ¿Qué hemos aprendido hasta la fecha?
  • 7:03 - 7:05
    Hay diferencias por género.
  • 7:05 - 7:09
    Nuestros datos confirman algo
    que Uds. ya sospechaban.
  • 7:09 - 7:11
    Las mujeres son más
    expresivas que los hombres.
  • 7:11 - 7:14
    No solo sonríen más,
    sus sonrisas duran más,
  • 7:14 - 7:16
    y ahora podemos cuantificar
    cómo es que hombres y mujeres
  • 7:16 - 7:19
    responden de maneras tan diferentes.
  • 7:19 - 7:21
    Veamos culturalmente: en EE.UU.,
  • 7:21 - 7:24
    las mujeres son un 40 %
    más expresivas que los hombres,
  • 7:24 - 7:28
    pero curiosamente, no vemos diferencia
    entre hombres y mujeres en el R.U.
  • 7:28 - 7:30
    (Risas)
  • 7:31 - 7:35
    Por edad: las personas de 50 años o más
  • 7:35 - 7:39
    son un 25 % más emotivos
    que los más jóvenes.
  • 7:40 - 7:44
    Las mujeres de veintipico sonríen mucho
    más que los hombres de la misma edad,
  • 7:44 - 7:48
    quizá es una necesidad para las citas.
  • 7:48 - 7:50
    Pero quizá lo que más
    nos sorprende de estos datos
  • 7:50 - 7:53
    es que solemos ser
    expresivos todo el tiempo,
  • 7:53 - 7:57
    incluso cuando estamos sentados
    solos frente a nuestros dispositivos
  • 7:57 - 7:59
    y no solo cuando miramos
    videos de gatos en Facebook.
  • 8:00 - 8:04
    Somos expresivos cuando mandamos emails,
    mensajes, cuando compramos en línea,
  • 8:04 - 8:06
    o incluso pagando impuestos.
  • 8:06 - 8:08
    ¿Para qué se usan estos datos hoy?
  • 8:08 - 8:11
    Para entender cómo nos
    relacionamos con los medios,
  • 8:11 - 8:13
    para entender la viralidad
    y el comportamiento del voto;
  • 8:13 - 8:17
    y también para dar poder
    dotar de emoción a la tecnología,
  • 8:17 - 8:21
    y quiero compartir algunos ejemplos
    particularmente especiales para mi.
  • 8:21 - 8:24
    Las gafas portátiles con lector
    emotivo pueden ayudar
  • 8:24 - 8:27
    a las personas con discapacidad visual
    a leer los rostros de los demás,
  • 8:27 - 8:32
    y a las personas del espectro autista
    a interpretar pistas emocionales
  • 8:32 - 8:34
    algo que les cuesta mucho.
  • 8:36 - 8:39
    En educación, imaginen
    si sus apps educativas
  • 8:39 - 8:42
    detectaran que están confundidos
    y bajaran la velocidad,
  • 8:42 - 8:43
    o que están aburridos, y aceleraran,
  • 8:43 - 8:46
    como haría un buen profesor en el aula.
  • 8:47 - 8:50
    Y si una pulsera leyera su estado anímico,
  • 8:50 - 8:52
    o el auto detectara que están cansados,
  • 8:52 - 8:55
    o quizá si el frigorífico
    supiera que están estresados,
  • 8:55 - 9:01
    y se autobloqueara para
    evitar atracones. (Risas)
  • 9:01 - 9:04
    Me gustaría eso, sí.
  • 9:04 - 9:06
    ¿Y si, cuando estuve en Cambridge,
  • 9:06 - 9:09
    hubiera tenido acceso en tiempo
    real a mi contenido emocional
  • 9:09 - 9:12
    y hubiera podido compartirlo con mi
    familia en casa de manera muy natural,
  • 9:12 - 9:15
    como si estuviéramos en
    la misma habitación juntos?
  • 9:15 - 9:18
    Creo que dentro de 5 años,
  • 9:18 - 9:21
    todos los dispositivos tendrán
    un chip lector de emociones
  • 9:21 - 9:25
    y no recordaremos cómo era no poder
    fruncir el ceño a nuestro dispositivo
  • 9:25 - 9:29
    y que nuestro dispositivo dijera:
    "Mmm, no te gusta, ¿no?"
  • 9:29 - 9:33
    Nuestro desafío más grande es que hay
    tantas aplicaciones para esta tecnología,
  • 9:33 - 9:36
    que mi equipo y yo nos dimos cuenta
    de que no podemos con todo solos,
  • 9:36 - 9:38
    por eso liberamos esta tecnología
  • 9:38 - 9:41
    para que otros desarrolladores
    puedan desarrollarla y ser creativos.
  • 9:41 - 9:46
    Reconocemos que hay riesgos potenciales
  • 9:46 - 9:48
    y potencial para el abuso,
  • 9:48 - 9:51
    pero en mi opinión, habiendo pasado
    muchos años haciendo esto,
  • 9:51 - 9:53
    creo que los beneficios para la humanidad
  • 9:53 - 9:56
    de contar con tecnología
    emocionalmente inteligente
  • 9:56 - 9:59
    superan con creces las
    desventajas por uso indebido.
  • 9:59 - 10:02
    Y los invito a todos
    a tomar parte en el debate.
  • 10:02 - 10:04
    Cuantas más personas
    conozcan esta tecnología,
  • 10:04 - 10:08
    más podemos decir
    sobre cómo se usa.
  • 10:09 - 10:14
    Conforme nuestras vidas
    se vuelven cada vez más digitales,
  • 10:14 - 10:17
    estamos librando una batalla perdida
    tratando de evitar los dispositivos
  • 10:17 - 10:19
    para recuperar nuestras emociones.
  • 10:21 - 10:25
    Por eso yo propongo, en cambio,
    incorporar las emociones a la tecnología
  • 10:25 - 10:27
    y hacer que nuestras tecnologías
    sean más receptivas.
  • 10:27 - 10:29
    Quiero que esos dispositivos
    que nos han separado
  • 10:29 - 10:32
    nos vuelvan a unir.
  • 10:32 - 10:36
    Y humanizando la tecnología,
    tenemos esta oportunidad excelente
  • 10:36 - 10:40
    de reinventar la manera de
    conectarnos con las máquinas,
  • 10:40 - 10:44
    y por lo tanto, la manera de como
    nosotros, los seres humanos,
  • 10:44 - 10:46
    conectamos unos con otros.
  • 10:46 - 10:48
    Gracias.
  • 10:48 - 10:49
    (Aplausos)
Title:
Un lector emocional de tu expresión facial
Speaker:
Rana el Kaliouby
Description:

Las emociones influyen en cada aspecto de nuestras vidas: en la forma de aprender, de comunicarnos y tomar decisiones. Sin embargo, no están presentes en nuestra vida digital; los dispositivos y las aplicaciones con los que interactuamos no tienen manera de saber nuestro estado de ánimo. La científica Rana el Kaliouby pretende cambiar eso y nos presenta una nueva y poderosa tecnología que lee expresiones faciales para interpretar las emociones correspondientes. Afirma que este "lector afectivo" tiene profundas implicaciones que pueden cambiar no solo la forma en la que interactuamos con las máquinas sino también en la forma de interactuar entre entre nosotros.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Spanish subtitles

Revisions