Return to Video

Cette application sait ce que vous ressentez - d'après l'expression de votre visage

  • 0:01 - 0:04
    Nos émotions influencent
    tous les aspects de notre vie,
  • 0:04 - 0:05
    de notre santé et
    notre façon d'apprendre
  • 0:05 - 0:07
    à la manière dont
    nous faisons des affaires,
  • 0:07 - 0:10
    et prenons des décisions,
    petites ou grandes.
  • 0:11 - 0:14
    Elles influencent aussi la manière
    dont nous interagissons ensemble.
  • 0:15 - 0:19
    Nous avons évolué pour vivre
    dans un monde qui ressemble à ça,
  • 0:19 - 0:24
    mais nous vivons nos vies de plus
    en plus plutôt comme ceci --
  • 0:24 - 0:27
    c'est le message que ma fille
    m'a envoyé hier soir --
  • 0:27 - 0:29
    dans un monde dépourvu d'émotion.
  • 0:29 - 0:31
    Ma mission est de changer tout ça.
  • 0:31 - 0:35
    Je veux ramener l'expression de nos
    émotions dans nos expériences numériques.
  • 0:36 - 0:39
    J'ai commencé de travailler
    dans cette direction il y a 15 ans.
  • 0:39 - 0:41
    J'étais informaticienne en Égypte,
  • 0:41 - 0:46
    et venais juste d'être acceptée dans
    un programme de thèse à Cambridge.
  • 0:46 - 0:48
    Alors j'ai fait quelque chose
    d'assez inhabituel
  • 0:48 - 0:52
    pour une jeune musulmane égyptienne
    et tout juste mariée :
  • 0:54 - 0:57
    avec le soutien de mon mari
    qui devait rester en Égypte,
  • 0:57 - 1:00
    j'ai fait mes bagages et suis partie
    pour l'Angleterre.
  • 1:00 - 1:03
    A Cambridge, à des milliers
    de kilomètres de chez moi,
  • 1:03 - 1:06
    j'ai réalisé que je passais
    plus d'heures sur mon ordinateur
  • 1:06 - 1:08
    qu'avec n'importe quel humain.
  • 1:08 - 1:13
    Pourtant, malgré cette intimité,
    il n'avait absolument aucune idée
  • 1:13 - 1:17
    de ce que je ressentais.
    Il ne savait pas si j'étais heureuse,
  • 1:17 - 1:20
    si j'avais eu une mauvaise journée,
    si j'étais stressée
  • 1:20 - 1:22
    ou confuse et ça devenait
    vraiment frustrant.
  • 1:24 - 1:26
    Le pire, c'était que lorsque
    je communiquais en ligne
  • 1:26 - 1:29
    avec ma famille à la maison,
  • 1:29 - 1:33
    j'avais l'impression que toutes
    mes émotions disparaissaient
  • 1:33 - 1:38
    dans cet espace virtuel. J'avais le mal
    du pays, je me sentais seule
  • 1:38 - 1:41
    et me mettais même
    à pleurer certains jours.
  • 1:41 - 1:45
    Mais tout ce que j'avais pour partager
    ces émotions, c'était ça. (Rires)
  • 1:45 - 1:50
    La technologie moderne a beaucoup
    de Q.I. mais aucun Q.E.: c'est-à-dire
  • 1:50 - 1:53
    beaucoup d'intelligence
    cognitive mais pas émotionnelle.
  • 1:53 - 1:55
    Je me suis alors demandée
  • 1:55 - 1:59
    ce que ça changerait si notre technologie
    pouvait percevoir nos émotions ?
  • 1:59 - 2:03
    Que se passerait-il si nos appareils
    pouvaient les percevoir et réagir
  • 2:03 - 2:06
    en fonction, exactement
    comme un ami le ferait ?
  • 2:07 - 2:10
    Ces questions nous ont menés,
    mon équipe et moi
  • 2:10 - 2:15
    à développer des technologies qui peuvent
    lire et réagir à nos émotions,
  • 2:15 - 2:18
    à partir du visage humain.
  • 2:19 - 2:22
    Il se trouve que le visage est
    un des moyens d'expression
  • 2:22 - 2:26
    les plus puissants que nous utilisons
    pour communiquer notre état social
  • 2:26 - 2:29
    ou émotionnel,
    tout de la joie, la surprise,
  • 2:29 - 2:33
    la compassion à la curiosité.
  • 2:33 - 2:38
    En science des émotions, chacun des
    mouvements du visage est appelé action.
  • 2:38 - 2:41
    Par exemple, action numéro 12
  • 2:41 - 2:43
    n'est pas le nom
    du dernier succès hollywoodien,
  • 2:43 - 2:46
    mais l'action de tirer le coin des lèvres,
    autrement dit de sourire.
  • 2:46 - 2:49
    Essayez ! Faisons tous
    nos plus beaux sourires !
  • 2:49 - 2:52
    Autre exemple, action numéro 4,
    le froncement de sourcils.
  • 2:52 - 2:54
    C'est lorsque vous plissez les sourcils
  • 2:54 - 2:56
    ensemble et créez
    toutes ces rides et textures.
  • 2:56 - 3:00
    On ne les aime pas mais c'est un très bon
    indicateur d'émotion négative.
  • 3:00 - 3:03
    Nous avons environ 45 de ces actions
  • 3:03 - 3:06
    que nous combinons pour exprimer
    des centaines d'émotions.
  • 3:06 - 3:10
    Enseigner à un ordinateur comment
    reconnaître ces expressions faciales
  • 3:10 - 3:13
    est difficile parce qu'elles peuvent être
    rapides, sont subtiles,
  • 3:13 - 3:16
    et peuvent former beaucoup
    de combinaisons différentes.
  • 3:16 - 3:20
    Prenez par exemple,
    un sourire normal ou un sourire narquois.
  • 3:20 - 3:23
    Ils sont en soi assez similaires, mais
    ont une signification bien différente.
  • 3:23 - 3:25
    (Rires)
  • 3:25 - 3:27
    Le sourire normal est positif,
  • 3:27 - 3:29
    le sourire narquois souvent négatif.
  • 3:29 - 3:33
    Un sourire narquois peut même
    vous rendre célèbre parfois !
  • 3:33 - 3:36
    Mais plus sérieusement,
    il est très important
  • 3:36 - 3:39
    que l'ordinateur puisse différencier
    ces deux expressions.
  • 3:39 - 3:41
    Alors comment y arrive-t-on ?
  • 3:41 - 3:42
    On donne à nos algorithmes
  • 3:42 - 3:47
    des dizaines de milliers d'exemples
    spécifiques de personnes
  • 3:47 - 3:50
    en train de sourire,
    d'origines, âge, sexe différents
  • 3:50 - 3:52
    et on fait la même chose pour
    des sourires narquois.
  • 3:52 - 3:54
    Ensuite par un processus
    d'apprentissage,
  • 3:54 - 3:57
    l'algorithme assimile
    toutes ces textures, ces rides
  • 3:57 - 3:59
    et mouvements de notre visage,
  • 3:59 - 4:03
    apprend les caractéristiques
    générales d'un sourire,
  • 4:03 - 4:06
    et en associe de plus spécifiques
    aux sourires narquois.
  • 4:06 - 4:08
    Ainsi au prochain visage qu'il voit,
  • 4:08 - 4:10
    l'algorithme peut essentiellement
  • 4:10 - 4:13
    reconnaître les caractéristiques
    d'un sourire et dire :
  • 4:13 - 4:18
    « ha ! je reconnais cette expression,
    c'est un sourire. »
  • 4:18 - 4:21
    Le meilleur moyen d'illustrer
    comment cette technologie fonctionne
  • 4:21 - 4:23
    est une démonstration en direct
  • 4:23 - 4:27
    alors j'aurais besoin d'un volontaire,
    de préférence quelqu'un avec un visage.
  • 4:27 - 4:30
    (Rires)
  • 4:30 - 4:32
    Cloe sera notre volontaire aujourd'hui.
  • 4:33 - 4:38
    Au cours des 5 dernières années,
    notre groupe de recherche au MIT
  • 4:38 - 4:39
    est devenu une entreprise,
  • 4:39 - 4:43
    dans laquelle mon équipe a travaillé dur
    pour que cette technologie marche,
  • 4:43 - 4:45
    dans la vie de tous les jours,
    comme on dit.
  • 4:45 - 4:47
    Nous l'avons aussi optimisée
    pour qu'elle fonctionne
  • 4:47 - 4:51
    sur n'importe quel appareil pourvu
    d'une caméra, comme cet iPad.
  • 4:51 - 4:53
    Mais essayons plutôt.
  • 4:55 - 4:59
    Comme vous le voyez, l'algorithme
    trouve essentiellement le visage de Cloe
  • 4:59 - 5:00
    dans cette zone encadrée blanche,
  • 5:00 - 5:03
    et décèle les mouvements
    des points principaux
  • 5:03 - 5:06
    tels que ses sourcils, ses yeux,
    sa bouche et son nez.
  • 5:06 - 5:09
    La question est alors de savoir
    s'il peut reconnaître ses expressions.
  • 5:09 - 5:10
    Essayons donc de le tester.
  • 5:10 - 5:15
    Tout d'abord, montrez moi un visage
    impassible. Oui, parfait ! (Rires)
  • 5:15 - 5:17
    Et maintenant un sourire franc,
    en voilà un beau, parfait.
  • 5:17 - 5:20
    Vous voyez, l'indicateur vert
    monte quand elle sourit.
  • 5:20 - 5:21
    C'était un beau sourire ça.
  • 5:21 - 5:24
    Pouvez-vous faire
    un sourire plus subtil pour voir ?
  • 5:24 - 5:26
    Oui, le programme
    le reconnaît aussi.
  • 5:26 - 5:28
    On a travaillé dur pour que ça marche.
  • 5:28 - 5:31
    Là, les sourcils relevés déclenchent
    l'indicateur de surprise.
  • 5:31 - 5:36
    Le sillon des sourcils, lui,
    est l'indicateur de confusion.
  • 5:36 - 5:40
    Froncez les sourcils. Oui, parfait.
  • 5:40 - 5:43
    Tout ça vous montre différentes
    actions, il y en a beaucoup d'autres.
  • 5:43 - 5:45
    C'est juste une démonstration épurée.
  • 5:45 - 5:48
    Chaque action reconnue est
    une point de donnée émotionnelle
  • 5:48 - 5:52
    et l'ensemble de ces données
    peut décrire différentes émotions.
  • 5:52 - 5:56
    Sur la droite ici
    regardez comme vous êtes heureuse.
  • 5:56 - 5:57
    L'indicateur de joie se déclenche.
  • 5:57 - 5:59
    Maintenant exprimez le dégoût.
  • 5:59 - 6:03
    Souvenez-vous du départ
    de Zayn de One Direction.
  • 6:03 - 6:04
    (Rires)
  • 6:04 - 6:09
    Voilà, le nez se ride. Super.
  • 6:09 - 6:13
    La capacité est en fait assez négative,
    vous deviez vraiment être fan !
  • 6:13 - 6:16
    Cette jauge montre si l'expérience
    est positive ou négative,
  • 6:16 - 6:19
    la jauge d'engagement montre
    le niveau d'expression.
  • 6:19 - 6:22
    Imaginez que Cloe ait accès direct
    à ce flux d'émotions en temps réel,
  • 6:22 - 6:25
    elle pourrait alors le partager
    avec qui elle voudrait.
  • 6:25 - 6:27
    Merci.
  • 6:27 - 6:32
    (Applaudissements)
  • 6:34 - 6:39
    Jusqu'à présent nous avons accumulé
    12 milliards de ces données émotionnelles.
  • 6:39 - 6:42
    C'est la plus grande base de données
    de ce type au monde,
  • 6:42 - 6:45
    construite à partir de 2,9 millions
    de vidéos de visages de personnes
  • 6:45 - 6:47
    qui acceptent de partager
    leurs émotions avec nous
  • 6:47 - 6:50
    et provenant de 75 pays différents.
  • 6:50 - 6:52
    Et ça continue tous les jours.
  • 6:53 - 6:55
    Ça me fascine totalement que l'on puisse
  • 6:55 - 6:58
    à présent quantifier quelque chose
    d'aussi personnel que nos émotions,
  • 6:58 - 7:00
    et qu'on le fasse à cette échelle.
  • 7:00 - 7:02
    Qu'a-t-on appris de tout ça
    jusqu'à présent ?
  • 7:03 - 7:05
    En ce qui concerne le genre :
  • 7:05 - 7:09
    nos données confirment ce dont
    vous vous doutiez probablement,
  • 7:09 - 7:11
    les femmes sont plus expressives
    que les hommes.
  • 7:11 - 7:14
    Non seulement elles sourient plus,
    mais aussi plus longtemps,
  • 7:14 - 7:16
    et on peut maintenant vraiment
    quantifier ce à quoi
  • 7:16 - 7:19
    les hommes et les femmes
    réagissent différemment.
  • 7:19 - 7:21
    Pour l'influence culturelle :
    aux États-Unis
  • 7:21 - 7:24
    si les femmes sont 40% plus expressives
    que les hommes, curieusement,
  • 7:24 - 7:28
    on ne voit aucune différence
    à ce niveau-là au Royaume Uni.
  • 7:28 - 7:30
    (Rires)
  • 7:31 - 7:35
    Pour l'âge : les personnes
    de 50 ans et plus
  • 7:35 - 7:39
    sont 25% plus émotives que
    les personnes plus jeunes.
  • 7:39 - 7:44
    Les femmes dans leur vingtaine sourient
    beaucoup plus que les hommes du même âge,
  • 7:44 - 7:47
    peut-être par nécessité
    pour faire des rencontres.
  • 7:47 - 7:50
    Mais ce qui nous a surpris le plus
    dans toutes ces données,
  • 7:50 - 7:53
    c'est que nous sommes en fait
    constamment expressifs,
  • 7:53 - 7:56
    mais lorsque nous sommes assis
    tout seuls en face de nos écrans,
  • 7:56 - 8:00
    et pas seulement à regarder
    des vidéos de chats sur Facebook.
  • 8:00 - 8:03
    Nous sommes expressifs
    quand on écrit un mail, un texto,
  • 8:03 - 8:06
    quand on achète en ligne et
    même quand on paie nos impôts.
  • 8:06 - 8:08
    Pour quoi utilise-t-on
    ces données aujourd'hui ?
  • 8:08 - 8:11
    Ça va de comprendre comment
    nous interagissons avec les médias,
  • 8:11 - 8:14
    les phénomènes viraux,
    les dynamiques de vote,
  • 8:14 - 8:17
    à doter nos technologies
    de capacités émotionnelles,
  • 8:17 - 8:21
    et j'aimerais partager avec vous
    quelques exemples qui me tiennent à cœur.
  • 8:21 - 8:24
    Des lunettes à lecture émotionnelle
    peuvent aider les malvoyants
  • 8:24 - 8:27
    à décrypter les expressions
    sur le visage des autres,
  • 8:27 - 8:32
    et peuvent aider les personnes atteintes
    d'autisme à interpréter les émotions,
  • 8:32 - 8:34
    ce qu'elles ont beaucoup de mal à faire.
  • 8:36 - 8:39
    Pour l'éducation, imaginez que
    les applications d'apprentissage
  • 8:39 - 8:42
    perçoivent votre confusion
    et ralentissent,
  • 8:42 - 8:44
    qu'elles perçoivent votre ennui
    et accélèrent
  • 8:44 - 8:47
    tout comme un bon enseignant
    le ferait dans la salle de classe.
  • 8:47 - 8:50
    Imaginez que votre montre
    puisse déceler votre humeur,
  • 8:50 - 8:52
    ou que votre voiture puisse
    percevoir votre fatigue,
  • 8:52 - 8:55
    ou peut-être que votre frigo
    puisse sentir que vous êtes stressé
  • 8:55 - 8:59
    et se verrouiller pour empêcher
    toute frénésie alimentaire. (Rires)
  • 8:59 - 9:04
    J'apprécierais ça, oui.
  • 9:04 - 9:06
    Que se serait-il passé si à Cambridge
  • 9:06 - 9:08
    j'avais eu accès à ces données
    émotionnelles
  • 9:08 - 9:11
    pour les partager tout naturellement
    avec ma famille à la maison
  • 9:11 - 9:15
    comme si nous avions tous été
    dans la même pièce ?
  • 9:15 - 9:19
    Je pense que d'ici cinq ans,
  • 9:19 - 9:21
    tous nos appareils auront
    une puce émotionnelle,
  • 9:21 - 9:23
    et on ne se souviendra même plus
    du temps où,
  • 9:23 - 9:26
    quand on fronçait les sourcils
    devant l'un d'eux,
  • 9:26 - 9:29
    il ne nous retournait pas un,
    « hmm, ça ne t'a pas plu, hein ? »
  • 9:29 - 9:30
    Notre plus grand défit est qu'il existe
  • 9:30 - 9:33
    tellement d'applications
    à cette technologie.
  • 9:33 - 9:34
    Mon équipe et moi nous rendons
    bien compte que
  • 9:34 - 9:36
    nous ne pouvons pas
    tout faire nous-même
  • 9:36 - 9:39
    et avons donc rendu
    cette technologie publique
  • 9:39 - 9:41
    pour que d'autres puissent
    la développer et être créatifs.
  • 9:41 - 9:46
    Nous sommes conscients
    des risques potentiels
  • 9:46 - 9:48
    et des possibilités d'abus,
  • 9:48 - 9:51
    mais personnellement,
    après avoir passé des années à faire ça,
  • 9:51 - 9:54
    je pense que les bénéfices
    que l'humanité peut recevoir
  • 9:54 - 9:56
    d'une technologie
    émotionnellement intelligente
  • 9:56 - 9:59
    dépassent de loin les risques potentiels
    de mauvais usage.
  • 9:59 - 10:02
    Je vous invite tous
    à prendre part à la discussion.
  • 10:02 - 10:04
    Plus de gens seront au courant
    de cette technologie,
  • 10:04 - 10:08
    mieux on pourra en définir
    ensemble les termes d'usage.
  • 10:09 - 10:14
    Alors que de plus en plus de notre vie
    passe au digital, nous nous lançons
  • 10:14 - 10:17
    dans une lutte perdue d'avance pour
    restreindre notre usage d'appareils
  • 10:17 - 10:21
    et reconquérir nos émotions.
    Ce que j'essaie
  • 10:21 - 10:25
    de faire au contraire est d'amener
    nos émotions dans notre technologie
  • 10:25 - 10:27
    et la rendre ainsi plus réactive.
  • 10:27 - 10:30
    Je veux que ces appareils qui
    nous séparaient les uns des autres,
  • 10:30 - 10:32
    finalement nous rapprochent.
  • 10:32 - 10:36
    En rendant notre technologie plus humaine,
    nous avons également l'opportunité
  • 10:36 - 10:40
    de revoir la façon dont
    nous interagissons avec les machines,
  • 10:40 - 10:44
    et par là-même la façon
    dont nous, humains,
  • 10:44 - 10:46
    interagissons ensemble.
  • 10:46 - 10:47
    Merci.
  • 10:47 - 10:52
    (Applaudissements)
Title:
Cette application sait ce que vous ressentez - d'après l'expression de votre visage
Speaker:
Rana el Kaliouby
Description:

Nos émotions influencent tous les aspects de notre vie - de la façon dont nous apprenons, communiquons, à nos prises de décisions. Pourtant elles restent absentes de la sphère numérique de nos vies ; les appareils et applications avec lesquels nous interagissons n'ont aucun moyen de percevoir ce que nous ressentons. La chercheuse Rana el Kaliouby a pour but de changer ça. Elle nous offre une démonstration d'une nouvelle et puissante technologie qui peut lire nos expressions faciales et les interpréter en tant qu'émotions. Ce "processeur émotionnel" a d'importantes implications, dit-elle, et pourrait bien changer non seulement la façon dont nous interagissions avec les machines - mais aussi comment nous le faisons l'un avec l'autre.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

French subtitles

Revisions