Cette application sait ce que vous ressentez - d'après l'expression de votre visage
-
0:01 - 0:04Nos émotions influencent
tous les aspects de notre vie, -
0:04 - 0:05de notre santé et
notre façon d'apprendre -
0:05 - 0:07à la manière dont
nous faisons des affaires, -
0:07 - 0:10et prenons des décisions,
petites ou grandes. -
0:11 - 0:14Elles influencent aussi la manière
dont nous interagissons ensemble. -
0:15 - 0:19Nous avons évolué pour vivre
dans un monde qui ressemble à ça, -
0:19 - 0:24mais nous vivons nos vies de plus
en plus plutôt comme ceci -- -
0:24 - 0:27c'est le message que ma fille
m'a envoyé hier soir -- -
0:27 - 0:29dans un monde dépourvu d'émotion.
-
0:29 - 0:31Ma mission est de changer tout ça.
-
0:31 - 0:35Je veux ramener l'expression de nos
émotions dans nos expériences numériques. -
0:36 - 0:39J'ai commencé de travailler
dans cette direction il y a 15 ans. -
0:39 - 0:41J'étais informaticienne en Égypte,
-
0:41 - 0:46et venais juste d'être acceptée dans
un programme de thèse à Cambridge. -
0:46 - 0:48Alors j'ai fait quelque chose
d'assez inhabituel -
0:48 - 0:52pour une jeune musulmane égyptienne
et tout juste mariée : -
0:54 - 0:57avec le soutien de mon mari
qui devait rester en Égypte, -
0:57 - 1:00j'ai fait mes bagages et suis partie
pour l'Angleterre. -
1:00 - 1:03A Cambridge, à des milliers
de kilomètres de chez moi, -
1:03 - 1:06j'ai réalisé que je passais
plus d'heures sur mon ordinateur -
1:06 - 1:08qu'avec n'importe quel humain.
-
1:08 - 1:13Pourtant, malgré cette intimité,
il n'avait absolument aucune idée -
1:13 - 1:17de ce que je ressentais.
Il ne savait pas si j'étais heureuse, -
1:17 - 1:20si j'avais eu une mauvaise journée,
si j'étais stressée -
1:20 - 1:22ou confuse et ça devenait
vraiment frustrant. -
1:24 - 1:26Le pire, c'était que lorsque
je communiquais en ligne -
1:26 - 1:29avec ma famille à la maison,
-
1:29 - 1:33j'avais l'impression que toutes
mes émotions disparaissaient -
1:33 - 1:38dans cet espace virtuel. J'avais le mal
du pays, je me sentais seule -
1:38 - 1:41et me mettais même
à pleurer certains jours. -
1:41 - 1:45Mais tout ce que j'avais pour partager
ces émotions, c'était ça. (Rires) -
1:45 - 1:50La technologie moderne a beaucoup
de Q.I. mais aucun Q.E.: c'est-à-dire -
1:50 - 1:53beaucoup d'intelligence
cognitive mais pas émotionnelle. -
1:53 - 1:55Je me suis alors demandée
-
1:55 - 1:59ce que ça changerait si notre technologie
pouvait percevoir nos émotions ? -
1:59 - 2:03Que se passerait-il si nos appareils
pouvaient les percevoir et réagir -
2:03 - 2:06en fonction, exactement
comme un ami le ferait ? -
2:07 - 2:10Ces questions nous ont menés,
mon équipe et moi -
2:10 - 2:15à développer des technologies qui peuvent
lire et réagir à nos émotions, -
2:15 - 2:18à partir du visage humain.
-
2:19 - 2:22Il se trouve que le visage est
un des moyens d'expression -
2:22 - 2:26les plus puissants que nous utilisons
pour communiquer notre état social -
2:26 - 2:29ou émotionnel,
tout de la joie, la surprise, -
2:29 - 2:33la compassion à la curiosité.
-
2:33 - 2:38En science des émotions, chacun des
mouvements du visage est appelé action. -
2:38 - 2:41Par exemple, action numéro 12
-
2:41 - 2:43n'est pas le nom
du dernier succès hollywoodien, -
2:43 - 2:46mais l'action de tirer le coin des lèvres,
autrement dit de sourire. -
2:46 - 2:49Essayez ! Faisons tous
nos plus beaux sourires ! -
2:49 - 2:52Autre exemple, action numéro 4,
le froncement de sourcils. -
2:52 - 2:54C'est lorsque vous plissez les sourcils
-
2:54 - 2:56ensemble et créez
toutes ces rides et textures. -
2:56 - 3:00On ne les aime pas mais c'est un très bon
indicateur d'émotion négative. -
3:00 - 3:03Nous avons environ 45 de ces actions
-
3:03 - 3:06que nous combinons pour exprimer
des centaines d'émotions. -
3:06 - 3:10Enseigner à un ordinateur comment
reconnaître ces expressions faciales -
3:10 - 3:13est difficile parce qu'elles peuvent être
rapides, sont subtiles, -
3:13 - 3:16et peuvent former beaucoup
de combinaisons différentes. -
3:16 - 3:20Prenez par exemple,
un sourire normal ou un sourire narquois. -
3:20 - 3:23Ils sont en soi assez similaires, mais
ont une signification bien différente. -
3:23 - 3:25(Rires)
-
3:25 - 3:27Le sourire normal est positif,
-
3:27 - 3:29le sourire narquois souvent négatif.
-
3:29 - 3:33Un sourire narquois peut même
vous rendre célèbre parfois ! -
3:33 - 3:36Mais plus sérieusement,
il est très important -
3:36 - 3:39que l'ordinateur puisse différencier
ces deux expressions. -
3:39 - 3:41Alors comment y arrive-t-on ?
-
3:41 - 3:42On donne à nos algorithmes
-
3:42 - 3:47des dizaines de milliers d'exemples
spécifiques de personnes -
3:47 - 3:50en train de sourire,
d'origines, âge, sexe différents -
3:50 - 3:52et on fait la même chose pour
des sourires narquois. -
3:52 - 3:54Ensuite par un processus
d'apprentissage, -
3:54 - 3:57l'algorithme assimile
toutes ces textures, ces rides -
3:57 - 3:59et mouvements de notre visage,
-
3:59 - 4:03apprend les caractéristiques
générales d'un sourire, -
4:03 - 4:06et en associe de plus spécifiques
aux sourires narquois. -
4:06 - 4:08Ainsi au prochain visage qu'il voit,
-
4:08 - 4:10l'algorithme peut essentiellement
-
4:10 - 4:13reconnaître les caractéristiques
d'un sourire et dire : -
4:13 - 4:18« ha ! je reconnais cette expression,
c'est un sourire. » -
4:18 - 4:21Le meilleur moyen d'illustrer
comment cette technologie fonctionne -
4:21 - 4:23est une démonstration en direct
-
4:23 - 4:27alors j'aurais besoin d'un volontaire,
de préférence quelqu'un avec un visage. -
4:27 - 4:30(Rires)
-
4:30 - 4:32Cloe sera notre volontaire aujourd'hui.
-
4:33 - 4:38Au cours des 5 dernières années,
notre groupe de recherche au MIT -
4:38 - 4:39est devenu une entreprise,
-
4:39 - 4:43dans laquelle mon équipe a travaillé dur
pour que cette technologie marche, -
4:43 - 4:45dans la vie de tous les jours,
comme on dit. -
4:45 - 4:47Nous l'avons aussi optimisée
pour qu'elle fonctionne -
4:47 - 4:51sur n'importe quel appareil pourvu
d'une caméra, comme cet iPad. -
4:51 - 4:53Mais essayons plutôt.
-
4:55 - 4:59Comme vous le voyez, l'algorithme
trouve essentiellement le visage de Cloe -
4:59 - 5:00dans cette zone encadrée blanche,
-
5:00 - 5:03et décèle les mouvements
des points principaux -
5:03 - 5:06tels que ses sourcils, ses yeux,
sa bouche et son nez. -
5:06 - 5:09La question est alors de savoir
s'il peut reconnaître ses expressions. -
5:09 - 5:10Essayons donc de le tester.
-
5:10 - 5:15Tout d'abord, montrez moi un visage
impassible. Oui, parfait ! (Rires) -
5:15 - 5:17Et maintenant un sourire franc,
en voilà un beau, parfait. -
5:17 - 5:20Vous voyez, l'indicateur vert
monte quand elle sourit. -
5:20 - 5:21C'était un beau sourire ça.
-
5:21 - 5:24Pouvez-vous faire
un sourire plus subtil pour voir ? -
5:24 - 5:26Oui, le programme
le reconnaît aussi. -
5:26 - 5:28On a travaillé dur pour que ça marche.
-
5:28 - 5:31Là, les sourcils relevés déclenchent
l'indicateur de surprise. -
5:31 - 5:36Le sillon des sourcils, lui,
est l'indicateur de confusion. -
5:36 - 5:40Froncez les sourcils. Oui, parfait.
-
5:40 - 5:43Tout ça vous montre différentes
actions, il y en a beaucoup d'autres. -
5:43 - 5:45C'est juste une démonstration épurée.
-
5:45 - 5:48Chaque action reconnue est
une point de donnée émotionnelle -
5:48 - 5:52et l'ensemble de ces données
peut décrire différentes émotions. -
5:52 - 5:56Sur la droite ici
regardez comme vous êtes heureuse. -
5:56 - 5:57L'indicateur de joie se déclenche.
-
5:57 - 5:59Maintenant exprimez le dégoût.
-
5:59 - 6:03Souvenez-vous du départ
de Zayn de One Direction. -
6:03 - 6:04(Rires)
-
6:04 - 6:09Voilà, le nez se ride. Super.
-
6:09 - 6:13La capacité est en fait assez négative,
vous deviez vraiment être fan ! -
6:13 - 6:16Cette jauge montre si l'expérience
est positive ou négative, -
6:16 - 6:19la jauge d'engagement montre
le niveau d'expression. -
6:19 - 6:22Imaginez que Cloe ait accès direct
à ce flux d'émotions en temps réel, -
6:22 - 6:25elle pourrait alors le partager
avec qui elle voudrait. -
6:25 - 6:27Merci.
-
6:27 - 6:32(Applaudissements)
-
6:34 - 6:39Jusqu'à présent nous avons accumulé
12 milliards de ces données émotionnelles. -
6:39 - 6:42C'est la plus grande base de données
de ce type au monde, -
6:42 - 6:45construite à partir de 2,9 millions
de vidéos de visages de personnes -
6:45 - 6:47qui acceptent de partager
leurs émotions avec nous -
6:47 - 6:50et provenant de 75 pays différents.
-
6:50 - 6:52Et ça continue tous les jours.
-
6:53 - 6:55Ça me fascine totalement que l'on puisse
-
6:55 - 6:58à présent quantifier quelque chose
d'aussi personnel que nos émotions, -
6:58 - 7:00et qu'on le fasse à cette échelle.
-
7:00 - 7:02Qu'a-t-on appris de tout ça
jusqu'à présent ? -
7:03 - 7:05En ce qui concerne le genre :
-
7:05 - 7:09nos données confirment ce dont
vous vous doutiez probablement, -
7:09 - 7:11les femmes sont plus expressives
que les hommes. -
7:11 - 7:14Non seulement elles sourient plus,
mais aussi plus longtemps, -
7:14 - 7:16et on peut maintenant vraiment
quantifier ce à quoi -
7:16 - 7:19les hommes et les femmes
réagissent différemment. -
7:19 - 7:21Pour l'influence culturelle :
aux États-Unis -
7:21 - 7:24si les femmes sont 40% plus expressives
que les hommes, curieusement, -
7:24 - 7:28on ne voit aucune différence
à ce niveau-là au Royaume Uni. -
7:28 - 7:30(Rires)
-
7:31 - 7:35Pour l'âge : les personnes
de 50 ans et plus -
7:35 - 7:39sont 25% plus émotives que
les personnes plus jeunes. -
7:39 - 7:44Les femmes dans leur vingtaine sourient
beaucoup plus que les hommes du même âge, -
7:44 - 7:47peut-être par nécessité
pour faire des rencontres. -
7:47 - 7:50Mais ce qui nous a surpris le plus
dans toutes ces données, -
7:50 - 7:53c'est que nous sommes en fait
constamment expressifs, -
7:53 - 7:56mais lorsque nous sommes assis
tout seuls en face de nos écrans, -
7:56 - 8:00et pas seulement à regarder
des vidéos de chats sur Facebook. -
8:00 - 8:03Nous sommes expressifs
quand on écrit un mail, un texto, -
8:03 - 8:06quand on achète en ligne et
même quand on paie nos impôts. -
8:06 - 8:08Pour quoi utilise-t-on
ces données aujourd'hui ? -
8:08 - 8:11Ça va de comprendre comment
nous interagissons avec les médias, -
8:11 - 8:14les phénomènes viraux,
les dynamiques de vote, -
8:14 - 8:17à doter nos technologies
de capacités émotionnelles, -
8:17 - 8:21et j'aimerais partager avec vous
quelques exemples qui me tiennent à cœur. -
8:21 - 8:24Des lunettes à lecture émotionnelle
peuvent aider les malvoyants -
8:24 - 8:27à décrypter les expressions
sur le visage des autres, -
8:27 - 8:32et peuvent aider les personnes atteintes
d'autisme à interpréter les émotions, -
8:32 - 8:34ce qu'elles ont beaucoup de mal à faire.
-
8:36 - 8:39Pour l'éducation, imaginez que
les applications d'apprentissage -
8:39 - 8:42perçoivent votre confusion
et ralentissent, -
8:42 - 8:44qu'elles perçoivent votre ennui
et accélèrent -
8:44 - 8:47tout comme un bon enseignant
le ferait dans la salle de classe. -
8:47 - 8:50Imaginez que votre montre
puisse déceler votre humeur, -
8:50 - 8:52ou que votre voiture puisse
percevoir votre fatigue, -
8:52 - 8:55ou peut-être que votre frigo
puisse sentir que vous êtes stressé -
8:55 - 8:59et se verrouiller pour empêcher
toute frénésie alimentaire. (Rires) -
8:59 - 9:04J'apprécierais ça, oui.
-
9:04 - 9:06Que se serait-il passé si à Cambridge
-
9:06 - 9:08j'avais eu accès à ces données
émotionnelles -
9:08 - 9:11pour les partager tout naturellement
avec ma famille à la maison -
9:11 - 9:15comme si nous avions tous été
dans la même pièce ? -
9:15 - 9:19Je pense que d'ici cinq ans,
-
9:19 - 9:21tous nos appareils auront
une puce émotionnelle, -
9:21 - 9:23et on ne se souviendra même plus
du temps où, -
9:23 - 9:26quand on fronçait les sourcils
devant l'un d'eux, -
9:26 - 9:29il ne nous retournait pas un,
« hmm, ça ne t'a pas plu, hein ? » -
9:29 - 9:30Notre plus grand défit est qu'il existe
-
9:30 - 9:33tellement d'applications
à cette technologie. -
9:33 - 9:34Mon équipe et moi nous rendons
bien compte que -
9:34 - 9:36nous ne pouvons pas
tout faire nous-même -
9:36 - 9:39et avons donc rendu
cette technologie publique -
9:39 - 9:41pour que d'autres puissent
la développer et être créatifs. -
9:41 - 9:46Nous sommes conscients
des risques potentiels -
9:46 - 9:48et des possibilités d'abus,
-
9:48 - 9:51mais personnellement,
après avoir passé des années à faire ça, -
9:51 - 9:54je pense que les bénéfices
que l'humanité peut recevoir -
9:54 - 9:56d'une technologie
émotionnellement intelligente -
9:56 - 9:59dépassent de loin les risques potentiels
de mauvais usage. -
9:59 - 10:02Je vous invite tous
à prendre part à la discussion. -
10:02 - 10:04Plus de gens seront au courant
de cette technologie, -
10:04 - 10:08mieux on pourra en définir
ensemble les termes d'usage. -
10:09 - 10:14Alors que de plus en plus de notre vie
passe au digital, nous nous lançons -
10:14 - 10:17dans une lutte perdue d'avance pour
restreindre notre usage d'appareils -
10:17 - 10:21et reconquérir nos émotions.
Ce que j'essaie -
10:21 - 10:25de faire au contraire est d'amener
nos émotions dans notre technologie -
10:25 - 10:27et la rendre ainsi plus réactive.
-
10:27 - 10:30Je veux que ces appareils qui
nous séparaient les uns des autres, -
10:30 - 10:32finalement nous rapprochent.
-
10:32 - 10:36En rendant notre technologie plus humaine,
nous avons également l'opportunité -
10:36 - 10:40de revoir la façon dont
nous interagissons avec les machines, -
10:40 - 10:44et par là-même la façon
dont nous, humains, -
10:44 - 10:46interagissons ensemble.
-
10:46 - 10:47Merci.
-
10:47 - 10:52(Applaudissements)
- Title:
- Cette application sait ce que vous ressentez - d'après l'expression de votre visage
- Speaker:
- Rana el Kaliouby
- Description:
-
Nos émotions influencent tous les aspects de notre vie - de la façon dont nous apprenons, communiquons, à nos prises de décisions. Pourtant elles restent absentes de la sphère numérique de nos vies ; les appareils et applications avec lesquels nous interagissons n'ont aucun moyen de percevoir ce que nous ressentons. La chercheuse Rana el Kaliouby a pour but de changer ça. Elle nous offre une démonstration d'une nouvelle et puissante technologie qui peut lire nos expressions faciales et les interpréter en tant qu'émotions. Ce "processeur émotionnel" a d'importantes implications, dit-elle, et pourrait bien changer non seulement la façon dont nous interagissions avec les machines - mais aussi comment nous le faisons l'un avec l'autre.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:04
Elisabeth Buffard approved French subtitles for This app knows how you feel -- from the look on your face | ||
Elisabeth Buffard edited French subtitles for This app knows how you feel -- from the look on your face | ||
Elisabeth Buffard edited French subtitles for This app knows how you feel -- from the look on your face | ||
Elisabeth Buffard edited French subtitles for This app knows how you feel -- from the look on your face | ||
Elisabeth Buffard edited French subtitles for This app knows how you feel -- from the look on your face | ||
Elisabeth Buffard edited French subtitles for This app knows how you feel -- from the look on your face | ||
Zeineb Trabelsi accepted French subtitles for This app knows how you feel -- from the look on your face | ||
Zeineb Trabelsi edited French subtitles for This app knows how you feel -- from the look on your face |