Nos émotions influencent
tous les aspects de notre vie,
de notre santé et
notre façon d'apprendre
à la manière dont
nous faisons des affaires,
et prenons des décisions,
petites ou grandes.
Elles influencent aussi la manière
dont nous interagissons ensemble.
Nous avons évolué pour vivre
dans un monde qui ressemble à ça,
mais nous vivons nos vies de plus
en plus plutôt comme ceci --
c'est le message que ma fille
m'a envoyé hier soir --
dans un monde dépourvu d'émotion.
Ma mission est de changer tout ça.
Je veux ramener l'expression de nos
émotions dans nos expériences numériques.
J'ai commencé de travailler
dans cette direction il y a 15 ans.
J'étais informaticienne en Égypte,
et venais juste d'être acceptée dans
un programme de thèse à Cambridge.
Alors j'ai fait quelque chose
d'assez inhabituel
pour une jeune musulmane égyptienne
et tout juste mariée :
avec le soutien de mon mari
qui devait rester en Égypte,
j'ai fait mes bagages et suis partie
pour l'Angleterre.
A Cambridge, à des milliers
de kilomètres de chez moi,
j'ai réalisé que je passais
plus d'heures sur mon ordinateur
qu'avec n'importe quel humain.
Pourtant, malgré cette intimité,
il n'avait absolument aucune idée
de ce que je ressentais.
Il ne savait pas si j'étais heureuse,
si j'avais eu une mauvaise journée,
si j'étais stressée
ou confuse et ça devenait
vraiment frustrant.
Le pire, c'était que lorsque
je communiquais en ligne
avec ma famille à la maison,
j'avais l'impression que toutes
mes émotions disparaissaient
dans cet espace virtuel. J'avais le mal
du pays, je me sentais seule
et me mettais même
à pleurer certains jours.
Mais tout ce que j'avais pour partager
ces émotions, c'était ça. (Rires)
La technologie moderne a beaucoup
de Q.I. mais aucun Q.E.: c'est-à-dire
beaucoup d'intelligence
cognitive mais pas émotionnelle.
Je me suis alors demandée
ce que ça changerait si notre technologie
pouvait percevoir nos émotions ?
Que se passerait-il si nos appareils
pouvaient les percevoir et réagir
en fonction, exactement
comme un ami le ferait ?
Ces questions nous ont menés,
mon équipe et moi
à développer des technologies qui peuvent
lire et réagir à nos émotions,
à partir du visage humain.
Il se trouve que le visage est
un des moyens d'expression
les plus puissants que nous utilisons
pour communiquer notre état social
ou émotionnel,
tout de la joie, la surprise,
la compassion à la curiosité.
En science des émotions, chacun des
mouvements du visage est appelé action.
Par exemple, action numéro 12
n'est pas le nom
du dernier succès hollywoodien,
mais l'action de tirer le coin des lèvres,
autrement dit de sourire.
Essayez ! Faisons tous
nos plus beaux sourires !
Autre exemple, action numéro 4,
le froncement de sourcils.
C'est lorsque vous plissez les sourcils
ensemble et créez
toutes ces rides et textures.
On ne les aime pas mais c'est un très bon
indicateur d'émotion négative.
Nous avons environ 45 de ces actions
que nous combinons pour exprimer
des centaines d'émotions.
Enseigner à un ordinateur comment
reconnaître ces expressions faciales
est difficile parce qu'elles peuvent être
rapides, sont subtiles,
et peuvent former beaucoup
de combinaisons différentes.
Prenez par exemple,
un sourire normal ou un sourire narquois.
Ils sont en soi assez similaires, mais
ont une signification bien différente.
(Rires)
Le sourire normal est positif,
le sourire narquois souvent négatif.
Un sourire narquois peut même
vous rendre célèbre parfois !
Mais plus sérieusement,
il est très important
que l'ordinateur puisse différencier
ces deux expressions.
Alors comment y arrive-t-on ?
On donne à nos algorithmes
des dizaines de milliers d'exemples
spécifiques de personnes
en train de sourire,
d'origines, âge, sexe différents
et on fait la même chose pour
des sourires narquois.
Ensuite par un processus
d'apprentissage,
l'algorithme assimile
toutes ces textures, ces rides
et mouvements de notre visage,
apprend les caractéristiques
générales d'un sourire,
et en associe de plus spécifiques
aux sourires narquois.
Ainsi au prochain visage qu'il voit,
l'algorithme peut essentiellement
reconnaître les caractéristiques
d'un sourire et dire :
« ha ! je reconnais cette expression,
c'est un sourire. »
Le meilleur moyen d'illustrer
comment cette technologie fonctionne
est une démonstration en direct
alors j'aurais besoin d'un volontaire,
de préférence quelqu'un avec un visage.
(Rires)
Cloe sera notre volontaire aujourd'hui.
Au cours des 5 dernières années,
notre groupe de recherche au MIT
est devenu une entreprise,
dans laquelle mon équipe a travaillé dur
pour que cette technologie marche,
dans la vie de tous les jours,
comme on dit.
Nous l'avons aussi optimisée
pour qu'elle fonctionne
sur n'importe quel appareil pourvu
d'une caméra, comme cet iPad.
Mais essayons plutôt.
Comme vous le voyez, l'algorithme
trouve essentiellement le visage de Cloe
dans cette zone encadrée blanche,
et décèle les mouvements
des points principaux
tels que ses sourcils, ses yeux,
sa bouche et son nez.
La question est alors de savoir
s'il peut reconnaître ses expressions.
Essayons donc de le tester.
Tout d'abord, montrez moi un visage
impassible. Oui, parfait ! (Rires)
Et maintenant un sourire franc,
en voilà un beau, parfait.
Vous voyez, l'indicateur vert
monte quand elle sourit.
C'était un beau sourire ça.
Pouvez-vous faire
un sourire plus subtil pour voir ?
Oui, le programme
le reconnaît aussi.
On a travaillé dur pour que ça marche.
Là, les sourcils relevés déclenchent
l'indicateur de surprise.
Le sillon des sourcils, lui,
est l'indicateur de confusion.
Froncez les sourcils. Oui, parfait.
Tout ça vous montre différentes
actions, il y en a beaucoup d'autres.
C'est juste une démonstration épurée.
Chaque action reconnue est
une point de donnée émotionnelle
et l'ensemble de ces données
peut décrire différentes émotions.
Sur la droite ici
regardez comme vous êtes heureuse.
L'indicateur de joie se déclenche.
Maintenant exprimez le dégoût.
Souvenez-vous du départ
de Zayn de One Direction.
(Rires)
Voilà, le nez se ride. Super.
La capacité est en fait assez négative,
vous deviez vraiment être fan !
Cette jauge montre si l'expérience
est positive ou négative,
la jauge d'engagement montre
le niveau d'expression.
Imaginez que Cloe ait accès direct
à ce flux d'émotions en temps réel,
elle pourrait alors le partager
avec qui elle voudrait.
Merci.
(Applaudissements)
Jusqu'à présent nous avons accumulé
12 milliards de ces données émotionnelles.
C'est la plus grande base de données
de ce type au monde,
construite à partir de 2,9 millions
de vidéos de visages de personnes
qui acceptent de partager
leurs émotions avec nous
et provenant de 75 pays différents.
Et ça continue tous les jours.
Ça me fascine totalement que l'on puisse
à présent quantifier quelque chose
d'aussi personnel que nos émotions,
et qu'on le fasse à cette échelle.
Qu'a-t-on appris de tout ça
jusqu'à présent ?
En ce qui concerne le genre :
nos données confirment ce dont
vous vous doutiez probablement,
les femmes sont plus expressives
que les hommes.
Non seulement elles sourient plus,
mais aussi plus longtemps,
et on peut maintenant vraiment
quantifier ce à quoi
les hommes et les femmes
réagissent différemment.
Pour l'influence culturelle :
aux États-Unis
si les femmes sont 40% plus expressives
que les hommes, curieusement,
on ne voit aucune différence
à ce niveau-là au Royaume Uni.
(Rires)
Pour l'âge : les personnes
de 50 ans et plus
sont 25% plus émotives que
les personnes plus jeunes.
Les femmes dans leur vingtaine sourient
beaucoup plus que les hommes du même âge,
peut-être par nécessité
pour faire des rencontres.
Mais ce qui nous a surpris le plus
dans toutes ces données,
c'est que nous sommes en fait
constamment expressifs,
mais lorsque nous sommes assis
tout seuls en face de nos écrans,
et pas seulement à regarder
des vidéos de chats sur Facebook.
Nous sommes expressifs
quand on écrit un mail, un texto,
quand on achète en ligne et
même quand on paie nos impôts.
Pour quoi utilise-t-on
ces données aujourd'hui ?
Ça va de comprendre comment
nous interagissons avec les médias,
les phénomènes viraux,
les dynamiques de vote,
à doter nos technologies
de capacités émotionnelles,
et j'aimerais partager avec vous
quelques exemples qui me tiennent à cœur.
Des lunettes à lecture émotionnelle
peuvent aider les malvoyants
à décrypter les expressions
sur le visage des autres,
et peuvent aider les personnes atteintes
d'autisme à interpréter les émotions,
ce qu'elles ont beaucoup de mal à faire.
Pour l'éducation, imaginez que
les applications d'apprentissage
perçoivent votre confusion
et ralentissent,
qu'elles perçoivent votre ennui
et accélèrent
tout comme un bon enseignant
le ferait dans la salle de classe.
Imaginez que votre montre
puisse déceler votre humeur,
ou que votre voiture puisse
percevoir votre fatigue,
ou peut-être que votre frigo
puisse sentir que vous êtes stressé
et se verrouiller pour empêcher
toute frénésie alimentaire. (Rires)
J'apprécierais ça, oui.
Que se serait-il passé si à Cambridge
j'avais eu accès à ces données
émotionnelles
pour les partager tout naturellement
avec ma famille à la maison
comme si nous avions tous été
dans la même pièce ?
Je pense que d'ici cinq ans,
tous nos appareils auront
une puce émotionnelle,
et on ne se souviendra même plus
du temps où,
quand on fronçait les sourcils
devant l'un d'eux,
il ne nous retournait pas un,
« hmm, ça ne t'a pas plu, hein ? »
Notre plus grand défit est qu'il existe
tellement d'applications
à cette technologie.
Mon équipe et moi nous rendons
bien compte que
nous ne pouvons pas
tout faire nous-même
et avons donc rendu
cette technologie publique
pour que d'autres puissent
la développer et être créatifs.
Nous sommes conscients
des risques potentiels
et des possibilités d'abus,
mais personnellement,
après avoir passé des années à faire ça,
je pense que les bénéfices
que l'humanité peut recevoir
d'une technologie
émotionnellement intelligente
dépassent de loin les risques potentiels
de mauvais usage.
Je vous invite tous
à prendre part à la discussion.
Plus de gens seront au courant
de cette technologie,
mieux on pourra en définir
ensemble les termes d'usage.
Alors que de plus en plus de notre vie
passe au digital, nous nous lançons
dans une lutte perdue d'avance pour
restreindre notre usage d'appareils
et reconquérir nos émotions.
Ce que j'essaie
de faire au contraire est d'amener
nos émotions dans notre technologie
et la rendre ainsi plus réactive.
Je veux que ces appareils qui
nous séparaient les uns des autres,
finalement nous rapprochent.
En rendant notre technologie plus humaine,
nous avons également l'opportunité
de revoir la façon dont
nous interagissons avec les machines,
et par là-même la façon
dont nous, humains,
interagissons ensemble.
Merci.
(Applaudissements)