Nos émotions influencent tous les aspects de notre vie, de notre santé et notre façon d'apprendre à la manière dont nous faisons des affaires, et prenons des décisions, petites ou grandes. Elles influencent aussi la manière dont nous interagissons ensemble. Nous avons évolué pour vivre dans un monde qui ressemble à ça, mais nous vivons nos vies de plus en plus plutôt comme ceci -- c'est le message que ma fille m'a envoyé hier soir -- dans un monde dépourvu d'émotion. Ma mission est de changer tout ça. Je veux ramener l'expression de nos émotions dans nos expériences numériques. J'ai commencé de travailler dans cette direction il y a 15 ans. J'étais informaticienne en Égypte, et venais juste d'être acceptée dans un programme de thèse à Cambridge. Alors j'ai fait quelque chose d'assez inhabituel pour une jeune musulmane égyptienne et tout juste mariée : avec le soutien de mon mari qui devait rester en Égypte, j'ai fait mes bagages et suis partie pour l'Angleterre. A Cambridge, à des milliers de kilomètres de chez moi, j'ai réalisé que je passais plus d'heures sur mon ordinateur qu'avec n'importe quel humain. Pourtant, malgré cette intimité, il n'avait absolument aucune idée de ce que je ressentais. Il ne savait pas si j'étais heureuse, si j'avais eu une mauvaise journée, si j'étais stressée ou confuse et ça devenait vraiment frustrant. Le pire, c'était que lorsque je communiquais en ligne avec ma famille à la maison, j'avais l'impression que toutes mes émotions disparaissaient dans cet espace virtuel. J'avais le mal du pays, je me sentais seule et me mettais même à pleurer certains jours. Mais tout ce que j'avais pour partager ces émotions, c'était ça. (Rires) La technologie moderne a beaucoup de Q.I. mais aucun Q.E.: c'est-à-dire beaucoup d'intelligence cognitive mais pas émotionnelle. Je me suis alors demandée ce que ça changerait si notre technologie pouvait percevoir nos émotions ? Que se passerait-il si nos appareils pouvaient les percevoir et réagir en fonction, exactement comme un ami le ferait ? Ces questions nous ont menés, mon équipe et moi à développer des technologies qui peuvent lire et réagir à nos émotions, à partir du visage humain. Il se trouve que le visage est un des moyens d'expression les plus puissants que nous utilisons pour communiquer notre état social ou émotionnel, tout de la joie, la surprise, la compassion à la curiosité. En science des émotions, chacun des mouvements du visage est appelé action. Par exemple, action numéro 12 n'est pas le nom du dernier succès hollywoodien, mais l'action de tirer le coin des lèvres, autrement dit de sourire. Essayez ! Faisons tous nos plus beaux sourires ! Autre exemple, action numéro 4, le froncement de sourcils. C'est lorsque vous plissez les sourcils ensemble et créez toutes ces rides et textures. On ne les aime pas mais c'est un très bon indicateur d'émotion négative. Nous avons environ 45 de ces actions que nous combinons pour exprimer des centaines d'émotions. Enseigner à un ordinateur comment reconnaître ces expressions faciales est difficile parce qu'elles peuvent être rapides, sont subtiles, et peuvent former beaucoup de combinaisons différentes. Prenez par exemple, un sourire normal ou un sourire narquois. Ils sont en soi assez similaires, mais ont une signification bien différente. (Rires) Le sourire normal est positif, le sourire narquois souvent négatif. Un sourire narquois peut même vous rendre célèbre parfois ! Mais plus sérieusement, il est très important que l'ordinateur puisse différencier ces deux expressions. Alors comment y arrive-t-on ? On donne à nos algorithmes des dizaines de milliers d'exemples spécifiques de personnes en train de sourire, d'origines, âge, sexe différents et on fait la même chose pour des sourires narquois. Ensuite par un processus d'apprentissage, l'algorithme assimile toutes ces textures, ces rides et mouvements de notre visage, apprend les caractéristiques générales d'un sourire, et en associe de plus spécifiques aux sourires narquois. Ainsi au prochain visage qu'il voit, l'algorithme peut essentiellement reconnaître les caractéristiques d'un sourire et dire : « ha ! je reconnais cette expression, c'est un sourire. » Le meilleur moyen d'illustrer comment cette technologie fonctionne est une démonstration en direct alors j'aurais besoin d'un volontaire, de préférence quelqu'un avec un visage. (Rires) Cloe sera notre volontaire aujourd'hui. Au cours des 5 dernières années, notre groupe de recherche au MIT est devenu une entreprise, dans laquelle mon équipe a travaillé dur pour que cette technologie marche, dans la vie de tous les jours, comme on dit. Nous l'avons aussi optimisée pour qu'elle fonctionne sur n'importe quel appareil pourvu d'une caméra, comme cet iPad. Mais essayons plutôt. Comme vous le voyez, l'algorithme trouve essentiellement le visage de Cloe dans cette zone encadrée blanche, et décèle les mouvements des points principaux tels que ses sourcils, ses yeux, sa bouche et son nez. La question est alors de savoir s'il peut reconnaître ses expressions. Essayons donc de le tester. Tout d'abord, montrez moi un visage impassible. Oui, parfait ! (Rires) Et maintenant un sourire franc, en voilà un beau, parfait. Vous voyez, l'indicateur vert monte quand elle sourit. C'était un beau sourire ça. Pouvez-vous faire un sourire plus subtil pour voir ? Oui, le programme le reconnaît aussi. On a travaillé dur pour que ça marche. Là, les sourcils relevés déclenchent l'indicateur de surprise. Le sillon des sourcils, lui, est l'indicateur de confusion. Froncez les sourcils. Oui, parfait. Tout ça vous montre différentes actions, il y en a beaucoup d'autres. C'est juste une démonstration épurée. Chaque action reconnue est une point de donnée émotionnelle et l'ensemble de ces données peut décrire différentes émotions. Sur la droite ici regardez comme vous êtes heureuse. L'indicateur de joie se déclenche. Maintenant exprimez le dégoût. Souvenez-vous du départ de Zayn de One Direction. (Rires) Voilà, le nez se ride. Super. La capacité est en fait assez négative, vous deviez vraiment être fan ! Cette jauge montre si l'expérience est positive ou négative, la jauge d'engagement montre le niveau d'expression. Imaginez que Cloe ait accès direct à ce flux d'émotions en temps réel, elle pourrait alors le partager avec qui elle voudrait. Merci. (Applaudissements) Jusqu'à présent nous avons accumulé 12 milliards de ces données émotionnelles. C'est la plus grande base de données de ce type au monde, construite à partir de 2,9 millions de vidéos de visages de personnes qui acceptent de partager leurs émotions avec nous et provenant de 75 pays différents. Et ça continue tous les jours. Ça me fascine totalement que l'on puisse à présent quantifier quelque chose d'aussi personnel que nos émotions, et qu'on le fasse à cette échelle. Qu'a-t-on appris de tout ça jusqu'à présent ? En ce qui concerne le genre : nos données confirment ce dont vous vous doutiez probablement, les femmes sont plus expressives que les hommes. Non seulement elles sourient plus, mais aussi plus longtemps, et on peut maintenant vraiment quantifier ce à quoi les hommes et les femmes réagissent différemment. Pour l'influence culturelle : aux États-Unis si les femmes sont 40% plus expressives que les hommes, curieusement, on ne voit aucune différence à ce niveau-là au Royaume Uni. (Rires) Pour l'âge : les personnes de 50 ans et plus sont 25% plus émotives que les personnes plus jeunes. Les femmes dans leur vingtaine sourient beaucoup plus que les hommes du même âge, peut-être par nécessité pour faire des rencontres. Mais ce qui nous a surpris le plus dans toutes ces données, c'est que nous sommes en fait constamment expressifs, mais lorsque nous sommes assis tout seuls en face de nos écrans, et pas seulement à regarder des vidéos de chats sur Facebook. Nous sommes expressifs quand on écrit un mail, un texto, quand on achète en ligne et même quand on paie nos impôts. Pour quoi utilise-t-on ces données aujourd'hui ? Ça va de comprendre comment nous interagissons avec les médias, les phénomènes viraux, les dynamiques de vote, à doter nos technologies de capacités émotionnelles, et j'aimerais partager avec vous quelques exemples qui me tiennent à cœur. Des lunettes à lecture émotionnelle peuvent aider les malvoyants à décrypter les expressions sur le visage des autres, et peuvent aider les personnes atteintes d'autisme à interpréter les émotions, ce qu'elles ont beaucoup de mal à faire. Pour l'éducation, imaginez que les applications d'apprentissage perçoivent votre confusion et ralentissent, qu'elles perçoivent votre ennui et accélèrent tout comme un bon enseignant le ferait dans la salle de classe. Imaginez que votre montre puisse déceler votre humeur, ou que votre voiture puisse percevoir votre fatigue, ou peut-être que votre frigo puisse sentir que vous êtes stressé et se verrouiller pour empêcher toute frénésie alimentaire. (Rires) J'apprécierais ça, oui. Que se serait-il passé si à Cambridge j'avais eu accès à ces données émotionnelles pour les partager tout naturellement avec ma famille à la maison comme si nous avions tous été dans la même pièce ? Je pense que d'ici cinq ans, tous nos appareils auront une puce émotionnelle, et on ne se souviendra même plus du temps où, quand on fronçait les sourcils devant l'un d'eux, il ne nous retournait pas un, « hmm, ça ne t'a pas plu, hein ? » Notre plus grand défit est qu'il existe tellement d'applications à cette technologie. Mon équipe et moi nous rendons bien compte que nous ne pouvons pas tout faire nous-même et avons donc rendu cette technologie publique pour que d'autres puissent la développer et être créatifs. Nous sommes conscients des risques potentiels et des possibilités d'abus, mais personnellement, après avoir passé des années à faire ça, je pense que les bénéfices que l'humanité peut recevoir d'une technologie émotionnellement intelligente dépassent de loin les risques potentiels de mauvais usage. Je vous invite tous à prendre part à la discussion. Plus de gens seront au courant de cette technologie, mieux on pourra en définir ensemble les termes d'usage. Alors que de plus en plus de notre vie passe au digital, nous nous lançons dans une lutte perdue d'avance pour restreindre notre usage d'appareils et reconquérir nos émotions. Ce que j'essaie de faire au contraire est d'amener nos émotions dans notre technologie et la rendre ainsi plus réactive. Je veux que ces appareils qui nous séparaient les uns des autres, finalement nous rapprochent. En rendant notre technologie plus humaine, nous avons également l'opportunité de revoir la façon dont nous interagissons avec les machines, et par là-même la façon dont nous, humains, interagissons ensemble. Merci. (Applaudissements)