Return to Video

L'énigme de la frite bouclée : pourquoi les mentions « J'aime » des médias sociaux en disent plus qu'on ne pense.

  • 0:01 - 0:03
    Si vous vous souvenez
    des débuts de l'internet,
  • 0:03 - 0:05
    c'était vraiment très statique.
  • 0:05 - 0:07
    Vous pouviez aller en ligne,
    regarder des pages internet,
  • 0:07 - 0:10
    mises en ligne par des organisations
  • 0:10 - 0:11
    qui avaient des équipes pour le faire
  • 0:11 - 0:13
    ou par des individus
    qui s'y connaissaient
  • 0:13 - 0:15
    vraiment en nouvelles technologies.
  • 0:15 - 0:17
    Et avec la montée des médias sociaux
  • 0:17 - 0:19
    et des réseaux sociaux
    au début des années 2000,
  • 0:19 - 0:21
    la toile est devenue
  • 0:21 - 0:25
    un endroit où maintenant
    la majorité du contenu
  • 0:25 - 0:28
    que nous pouvons voir est mis en ligne
    par des utilisateurs moyens,
  • 0:28 - 0:31
    que ce soit des vidéos sur YouTube
    ou des articles de blogs
  • 0:31 - 0:34
    ou des critiques de produits
    ou des messages de médias sociaux.
  • 0:34 - 0:37
    C'est devenu
    cet endroit bien plus interactif,
  • 0:37 - 0:39
    où les gens interagissent
    les uns avec les autres,
  • 0:39 - 0:41
    ils commentent, ils partagent,
  • 0:41 - 0:43
    ils ne font pas que lire.
  • 0:43 - 0:44
    Il n'y a pas que Facebook évidemment,
  • 0:44 - 0:46
    mais c'est le plus important,
  • 0:46 - 0:47
    et il sert à illustrer le propos.
  • 0:47 - 0:51
    Facebook a 1,2 milliards
    d'utilisateurs par mois.
  • 0:51 - 0:53
    La moitié de la population internet
    de la Terre
  • 0:53 - 0:54
    utilise Facebook.
  • 0:54 - 0:56
    C'est un site, comme d'autres,
  • 0:56 - 1:00
    qui permet aux gens
    de se créer un personnage internet
  • 1:00 - 1:01
    sans grandes connaissances techniques,
  • 1:01 - 1:04
    et les gens y mettent
    une quantité énorme
  • 1:04 - 1:06
    de données personnelles.
  • 1:06 - 1:08
    On se retrouve donc
    avec des données comportementales,
  • 1:08 - 1:10
    préférentielles, démographiques
  • 1:10 - 1:12
    pour des centaines
    de millions de personnes,
  • 1:12 - 1:14
    pour la première fois dans l'histoire.
  • 1:14 - 1:17
    En tant qu'informaticienne,
    ça signifie que
  • 1:17 - 1:19
    j'ai pu construire des modèles
  • 1:19 - 1:21
    qui peuvent prédire
    toutes sortes d'attributs cachés
  • 1:21 - 1:23
    sur vous sans savoir que
  • 1:23 - 1:25
    vous partagez ce genre d'informations.
  • 1:25 - 1:28
    En tant que scientifiques,
    on utilise ça pour aider
  • 1:28 - 1:30
    les gens à mieux interagir en ligne,
  • 1:30 - 1:32
    mais il y a aussi des utilisations
    bien moins altruistes,
  • 1:32 - 1:35
    et le problème est que
    les utilisateurs ne comprennent pas
  • 1:35 - 1:37
    vraiment ces techniques
    ni comment elles fonctionnent,
  • 1:37 - 1:40
    et même s'ils les comprenaient,
    ils ne peuvent pas les contrôler.
  • 1:40 - 1:42
    Donc, j'aimerais
    vous parler aujourd'hui
  • 1:42 - 1:45
    de certaines de ces choses
    que l'on peut faire,
  • 1:45 - 1:47
    et donner une petite idée
    sur comment
  • 1:47 - 1:50
    redonner un peu
    de ce contrôle aux utilisateurs.
  • 1:50 - 1:52
    Voici Target, l'entreprise.
  • 1:52 - 1:53
    Je n'ai pas mis ce logo
  • 1:53 - 1:55
    sur le ventre
    de cette femme enceinte.
  • 1:55 - 1:57
    Vous avez peut-être
    entendu parler de cette histoire:
  • 1:57 - 1:59
    Target a envoyé
  • 1:59 - 2:02
    un prospectus
    à cette jeune fille de 15 ans
  • 2:02 - 2:03
    avec de la publicité
    et des ristournes
  • 2:03 - 2:06
    pour des biberons,
    des langes et des berceaux
  • 2:06 - 2:07
    deux semaines avant
    qu'elle ne dise à ces parents
  • 2:07 - 2:09
    qu'elle était enceinte.
  • 2:09 - 2:12
    Oui, le père n'était pas content.
  • 2:12 - 2:14
    Il a dit :
    « Comment Target a-t-il compris
  • 2:14 - 2:16
    que cette ado était enceinte
  • 2:16 - 2:18
    avant même qu'elle le dise
    à ces parents ? »
  • 2:18 - 2:20
    En fait, Target garde
    un historique d'achat
  • 2:20 - 2:22
    pour des centaines de milliers de clients
  • 2:22 - 2:25
    et ils calculent ce qu'ils appellent
    un score de grossesse,
  • 2:25 - 2:28
    qui ne dit pas simplement
    si une femme est enceinte ou pas,
  • 2:28 - 2:29
    mais aussi sa date d'accouchement.
  • 2:29 - 2:31
    Et ils calculent cela
  • 2:31 - 2:32
    pas en regardant ce qui est flagrant,
  • 2:32 - 2:35
    comme le fait qu'elle achète un berceau
    ou des vêtements pour bébés,
  • 2:35 - 2:38
    mais comme le fait
    qu'elle achète plus de vitamines
  • 2:38 - 2:39
    que d'habitude,
  • 2:39 - 2:41
    ou elle a acheté un sac
  • 2:41 - 2:43
    assez grand pour y mettre des langes.
  • 2:43 - 2:45
    Seuls, ces achats ne semblent pas
  • 2:45 - 2:47
    révéler grand chose,
  • 2:47 - 2:49
    mais c'est une suite
    de comportements qui,
  • 2:49 - 2:52
    quand vous le prenez dans un contexte
    de milliers d'autres personnes,
  • 2:52 - 2:55
    commence à donner
    une certaine idée.
  • 2:55 - 2:57
    C'est ce genre de choses-là
    que l'on fait
  • 2:57 - 2:59
    quand on prédit des choses
    sur vous sur les médias sociaux.
  • 2:59 - 3:02
    On va chercher
    des suites de comportements qui,
  • 3:02 - 3:05
    quand vous les détectez
    parmi des millions de gens,
  • 3:05 - 3:07
    nous permet de trouver
    des tas de choses.
  • 3:07 - 3:09
    Dans mon laboratoire,
    avec mes collègues,
  • 3:09 - 3:11
    nous avons développé
    des mécanismes qui nous permettent
  • 3:11 - 3:13
    de prédire certaines choses
    très précisément,
  • 3:13 - 3:14
    comme votre penchant politique,
  • 3:14 - 3:18
    votre score de personnalité,
    votre sexe, orientation sexuelle,
  • 3:18 - 3:21
    religion, âge, intelligence,
  • 3:21 - 3:22
    comme aussi
  • 3:22 - 3:24
    si vous faites confiance
    aux gens que vous connaissez
  • 3:24 - 3:26
    et si ces liens sont forts ou pas.
  • 3:26 - 3:28
    On peut savoir tout ça très facilement.
  • 3:28 - 3:30
    Et de nouveau,
    ça ne vient pas forcément
  • 3:30 - 3:32
    d'informations flagrantes.
  • 3:32 - 3:34
    Mon exemple préféré
    vient de cette étude
  • 3:34 - 3:36
    publiée il y a un an
  • 3:36 - 3:37
    dans les « Proceedings
    of the National Academies ».
  • 3:37 - 3:39
    Vous pouvez la trouver sur Google.
  • 3:39 - 3:41
    Quatre pages,
    très faciles à lire.
  • 3:41 - 3:44
    Ils n'ont regardé que
    les mentions « J'aime » de Facebook,
  • 3:44 - 3:45
    ce que vous pouvez aimer sur Facebook,
  • 3:45 - 3:48
    et utilisé ça pour prédire
    toutes ces caractéristiques,
  • 3:48 - 3:49
    et d'autres encore.
  • 3:49 - 3:52
    Et dans leur article,
    ils ont listé ces 5 mentions « J'aime »
  • 3:52 - 3:55
    les plus indicatives
    d'une grande intelligence.
  • 3:55 - 3:57
    Et parmi celles-là,
    il y avait un mention « J'aime »
  • 3:57 - 3:59
    pour les frites bouclées.
    (Rires)
  • 3:59 - 4:01
    C'est délicieux les frites bouclées,
  • 4:01 - 4:04
    mais les aimer ne veut pas
    nécessairement dire
  • 4:04 - 4:06
    que vous êtes plus
    intelligent que la moyenne.
  • 4:06 - 4:09
    Donc, comment cela se fait-il
    qu'un des indicateurs les plus importants
  • 4:09 - 4:11
    de votre intelligence
  • 4:11 - 4:12
    est le fait d'aimer cette page
  • 4:12 - 4:14
    alors que le contenu est sans rapport
  • 4:14 - 4:17
    avec l'attribut qu'il prédit ?
  • 4:17 - 4:19
    Nous avons dû étudier
  • 4:19 - 4:20
    toute une série de théories
  • 4:20 - 4:23
    pour comprendre
    comment on peut y arriver.
  • 4:23 - 4:26
    L'une d'elle est
    une théorie sociale appelée homophilie,
  • 4:26 - 4:29
    qui dit que les gens sont en général amis
    avec des gens comme eux.
  • 4:29 - 4:31
    Si vous êtes intelligents, vous allez
    être amis avec des gens intelligents,
  • 4:31 - 4:33
    et si vous êtes jeunes, vous allez
    être amis avec des jeunes,
  • 4:33 - 4:35
    C'est un fait averé
  • 4:35 - 4:37
    depuis des centaines d'années.
  • 4:37 - 4:38
    On sait aussi
  • 4:38 - 4:41
    comment les informations
    se répandent sur les réseaux.
  • 4:41 - 4:42
    En fait, les vidéos virales
  • 4:42 - 4:45
    ou les mentions « J'aime » sur Facebook
    ou d'autres informations
  • 4:45 - 4:47
    se répandent de la même façon
  • 4:47 - 4:49
    que les maladies.
  • 4:49 - 4:51
    C'est quelque chose
    qu'on étudie depuis longtemps.
  • 4:51 - 4:52
    On en a fait de bon modèles.
  • 4:52 - 4:55
    On peut donc mettre
    toutes ces choses ensemble
  • 4:55 - 4:58
    et voir pourquoi ce genre de choses arrive.
  • 4:58 - 4:59
    Donc, si je devais faire une hypothèse :
  • 4:59 - 5:03
    c'est quelqu'un d'intelligent
    qui a commencé cette page,
  • 5:03 - 5:05
    ou qu'une des premières personnes
    qui l'a aimée
  • 5:05 - 5:06
    avait un haut score d'intelligence.
  • 5:06 - 5:09
    Et il l'a aimé, et ses amis l'ont vu,
  • 5:09 - 5:12
    et par homophilie,
    on sait qu'il a des amis intelligents,
  • 5:12 - 5:15
    et ça s'est répandu chez eux,
    et ils l'ont aimé,
  • 5:15 - 5:16
    et ils avaient des amis intelligents,
  • 5:16 - 5:17
    et ça s'est répandu chez eux,
  • 5:17 - 5:19
    et comme ça à travers le réseau,
  • 5:19 - 5:21
    chez plein de gens intelligents,
  • 5:21 - 5:23
    et donc à la fin, l'action
  • 5:23 - 5:26
    d'aimer la page des frites bouclées
  • 5:26 - 5:28
    est indicative d'une grande intelligence,
  • 5:28 - 5:29
    pas à cause du contenu,
  • 5:29 - 5:32
    mais à cause de l'action même d'aimer
  • 5:32 - 5:34
    qui reflète les attributs communs
  • 5:34 - 5:36
    à tous ces autres qui l'ont aimé aussi.
  • 5:36 - 5:39
    Ça à l'air très compliqué, non ?
  • 5:39 - 5:41
    Ce n'est pas facile à expliquer
  • 5:41 - 5:44
    à un utilisateur moyen,
    et même en le faisant,
  • 5:44 - 5:46
    que peut-il y faire ?
  • 5:46 - 5:48
    Comment pouvez-vous savoir
    que vous avez aimé quelque chose
  • 5:48 - 5:50
    qui indique un trait qui pour vous
  • 5:50 - 5:53
    n'a rien à voir avec le contenu
    de ce que vous avez aimé ?
  • 5:53 - 5:56
    Et les utilisateurs
    n'ont aucun pouvoir
  • 5:56 - 5:58
    à contrôler
    comment ces données sont utilisées.
  • 5:58 - 6:01
    Et pour moi,
    c'est un vrai problème pour le futur.
  • 6:01 - 6:03
    Il y a, je pense, plusieurs chemins
  • 6:03 - 6:04
    que nous pouvons regarder
  • 6:04 - 6:06
    si nous voulons donner
    un peu de contrôle aux utilisateurs
  • 6:06 - 6:08
    sur l'utilisation de ces données,
  • 6:08 - 6:10
    parce qu'elles ne vont pas
    toujours être utilisées
  • 6:10 - 6:11
    à leur avantage.
  • 6:11 - 6:13
    Un exemple
    que je donne souvent est que
  • 6:13 - 6:14
    si un jour ça m'ennuie
    d'être professeur,
  • 6:14 - 6:16
    je lancerai une entreprise
  • 6:16 - 6:17
    qui prédit tous ces attributs
  • 6:17 - 6:19
    et des choses comme le fait
    de bien travailler en équipe
  • 6:19 - 6:22
    et si vous prenez des drogues
    et êtes alcoolique.
  • 6:22 - 6:23
    Nous savons comment prédire tout ça.
  • 6:23 - 6:25
    Et je vais vendre ces rapports
  • 6:25 - 6:27
    à de grandes entreprises
    et des compagnies R.H.
  • 6:27 - 6:29
    qui voudraient vous engager.
  • 6:29 - 6:31
    On peut faire ça maintenant.
  • 6:31 - 6:32
    Je pourrais commencer ça demain,
  • 6:32 - 6:34
    et vous n'auriez
    absolument aucun contrôle
  • 6:34 - 6:36
    sur le fait que j'utiliserais
    vos données comme ça.
  • 6:36 - 6:39
    Pour moi, ça c'est un problème.
  • 6:39 - 6:41
    Donc, un des chemins
    que l'on pourrait prendre
  • 6:41 - 6:43
    est celui de la politique et de la loi.
  • 6:43 - 6:46
    Et ça serait sans doute
    le chemin le plus efficace,
  • 6:46 - 6:49
    mais le problème est
    qu'il faudrait le faire vraiment.
  • 6:49 - 6:51
    Connaissant les procédures politiques
  • 6:51 - 6:54
    ça m'étonnerait vraiment
  • 6:54 - 6:55
    qu'on arrive à ce
    que des représentants
  • 6:55 - 6:57
    s'asseyent,
    prennent connaissance de ceci,
  • 6:57 - 6:59
    et promulguent des changements
    de grande envergure
  • 6:59 - 7:02
    sur les lois
    sur la propriété intellectuelle aux USA
  • 7:02 - 7:04
    pour que les utilisateurs
    contrôlent leurs données.
  • 7:04 - 7:05
    On pourrait prendre
    le chemin politique,
  • 7:05 - 7:07
    où les compagnies
    de médias sociaux diraient :
  • 7:07 - 7:08
    « Vous savez quoi ?
    Vos données sont à vous.
  • 7:08 - 7:11
    C'est vous qui contrôlez
    comment elles sont utilisées. »
  • 7:11 - 7:13
    Le problème est que
    les modèles de revenus
  • 7:13 - 7:14
    de la plupart de ces entreprises
  • 7:14 - 7:18
    dépendent du partage et de l'exploitation
    des données des utilisateurs.
  • 7:18 - 7:20
    On dit de Facebook,
    que les utilisateurs
  • 7:20 - 7:23
    ne sont pas les clients,
    ils sont le produit.
  • 7:23 - 7:25
    Comment demander à une entreprise
  • 7:25 - 7:28
    de redonner le contrôle de son capital
  • 7:28 - 7:29
    aux usagers ?
  • 7:29 - 7:31
    C'est possible, mais je ne pense pas
  • 7:31 - 7:33
    que ça se réalise rapidement.
  • 7:33 - 7:35
    L'autre chemin
  • 7:35 - 7:37
    que l'on pourrait prendre et
    qui serait aussi efficace
  • 7:37 - 7:38
    est plus scientifique.
  • 7:38 - 7:41
    C'est la science qui
    nous a permis de développer
  • 7:41 - 7:43
    ces mécanismes calculant
  • 7:43 - 7:45
    ces données personnelles.
  • 7:45 - 7:47
    Et ce sont des recherches similaires
  • 7:47 - 7:48
    qu'il va falloir faire
  • 7:48 - 7:51
    si nous voulons développer
    des mécanismes
  • 7:51 - 7:52
    qui peuvent dire aux usagers :
  • 7:52 - 7:54
    « Tu as fais ça, voici le risque encouru. »
  • 7:54 - 7:56
    En aimant cette page Facebook,
  • 7:56 - 7:59
    ou en partageant
    cette information personnelle,
  • 7:59 - 8:00
    tu viens de m'aider
  • 8:00 - 8:03
    à pouvoir prédire le fait
    que tu te drogues ou pas
  • 8:03 - 8:05
    ou que tu t'entendes bien
    avec tes collègues de travail.
  • 8:05 - 8:07
    Et ça peux affecter le fait que
  • 8:07 - 8:09
    les gens veulent partager
    quelque chose,
  • 8:09 - 8:12
    le garder privé,
    ou ne pas le mettre en ligne du tout.
  • 8:12 - 8:14
    On peut aussi décider de
  • 8:14 - 8:16
    laisser les gens encoder
    les données qu'ils mettent en ligne,
  • 8:16 - 8:18
    pour qu'elles soient
    invisibles et inutiles
  • 8:18 - 8:20
    pour des sites comme Facebook
  • 8:20 - 8:22
    ou des tiers qui y ont accès,
  • 8:22 - 8:25
    mais que seuls des utilisateurs choisis
  • 8:25 - 8:28
    peuvent y accéder.
  • 8:28 - 8:30
    Ce sont des recherches
    très intéressantes
  • 8:30 - 8:32
    d'un point de vue intellectuel,
  • 8:32 - 8:34
    et donc les scientifiques vont les faire.
  • 8:34 - 8:37
    Ça nous donne aussi
    un avantage sur le côté légal.
  • 8:37 - 8:39
    Un des problèmes
    dont parlent les gens
  • 8:39 - 8:41
    quand je lance ce sujet est, ils disent,
  • 8:41 - 8:43
    que si les gens gardent
    toutes ces données privées,
  • 8:43 - 8:45
    toutes ces méthodes
    qu'on a développées
  • 8:45 - 8:48
    pour prédire leurs traits
    ne vont plus fonctionner.
  • 8:48 - 8:52
    Et je réponds : « Absolument,
    et pour moi, ça serait un succès,
  • 8:52 - 8:53
    parce qu'en tant que scientifique,
  • 8:53 - 8:57
    mon objectif n'est pas de déduire
    des informations sur les utilisateurs,
  • 8:57 - 9:00
    mais d'améliorer la façon
    dont les gens interagissent en ligne.
  • 9:00 - 9:03
    Et parfois ça implique
    de déduire des choses sur eux,
  • 9:03 - 9:06
    mais s'ils ne veulent pas
    que j'utilise ces données,
  • 9:06 - 9:08
    ils devraient avoir le droit de le faire.
  • 9:08 - 9:11
    Je veux que les utilisateurs
    soient informés et consentants
  • 9:11 - 9:13
    sur les outils que nous développons.
  • 9:13 - 9:16
    Donc, encourager cette science
  • 9:16 - 9:17
    et ses chercheurs
  • 9:17 - 9:20
    qui veulent rendre un peu
    de ce contrôle aux utilisateurs
  • 9:20 - 9:23
    et le prendre à ces compagnies
    de médias sociaux
  • 9:23 - 9:25
    veux dire qu'aller de l'avant,
    alors que ces outils se développent
  • 9:25 - 9:27
    et s'améliorent,
  • 9:27 - 9:28
    veux dire que l'on va avoir
    des utilisateurs
  • 9:28 - 9:30
    éduqués et responsabilisés,
  • 9:30 - 9:31
    et je crois qu'on est tous d'accord
  • 9:31 - 9:33
    que c'est de cette façon-là
    que l'on doit avancer.
  • 9:33 - 9:36
    Merci.
  • 9:36 - 9:39
    (Applaudissements)
Title:
L'énigme de la frite bouclée : pourquoi les mentions « J'aime » des médias sociaux en disent plus qu'on ne pense.
Speaker:
Jennifer Golbeck
Description:

On peut faire beaucoup de choses avec les données internet. Mais savez-vous que les informaticiens ont déterminé qu'aimer une page Facebook sur les frites bouclées veut aussi dire que vous êtes intelligent ? Vraiment. L'informaticienne Jennifer Golbeck explique comment c'est arrivé, comment certaines applications de la technologie ne sont pas aussi bénignes - et pourquoi elle pense que nous devrions rendre une partie de ce contrôle des informations à leurs propriétaires.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

French subtitles

Revisions