L'énigme de la frite bouclée : pourquoi les mentions « J'aime » des médias sociaux en disent plus qu'on ne pense.
-
0:01 - 0:03Si vous vous souvenez
des débuts de l'internet, -
0:03 - 0:05c'était vraiment très statique.
-
0:05 - 0:07Vous pouviez aller en ligne,
regarder des pages internet, -
0:07 - 0:10mises en ligne par des organisations
-
0:10 - 0:11qui avaient des équipes pour le faire
-
0:11 - 0:13ou par des individus
qui s'y connaissaient -
0:13 - 0:15vraiment en nouvelles technologies.
-
0:15 - 0:17Et avec la montée des médias sociaux
-
0:17 - 0:19et des réseaux sociaux
au début des années 2000, -
0:19 - 0:21la toile est devenue
-
0:21 - 0:25un endroit où maintenant
la majorité du contenu -
0:25 - 0:28que nous pouvons voir est mis en ligne
par des utilisateurs moyens, -
0:28 - 0:31que ce soit des vidéos sur YouTube
ou des articles de blogs -
0:31 - 0:34ou des critiques de produits
ou des messages de médias sociaux. -
0:34 - 0:37C'est devenu
cet endroit bien plus interactif, -
0:37 - 0:39où les gens interagissent
les uns avec les autres, -
0:39 - 0:41ils commentent, ils partagent,
-
0:41 - 0:43ils ne font pas que lire.
-
0:43 - 0:44Il n'y a pas que Facebook évidemment,
-
0:44 - 0:46mais c'est le plus important,
-
0:46 - 0:47et il sert à illustrer le propos.
-
0:47 - 0:51Facebook a 1,2 milliards
d'utilisateurs par mois. -
0:51 - 0:53La moitié de la population internet
de la Terre -
0:53 - 0:54utilise Facebook.
-
0:54 - 0:56C'est un site, comme d'autres,
-
0:56 - 1:00qui permet aux gens
de se créer un personnage internet -
1:00 - 1:01sans grandes connaissances techniques,
-
1:01 - 1:04et les gens y mettent
une quantité énorme -
1:04 - 1:06de données personnelles.
-
1:06 - 1:08On se retrouve donc
avec des données comportementales, -
1:08 - 1:10préférentielles, démographiques
-
1:10 - 1:12pour des centaines
de millions de personnes, -
1:12 - 1:14pour la première fois dans l'histoire.
-
1:14 - 1:17En tant qu'informaticienne,
ça signifie que -
1:17 - 1:19j'ai pu construire des modèles
-
1:19 - 1:21qui peuvent prédire
toutes sortes d'attributs cachés -
1:21 - 1:23sur vous sans savoir que
-
1:23 - 1:25vous partagez ce genre d'informations.
-
1:25 - 1:28En tant que scientifiques,
on utilise ça pour aider -
1:28 - 1:30les gens à mieux interagir en ligne,
-
1:30 - 1:32mais il y a aussi des utilisations
bien moins altruistes, -
1:32 - 1:35et le problème est que
les utilisateurs ne comprennent pas -
1:35 - 1:37vraiment ces techniques
ni comment elles fonctionnent, -
1:37 - 1:40et même s'ils les comprenaient,
ils ne peuvent pas les contrôler. -
1:40 - 1:42Donc, j'aimerais
vous parler aujourd'hui -
1:42 - 1:45de certaines de ces choses
que l'on peut faire, -
1:45 - 1:47et donner une petite idée
sur comment -
1:47 - 1:50redonner un peu
de ce contrôle aux utilisateurs. -
1:50 - 1:52Voici Target, l'entreprise.
-
1:52 - 1:53Je n'ai pas mis ce logo
-
1:53 - 1:55sur le ventre
de cette femme enceinte. -
1:55 - 1:57Vous avez peut-être
entendu parler de cette histoire: -
1:57 - 1:59Target a envoyé
-
1:59 - 2:02un prospectus
à cette jeune fille de 15 ans -
2:02 - 2:03avec de la publicité
et des ristournes -
2:03 - 2:06pour des biberons,
des langes et des berceaux -
2:06 - 2:07deux semaines avant
qu'elle ne dise à ces parents -
2:07 - 2:09qu'elle était enceinte.
-
2:09 - 2:12Oui, le père n'était pas content.
-
2:12 - 2:14Il a dit :
« Comment Target a-t-il compris -
2:14 - 2:16que cette ado était enceinte
-
2:16 - 2:18avant même qu'elle le dise
à ces parents ? » -
2:18 - 2:20En fait, Target garde
un historique d'achat -
2:20 - 2:22pour des centaines de milliers de clients
-
2:22 - 2:25et ils calculent ce qu'ils appellent
un score de grossesse, -
2:25 - 2:28qui ne dit pas simplement
si une femme est enceinte ou pas, -
2:28 - 2:29mais aussi sa date d'accouchement.
-
2:29 - 2:31Et ils calculent cela
-
2:31 - 2:32pas en regardant ce qui est flagrant,
-
2:32 - 2:35comme le fait qu'elle achète un berceau
ou des vêtements pour bébés, -
2:35 - 2:38mais comme le fait
qu'elle achète plus de vitamines -
2:38 - 2:39que d'habitude,
-
2:39 - 2:41ou elle a acheté un sac
-
2:41 - 2:43assez grand pour y mettre des langes.
-
2:43 - 2:45Seuls, ces achats ne semblent pas
-
2:45 - 2:47révéler grand chose,
-
2:47 - 2:49mais c'est une suite
de comportements qui, -
2:49 - 2:52quand vous le prenez dans un contexte
de milliers d'autres personnes, -
2:52 - 2:55commence à donner
une certaine idée. -
2:55 - 2:57C'est ce genre de choses-là
que l'on fait -
2:57 - 2:59quand on prédit des choses
sur vous sur les médias sociaux. -
2:59 - 3:02On va chercher
des suites de comportements qui, -
3:02 - 3:05quand vous les détectez
parmi des millions de gens, -
3:05 - 3:07nous permet de trouver
des tas de choses. -
3:07 - 3:09Dans mon laboratoire,
avec mes collègues, -
3:09 - 3:11nous avons développé
des mécanismes qui nous permettent -
3:11 - 3:13de prédire certaines choses
très précisément, -
3:13 - 3:14comme votre penchant politique,
-
3:14 - 3:18votre score de personnalité,
votre sexe, orientation sexuelle, -
3:18 - 3:21religion, âge, intelligence,
-
3:21 - 3:22comme aussi
-
3:22 - 3:24si vous faites confiance
aux gens que vous connaissez -
3:24 - 3:26et si ces liens sont forts ou pas.
-
3:26 - 3:28On peut savoir tout ça très facilement.
-
3:28 - 3:30Et de nouveau,
ça ne vient pas forcément -
3:30 - 3:32d'informations flagrantes.
-
3:32 - 3:34Mon exemple préféré
vient de cette étude -
3:34 - 3:36publiée il y a un an
-
3:36 - 3:37dans les « Proceedings
of the National Academies ». -
3:37 - 3:39Vous pouvez la trouver sur Google.
-
3:39 - 3:41Quatre pages,
très faciles à lire. -
3:41 - 3:44Ils n'ont regardé que
les mentions « J'aime » de Facebook, -
3:44 - 3:45ce que vous pouvez aimer sur Facebook,
-
3:45 - 3:48et utilisé ça pour prédire
toutes ces caractéristiques, -
3:48 - 3:49et d'autres encore.
-
3:49 - 3:52Et dans leur article,
ils ont listé ces 5 mentions « J'aime » -
3:52 - 3:55les plus indicatives
d'une grande intelligence. -
3:55 - 3:57Et parmi celles-là,
il y avait un mention « J'aime » -
3:57 - 3:59pour les frites bouclées.
(Rires) -
3:59 - 4:01C'est délicieux les frites bouclées,
-
4:01 - 4:04mais les aimer ne veut pas
nécessairement dire -
4:04 - 4:06que vous êtes plus
intelligent que la moyenne. -
4:06 - 4:09Donc, comment cela se fait-il
qu'un des indicateurs les plus importants -
4:09 - 4:11de votre intelligence
-
4:11 - 4:12est le fait d'aimer cette page
-
4:12 - 4:14alors que le contenu est sans rapport
-
4:14 - 4:17avec l'attribut qu'il prédit ?
-
4:17 - 4:19Nous avons dû étudier
-
4:19 - 4:20toute une série de théories
-
4:20 - 4:23pour comprendre
comment on peut y arriver. -
4:23 - 4:26L'une d'elle est
une théorie sociale appelée homophilie, -
4:26 - 4:29qui dit que les gens sont en général amis
avec des gens comme eux. -
4:29 - 4:31Si vous êtes intelligents, vous allez
être amis avec des gens intelligents, -
4:31 - 4:33et si vous êtes jeunes, vous allez
être amis avec des jeunes, -
4:33 - 4:35C'est un fait averé
-
4:35 - 4:37depuis des centaines d'années.
-
4:37 - 4:38On sait aussi
-
4:38 - 4:41comment les informations
se répandent sur les réseaux. -
4:41 - 4:42En fait, les vidéos virales
-
4:42 - 4:45ou les mentions « J'aime » sur Facebook
ou d'autres informations -
4:45 - 4:47se répandent de la même façon
-
4:47 - 4:49que les maladies.
-
4:49 - 4:51C'est quelque chose
qu'on étudie depuis longtemps. -
4:51 - 4:52On en a fait de bon modèles.
-
4:52 - 4:55On peut donc mettre
toutes ces choses ensemble -
4:55 - 4:58et voir pourquoi ce genre de choses arrive.
-
4:58 - 4:59Donc, si je devais faire une hypothèse :
-
4:59 - 5:03c'est quelqu'un d'intelligent
qui a commencé cette page, -
5:03 - 5:05ou qu'une des premières personnes
qui l'a aimée -
5:05 - 5:06avait un haut score d'intelligence.
-
5:06 - 5:09Et il l'a aimé, et ses amis l'ont vu,
-
5:09 - 5:12et par homophilie,
on sait qu'il a des amis intelligents, -
5:12 - 5:15et ça s'est répandu chez eux,
et ils l'ont aimé, -
5:15 - 5:16et ils avaient des amis intelligents,
-
5:16 - 5:17et ça s'est répandu chez eux,
-
5:17 - 5:19et comme ça à travers le réseau,
-
5:19 - 5:21chez plein de gens intelligents,
-
5:21 - 5:23et donc à la fin, l'action
-
5:23 - 5:26d'aimer la page des frites bouclées
-
5:26 - 5:28est indicative d'une grande intelligence,
-
5:28 - 5:29pas à cause du contenu,
-
5:29 - 5:32mais à cause de l'action même d'aimer
-
5:32 - 5:34qui reflète les attributs communs
-
5:34 - 5:36à tous ces autres qui l'ont aimé aussi.
-
5:36 - 5:39Ça à l'air très compliqué, non ?
-
5:39 - 5:41Ce n'est pas facile à expliquer
-
5:41 - 5:44à un utilisateur moyen,
et même en le faisant, -
5:44 - 5:46que peut-il y faire ?
-
5:46 - 5:48Comment pouvez-vous savoir
que vous avez aimé quelque chose -
5:48 - 5:50qui indique un trait qui pour vous
-
5:50 - 5:53n'a rien à voir avec le contenu
de ce que vous avez aimé ? -
5:53 - 5:56Et les utilisateurs
n'ont aucun pouvoir -
5:56 - 5:58à contrôler
comment ces données sont utilisées. -
5:58 - 6:01Et pour moi,
c'est un vrai problème pour le futur. -
6:01 - 6:03Il y a, je pense, plusieurs chemins
-
6:03 - 6:04que nous pouvons regarder
-
6:04 - 6:06si nous voulons donner
un peu de contrôle aux utilisateurs -
6:06 - 6:08sur l'utilisation de ces données,
-
6:08 - 6:10parce qu'elles ne vont pas
toujours être utilisées -
6:10 - 6:11à leur avantage.
-
6:11 - 6:13Un exemple
que je donne souvent est que -
6:13 - 6:14si un jour ça m'ennuie
d'être professeur, -
6:14 - 6:16je lancerai une entreprise
-
6:16 - 6:17qui prédit tous ces attributs
-
6:17 - 6:19et des choses comme le fait
de bien travailler en équipe -
6:19 - 6:22et si vous prenez des drogues
et êtes alcoolique. -
6:22 - 6:23Nous savons comment prédire tout ça.
-
6:23 - 6:25Et je vais vendre ces rapports
-
6:25 - 6:27à de grandes entreprises
et des compagnies R.H. -
6:27 - 6:29qui voudraient vous engager.
-
6:29 - 6:31On peut faire ça maintenant.
-
6:31 - 6:32Je pourrais commencer ça demain,
-
6:32 - 6:34et vous n'auriez
absolument aucun contrôle -
6:34 - 6:36sur le fait que j'utiliserais
vos données comme ça. -
6:36 - 6:39Pour moi, ça c'est un problème.
-
6:39 - 6:41Donc, un des chemins
que l'on pourrait prendre -
6:41 - 6:43est celui de la politique et de la loi.
-
6:43 - 6:46Et ça serait sans doute
le chemin le plus efficace, -
6:46 - 6:49mais le problème est
qu'il faudrait le faire vraiment. -
6:49 - 6:51Connaissant les procédures politiques
-
6:51 - 6:54ça m'étonnerait vraiment
-
6:54 - 6:55qu'on arrive à ce
que des représentants -
6:55 - 6:57s'asseyent,
prennent connaissance de ceci, -
6:57 - 6:59et promulguent des changements
de grande envergure -
6:59 - 7:02sur les lois
sur la propriété intellectuelle aux USA -
7:02 - 7:04pour que les utilisateurs
contrôlent leurs données. -
7:04 - 7:05On pourrait prendre
le chemin politique, -
7:05 - 7:07où les compagnies
de médias sociaux diraient : -
7:07 - 7:08« Vous savez quoi ?
Vos données sont à vous. -
7:08 - 7:11C'est vous qui contrôlez
comment elles sont utilisées. » -
7:11 - 7:13Le problème est que
les modèles de revenus -
7:13 - 7:14de la plupart de ces entreprises
-
7:14 - 7:18dépendent du partage et de l'exploitation
des données des utilisateurs. -
7:18 - 7:20On dit de Facebook,
que les utilisateurs -
7:20 - 7:23ne sont pas les clients,
ils sont le produit. -
7:23 - 7:25Comment demander à une entreprise
-
7:25 - 7:28de redonner le contrôle de son capital
-
7:28 - 7:29aux usagers ?
-
7:29 - 7:31C'est possible, mais je ne pense pas
-
7:31 - 7:33que ça se réalise rapidement.
-
7:33 - 7:35L'autre chemin
-
7:35 - 7:37que l'on pourrait prendre et
qui serait aussi efficace -
7:37 - 7:38est plus scientifique.
-
7:38 - 7:41C'est la science qui
nous a permis de développer -
7:41 - 7:43ces mécanismes calculant
-
7:43 - 7:45ces données personnelles.
-
7:45 - 7:47Et ce sont des recherches similaires
-
7:47 - 7:48qu'il va falloir faire
-
7:48 - 7:51si nous voulons développer
des mécanismes -
7:51 - 7:52qui peuvent dire aux usagers :
-
7:52 - 7:54« Tu as fais ça, voici le risque encouru. »
-
7:54 - 7:56En aimant cette page Facebook,
-
7:56 - 7:59ou en partageant
cette information personnelle, -
7:59 - 8:00tu viens de m'aider
-
8:00 - 8:03à pouvoir prédire le fait
que tu te drogues ou pas -
8:03 - 8:05ou que tu t'entendes bien
avec tes collègues de travail. -
8:05 - 8:07Et ça peux affecter le fait que
-
8:07 - 8:09les gens veulent partager
quelque chose, -
8:09 - 8:12le garder privé,
ou ne pas le mettre en ligne du tout. -
8:12 - 8:14On peut aussi décider de
-
8:14 - 8:16laisser les gens encoder
les données qu'ils mettent en ligne, -
8:16 - 8:18pour qu'elles soient
invisibles et inutiles -
8:18 - 8:20pour des sites comme Facebook
-
8:20 - 8:22ou des tiers qui y ont accès,
-
8:22 - 8:25mais que seuls des utilisateurs choisis
-
8:25 - 8:28peuvent y accéder.
-
8:28 - 8:30Ce sont des recherches
très intéressantes -
8:30 - 8:32d'un point de vue intellectuel,
-
8:32 - 8:34et donc les scientifiques vont les faire.
-
8:34 - 8:37Ça nous donne aussi
un avantage sur le côté légal. -
8:37 - 8:39Un des problèmes
dont parlent les gens -
8:39 - 8:41quand je lance ce sujet est, ils disent,
-
8:41 - 8:43que si les gens gardent
toutes ces données privées, -
8:43 - 8:45toutes ces méthodes
qu'on a développées -
8:45 - 8:48pour prédire leurs traits
ne vont plus fonctionner. -
8:48 - 8:52Et je réponds : « Absolument,
et pour moi, ça serait un succès, -
8:52 - 8:53parce qu'en tant que scientifique,
-
8:53 - 8:57mon objectif n'est pas de déduire
des informations sur les utilisateurs, -
8:57 - 9:00mais d'améliorer la façon
dont les gens interagissent en ligne. -
9:00 - 9:03Et parfois ça implique
de déduire des choses sur eux, -
9:03 - 9:06mais s'ils ne veulent pas
que j'utilise ces données, -
9:06 - 9:08ils devraient avoir le droit de le faire.
-
9:08 - 9:11Je veux que les utilisateurs
soient informés et consentants -
9:11 - 9:13sur les outils que nous développons.
-
9:13 - 9:16Donc, encourager cette science
-
9:16 - 9:17et ses chercheurs
-
9:17 - 9:20qui veulent rendre un peu
de ce contrôle aux utilisateurs -
9:20 - 9:23et le prendre à ces compagnies
de médias sociaux -
9:23 - 9:25veux dire qu'aller de l'avant,
alors que ces outils se développent -
9:25 - 9:27et s'améliorent,
-
9:27 - 9:28veux dire que l'on va avoir
des utilisateurs -
9:28 - 9:30éduqués et responsabilisés,
-
9:30 - 9:31et je crois qu'on est tous d'accord
-
9:31 - 9:33que c'est de cette façon-là
que l'on doit avancer. -
9:33 - 9:36Merci.
-
9:36 - 9:39(Applaudissements)
- Title:
- L'énigme de la frite bouclée : pourquoi les mentions « J'aime » des médias sociaux en disent plus qu'on ne pense.
- Speaker:
- Jennifer Golbeck
- Description:
-
On peut faire beaucoup de choses avec les données internet. Mais savez-vous que les informaticiens ont déterminé qu'aimer une page Facebook sur les frites bouclées veut aussi dire que vous êtes intelligent ? Vraiment. L'informaticienne Jennifer Golbeck explique comment c'est arrivé, comment certaines applications de la technologie ne sont pas aussi bénignes - et pourquoi elle pense que nous devrions rendre une partie de ce contrôle des informations à leurs propriétaires.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Anna Cristiana Minoli approved French subtitles for Your social media "likes" expose more than you think | ||
Anna Cristiana Minoli edited French subtitles for Your social media "likes" expose more than you think | ||
Anna Cristiana Minoli edited French subtitles for Your social media "likes" expose more than you think | ||
Anna Cristiana Minoli edited French subtitles for Your social media "likes" expose more than you think | ||
Nhu PHAM accepted French subtitles for Your social media "likes" expose more than you think | ||
Nhu PHAM edited French subtitles for Your social media "likes" expose more than you think | ||
Nhu PHAM edited French subtitles for Your social media "likes" expose more than you think | ||
Nhu PHAM edited French subtitles for Your social media "likes" expose more than you think |