Return to Video

L'étrangeté d'échelle chez Twitter

  • 0:01 - 0:02
    Mon travail chez Twitter ?
  • 0:02 - 0:04
    Donner confiance aux utilisateurs,
  • 0:04 - 0:07
    protéger leurs droits et
    garantir leur sécurité.
  • 0:07 - 0:12
    Les protéger des autres,
    mais parfois aussi d'eux-mêmes.
  • 0:12 - 0:17
    Parlons « proportions » et voyons
    à quelle échelle se situe Twitter.
  • 0:17 - 0:19
    En janvier 2009,
  • 0:19 - 0:23
    plus de deux millions de tweets
    passaient chaque jour
  • 0:23 - 0:24
    par la plateforme de partage.
  • 0:24 - 0:30
    En janvier 2014 :
    plus de 500 millions.
  • 0:30 - 0:33
    Ce qui fait environ
    deux millions de tweets
  • 0:33 - 0:35
    toutes les 6 minutes.
  • 0:35 - 0:42
    Ça correspond à une augmentation
    de 24 900%.
  • 0:42 - 0:45
    L'essentiel de l'activité sur Twitter
  • 0:45 - 0:49
    est totalement inoffensive.
    Il n'y a aucun facteur de risque.
  • 0:49 - 0:54
    Ma tâche consiste à éliminer ou prévenir
    toute activité potentiellement nuisible.
  • 0:54 - 0:56
    Ça a l'air évident, non ?
  • 0:56 - 1:00
    Vous pourriez même penser que
    c'est facile, puisque
  • 1:00 - 1:04
    la vaste majorité de l'activité
    sur Twitter ne met personne en danger.
  • 1:04 - 1:06
    Pourquoi passer tant de temps
  • 1:06 - 1:09
    à chercher
    des catastrophes potentielles
  • 1:09 - 1:11
    au beau milieu d'activités anodines ?
  • 1:11 - 1:14
    A l'échelle de Twitter,
  • 1:14 - 1:17
    une probabilité
    d'une chance sur un million,
  • 1:17 - 1:22
    ça correspond à
    500 événements par jour.
  • 1:22 - 1:24
    D'autres entreprises aussi
    fonctionnent à cette échelle.
  • 1:24 - 1:26
    Pour nous, les cas limites,
  • 1:26 - 1:30
    ces situations qui ont peu de chances
    de se produire,
  • 1:30 - 1:32
    c'est la norme.
  • 1:32 - 1:36
    Disons que 99,999 %
    des tweets
  • 1:36 - 1:39
    ne présentent aucun risque,
    aucune menace.
  • 1:39 - 1:42
    Les gens illustrent leurs voyages,
    comme par exemple
  • 1:42 - 1:44
    ce récif australien
    en forme de cœur
  • 1:44 - 1:48
    ou ils tweetent à propos d'un concert
    auquel ils assistent
  • 1:48 - 1:52
    ou ils partagent des photos
    d'adorables bébés animaux.
  • 1:52 - 1:56
    Si l'on écarte ces 99,999%,
  • 1:56 - 2:00
    le minuscule pourcentage
    de tweets restant
  • 2:00 - 2:02
    correspond environ à
  • 2:02 - 2:06
    150 000 messages par mois.
  • 2:06 - 2:08
    L'envergure de la chose
  • 2:08 - 2:11
    en fait un vrai défi de gestion.
  • 2:11 - 2:15
    Vous savez ce qui rend mon travail
    encore plus difficile ?
  • 2:15 - 2:20
    Les gens font des choses
    vraiment bizarres.
  • 2:20 - 2:22
    (Rires)
  • 2:22 - 2:24
    Je dois comprendre ce qu'ils font
    et pourquoi,
  • 2:24 - 2:26
    et évaluer la présence de risques.
  • 2:26 - 2:29
    Souvent en dehors de tout contexte
  • 2:29 - 2:30
    ou de la moindre information...
  • 2:30 - 2:33
    Voici quelques exemples
  • 2:33 - 2:35
    auxquels j'ai été confrontée à Twitter
  • 2:35 - 2:36
    - des exemples véridiques -
  • 2:36 - 2:39
    des situations
    qui avaient l'air claires,
  • 2:39 - 2:40
    mais qui en fin de compte,
  • 2:40 - 2:42
    ne l'étaient pas tellement.
  • 2:42 - 2:44
    Certains détails ont été modifiés
  • 2:44 - 2:49
    pour garantir l'anonymat
    des innocents et des coupables.
  • 2:49 - 2:52
    Commençons doucement.
  • 2:52 - 2:53
    [« Yo bitch »]
  • 2:53 - 2:57
    En voyant un tweet
    qui ne dit que ça,
  • 2:57 - 3:00
    on se dit :
    « Ça va trop loin. »
  • 3:00 - 3:03
    Après tout, qui voudrait recevoir un
  • 3:03 - 3:05
    « Yo, bitch. »
  • 3:05 - 3:10
    Mais j'essaie de me tenir au courant
  • 3:10 - 3:12
    des dernières tendances et
    expressions virales
  • 3:12 - 3:15
    donc je sais que « yo, bitch »
  • 3:15 - 3:18
    est une façon courante
    de saluer ses amis,
  • 3:18 - 3:22
    mais aussi une référence
    à la série « Breaking Bad ».
  • 3:22 - 3:25
    Je dois admettre que
    je ne m'attendais pas
  • 3:25 - 3:28
    à tomber sur une 4ème utilisation.
  • 3:28 - 3:31
    Il se trouve que les gens
    l'utilisent aussi sur Twitter
  • 3:31 - 3:34
    quand ils se prennent pour des chiens.
  • 3:34 - 3:39
    (Rires)
  • 3:39 - 3:41
    Et en fait, dans ce cas-là,
  • 3:41 - 3:43
    il n'y a rien de mal,
  • 3:43 - 3:46
    techniquement, c'est même
    tout à fait approprié !
  • 3:46 - 3:49
    (Rires)
  • 3:49 - 3:51
    Donc, déterminer
    le caractère tendancieux
  • 3:51 - 3:52
    de quelque chose sans contexte,
  • 3:52 - 3:54
    n'est pas une mince affaire.
  • 3:54 - 3:57
    Quant au courrier indésirable,
  • 3:57 - 3:59
    voici l'exemple d'un compte
  • 3:59 - 4:00
    pratiquant ce type d'envois :
  • 4:00 - 4:02
    il envoie exactement
    le même message
  • 4:02 - 4:04
    à des milliers de personnes.
  • 4:04 - 4:07
    Ici, c'est un faux,
    créé à partir de mon compte,
  • 4:07 - 4:10
    mais on en voit tous les jours.
  • 4:10 - 4:12
    Plutôt clair, non ?
  • 4:12 - 4:14
    On devrait automatiquement suspendre
  • 4:14 - 4:17
    tous les comptes qui adoptent
    ce type de comportement.
  • 4:17 - 4:20
    Mais il y a des exceptions à la règle.
  • 4:20 - 4:23
    Notamment si vous êtes abonné
    à un service
  • 4:23 - 4:25
    qui vous informe du passage
  • 4:25 - 4:27
    de la Station Spatiale Internationale
  • 4:27 - 4:29
    et qui vous avertit quand sortir
  • 4:29 - 4:31
    pour tenter de l'apercevoir.
  • 4:31 - 4:33
    Impossible, si on suspend le compte
  • 4:33 - 4:36
    en pensant à tort qu'il s'agit
    d'un message indésirable.
  • 4:36 - 4:40
    Imaginons pire.
  • 4:40 - 4:41
    Revenons-en à mon compte
  • 4:41 - 4:45
    et illustrons
    un comportement classique.
  • 4:45 - 4:48
    Cette fois, c'est le même message,
    mais avec un lien.
  • 4:48 - 4:50
    C'est souvent un bon indicateur
    de « hameçonnage » :
  • 4:50 - 4:54
    quelqu'un essaie d'usurper l'identité
    d'un autre compte
  • 4:54 - 4:56
    en les redirigeant vers un autre site.
  • 4:56 - 5:00
    Ce n'est clairement pas
    une bonne chose.
  • 5:00 - 5:02
    Nous tenons à suspendre les comptes
  • 5:02 - 5:05
    qui font ce genre de choses
    et nous le faisons.
  • 5:05 - 5:08
    Pourquoi les enjeux sont-ils
    plus grands dans ce cas-ci ?
  • 5:08 - 5:11
    Car il pourrait s'agir d'un spectateur
  • 5:11 - 5:13
    qui a réussi à filmer
  • 5:13 - 5:16
    un policier frappant
    un manifestant pacifique
  • 5:16 - 5:19
    et qui essaie juste
    d'en informer le monde.
  • 5:19 - 5:21
    On ne veut pas prendre le risque
  • 5:21 - 5:23
    de réduire au silence
    ce témoignage crucial
  • 5:23 - 5:26
    en l'identifiant comme indésirable
    et en le suspendant.
  • 5:26 - 5:29
    Nous évaluons
    des centaines de paramètres
  • 5:29 - 5:31
    liés à l'activité des comptes
  • 5:31 - 5:33
    mais nous pouvons encore
    nous tromper
  • 5:33 - 5:35
    et nous devons tout réévaluer.
  • 5:35 - 5:39
    Vu les défis
    auxquels je suis confrontée,
  • 5:39 - 5:41
    je dois absolument
    pouvoir prédire l'impensable
  • 5:41 - 5:45
    et concevoir les protections
    adaptées à l'inattendu.
  • 5:45 - 5:47
    Et ce n'est pas
    qu'un problème pour moi
  • 5:47 - 5:49
    ou pour Twitter,
    c'est aussi le vôtre.
  • 5:49 - 5:51
    C'est un problème pour quiconque
  • 5:51 - 5:54
    créant quelque chose qui paraît génial
  • 5:54 - 5:57
    et permettant de faire
    des choses formidables.
  • 5:57 - 5:59
    Et moi, qu'est-ce que je fais ?
  • 5:59 - 6:03
    Je prends le temps de penser.
  • 6:03 - 6:05
    Je me demande :
    comment tout ça
  • 6:05 - 6:09
    pourrait-il complètement dégénérer ?
  • 6:09 - 6:13
    Je visualise la catastrophe.
  • 6:13 - 6:15
    Et c'est difficile.
  • 6:15 - 6:18
    Il y a comme quelque chose
    qui cloche quand on fait ça.
  • 6:18 - 6:20
    C'est un peu comme si vous écriviez
  • 6:20 - 6:23
    à la fois vos vœux
    et votre contrat de mariage.
  • 6:23 - 6:25
    (Rires)
  • 6:25 - 6:27
    Mais vous devez quand même le faire,
  • 6:27 - 6:31
    en particulier si vous épousez
    500 millions de tweets par jour.
  • 6:31 - 6:34
    Qu'est-ce que j'entends par
    « visualiser la catastrophe » ?
  • 6:34 - 6:37
    J'essaie de penser comment
    quelque chose
  • 6:37 - 6:40
    d'aussi bénin et inoffensif que
    la photo d'un chat
  • 6:40 - 6:42
    pourrait être mortel
  • 6:42 - 6:44
    et à ce qu'il faut faire pour l'éviter.
  • 6:44 - 6:46
    C'est justement mon prochain exemple.
  • 6:46 - 6:49
    Voici mon chat, Eli.
  • 6:49 - 6:51
    Nous voulions permettre
    aux utilisateurs
  • 6:51 - 6:53
    d'ajouter des photos à leurs tweets.
  • 6:53 - 6:55
    Une image vaut mille mots.
  • 6:55 - 6:57
    Et vous n'avez droit qu'à 140 caractères.
  • 6:57 - 6:58
    Un tweet avec une photo
  • 6:58 - 7:01
    ça augmente considérablement
    votre création de contenu !
  • 7:01 - 7:03
    On peut faire plein de choses superbes
  • 7:03 - 7:05
    en ajoutant une photo à un tweet.
  • 7:05 - 7:07
    Mon travail,
    ce n'est pas de penser à ça,
  • 7:07 - 7:10
    mais à ce qui pourrait déraper.
  • 7:10 - 7:12
    Comment cette photo
  • 7:12 - 7:15
    pourrait-elle conduire à ma mort ?
  • 7:15 - 7:19
    Voici une possibilité.
  • 7:19 - 7:22
    Cette photo, ce n'est pas juste un chat.
  • 7:22 - 7:24
    Elle contient des données géographiques.
  • 7:24 - 7:26
    Une photo prise avec
    votre téléphone
  • 7:26 - 7:27
    ou votre appareil photo
  • 7:27 - 7:31
    contient beaucoup plus
    d'informations qu'une image.
  • 7:31 - 7:32
    En fait, cette photo contient aussi
  • 7:32 - 7:34
    l'équivalent de ceci.
  • 7:34 - 7:37
    Ou plus précisément, ceci.
  • 7:37 - 7:39
    Il est fort peu probable
    qu'on tente
  • 7:39 - 7:42
    de me retrouver
    pour me faire du mal
  • 7:42 - 7:43
    sur la base de données
  • 7:43 - 7:45
    liées à cette photo de mon chat,
  • 7:45 - 7:49
    mais je considère toujours
    que le pire va se produire.
  • 7:49 - 7:51
    Ainsi, en autorisant
    les photos sur Twitter,
  • 7:51 - 7:55
    nous avons décidé d'en effacer
    toute donnée géographique.
  • 7:55 - 8:01
    (Applaudissements)
  • 8:01 - 8:03
    Si je me prépare au pire
  • 8:03 - 8:05
    et que je travaille à reculons,
  • 8:05 - 8:07
    je peux m'assurer
    que les protections mises en place
  • 8:07 - 8:09
    fonctionnent dans tous les cas :
  • 8:09 - 8:11
    ceux qu'on avait prévus ou non.
  • 8:11 - 8:14
    Vu que, jour et nuit,
    je passe mon temps
  • 8:14 - 8:16
    à imaginer le pire,
  • 8:16 - 8:18
    je pourrais tout à fait
  • 8:18 - 8:21
    avoir une sombre vision du monde.
  • 8:21 - 8:22
    (Rires)
  • 8:22 - 8:24
    Mais ce n'est pas le cas.
  • 8:24 - 8:28
    La grande majorité
    des interactions que je vois
  • 8:28 - 8:32
    - et j'en vois beaucoup, croyez-moi -
    est positive :
  • 8:32 - 8:34
    des gens demandent de l'aide,
  • 8:34 - 8:37
    se connectent ou
    partagent de l'information.
  • 8:37 - 8:40
    Mais quiconque
    travaille à cette échelle
  • 8:40 - 8:44
    ou doit assurer la sécurité des gens
  • 8:44 - 8:47
    est obligé de se préparer au pire
  • 8:47 - 8:51
    car pour nous, une chance sur un million
  • 8:51 - 8:54
    c'est une sacré grande probabilité.
  • 8:54 - 8:56
    Merci.
  • 8:56 - 9:00
    (Applaudissements)
Title:
L'étrangeté d'échelle chez Twitter
Speaker:
Del Harvey
Description:

Lorsque des centaines de milliers de Tweets sont envoyés chaque seconde, une chance sur un million - dont ceux qui pourraient nuire à des utilisateurs - se passe environ 500 fois par jour. Pour Del Harvey, qui dirige l'équipe « Confiance et sécurité » de Twitter, ces probabilités ne sont pas rassurantes. Elle passe donc ses journées à réfléchir sur la façon d'en éviter, tout en donnant la parole aux personnes à travers le monde. Avec un humour pince-sans-rire, elle montre sa façon de garder 240 millions d'utilisateurs en sécurité.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:19

French subtitles

Revisions