Return to Video

L'ère de la confiance absolue dans le Big Data doit prendre fin

  • 0:01 - 0:03
    Les algorithmes sont partout.
  • 0:04 - 0:07
    Ils trient et séparent
    les vainqueurs des perdants.
  • 0:08 - 0:10
    Les vainqueurs obtiennent le poste
  • 0:10 - 0:12
    ou une bonne offre de carte de crédit.
  • 0:12 - 0:15
    Les perdants n'obtiennent
    même pas un entretien
  • 0:16 - 0:17
    ou paient leur assurance plus cher.
  • 0:18 - 0:22
    On nous classe avec des formules secrètes
    que nous ne comprenons pas
  • 0:23 - 0:26
    qui n'offrent pas souvent
    de systèmes de recours.
  • 0:27 - 0:29
    La question se pose donc :
  • 0:29 - 0:31
    et si les algorithmes sont faux ?
  • 0:33 - 0:35
    Deux choses constituent un algorithme :
  • 0:35 - 0:37
    des données historiques,
  • 0:37 - 0:39
    et une définition du succès,
  • 0:39 - 0:40
    ce que l'on espère trouver.
  • 0:41 - 0:46
    On forme un algorithme
    en observant, en comprenant,
  • 0:46 - 0:50
    l'algorithme trouve ce que
    l'on associe au succès,
  • 0:50 - 0:52
    la situation qui mène au succès.
  • 0:52 - 0:55
    En fait,
    tout le monde utilise des algorithmes
  • 0:55 - 0:57
    sans forcément les formaliser
    en les écrivant.
  • 0:58 - 0:58
    Voici un exemple :
  • 0:58 - 1:01
    chaque jour, en cuisinant
    je me sers d'un algorithme.
  • 1:02 - 1:03
    Les données que j'utilise
  • 1:04 - 1:06
    sont les ingrédients à disposition,
  • 1:06 - 1:07
    le temps dont je dispose,
  • 1:07 - 1:08
    l'ambition que j'ai,
  • 1:09 - 1:10
    et je conserve ces données.
  • 1:10 - 1:14
    Je ne considère pas les paquets
    de ramen comme de la nourriture.
  • 1:14 - 1:16
    (Rires)
  • 1:17 - 1:19
    Ma définition du succès est :
  • 1:19 - 1:21
    un repas est réussi si mes enfants
    mangent des légumes.
  • 1:22 - 1:25
    Si mon fils était aux commandes,
    ce serait différent.
  • 1:25 - 1:28
    Pour lui, le succès serait
    de manger plein de Nutella.
  • 1:29 - 1:31
    Mais c'est moi qui choisis
    ce qu'est le succès.
  • 1:31 - 1:34
    Je commande. C'est mon avis qui compte.
  • 1:34 - 1:37
    C'est la première règle des algorithmes.
  • 1:37 - 1:40
    Les algorithmes sont des opinions
    intégrées dans du code.
  • 1:42 - 1:45
    C'est très différent de ce que
    les gens pensent des algorithmes.
  • 1:45 - 1:50
    Ils pensent que les algorithmes sont
    objectifs, vrais et scientifiques.
  • 1:50 - 1:52
    C'est une astuce marketing.
  • 1:53 - 1:55
    C'en est une autre
  • 1:55 - 1:59
    de vous intimider avec des algorithmes,
  • 1:59 - 2:02
    de vous faire croire et craindre
    les algorithmes,
  • 2:02 - 2:04
    car vous croyez et craignez
    les mathématiques.
  • 2:06 - 2:10
    Tout peut mal tourner quand on a
    une foi aveugle dans le Big Data.
  • 2:11 - 2:15
    Voici Kiri Soares. Elle est directrice
    d'un lycée à Brooklyn.
  • 2:15 - 2:18
    En 2011, elle m'a dit que ses
    professeurs étaient classés
  • 2:18 - 2:20
    par un algorithme complexe et secret
  • 2:20 - 2:22
    appelé le « modèle de valeur ajoutée ».
  • 2:23 - 2:25
    Je lui ai dit : « Trouve la formule,
    montre-la moi,
  • 2:25 - 2:27
    et je vais te l'expliquer. »
  • 2:27 - 2:29
    Elle m'a dit :
    « J'ai essayé de la trouver,
  • 2:29 - 2:32
    mais le Ministère de l'éducation
    m'a dit que c'était des "maths"
  • 2:32 - 2:34
    et que je ne comprendrais pas. »
  • 2:35 - 2:36
    Il y a pire.
  • 2:36 - 2:40
    Le New York Post a invoqué la loi
    sur la liberté d'information,
  • 2:40 - 2:43
    a obtenu les noms des enseignants
    ainsi que leur classement,
  • 2:43 - 2:46
    et les ont publiés
    pour humilier les enseignants.
  • 2:47 - 2:51
    Quand j'ai tenté d'avoir les formules,
    le code source, par les mêmes moyens,
  • 2:51 - 2:53
    on m'a dit que je ne pouvais pas.
  • 2:53 - 2:54
    On me les a refusés.
  • 2:54 - 2:56
    Plus tard, j'ai découvert
  • 2:56 - 2:58
    que personne à New York n'avait
    accès à cette formule.
  • 2:58 - 3:00
    Personne ne la comprenait.
  • 3:02 - 3:05
    Puis quelqu'un de très malin
    s'en est mêlé, Gary Rubinstein.
  • 3:05 - 3:09
    Il a trouvé 665 enseignants
    des données du New York Post
  • 3:09 - 3:11
    qui avaient deux notes.
  • 3:11 - 3:13
    Cela peut arriver s'ils enseignaient
  • 3:13 - 3:15
    les maths en cinquième et en quatrième.
  • 3:15 - 3:17
    Il a décidé d'en faire un graphique.
  • 3:17 - 3:19
    Chaque point représente un enseignant.
  • 3:19 - 3:21
    (Rires)
  • 3:22 - 3:23
    Qu'est-ce que c'est ?
  • 3:23 - 3:24
    (Rires)
  • 3:24 - 3:28
    Ça n'aurait jamais dû être utilisé
    pour des évaluations individuelles.
  • 3:28 - 3:30
    On dirait presque un générateur aléatoire.
  • 3:30 - 3:33
    (Applaudissements)
  • 3:33 - 3:34
    Mais ça l'a été.
  • 3:34 - 3:35
    Voici Sarah Wysocki.
  • 3:35 - 3:37
    Elle a été virée
    avec 205 autres enseignants
  • 3:37 - 3:40
    du secteur scolaire de Washington,
  • 3:40 - 3:43
    malgré les excellentes
    recommandations de son directeur
  • 3:43 - 3:44
    et des parents de ses élèves.
  • 3:45 - 3:48
    Je sais ce que bon nombre
    d'entre vous pensent,
  • 3:48 - 3:50
    surtout les scientifiques de données,
  • 3:50 - 3:54
    vous vous dites que vous ne feriez jamais
    un algorithme aussi incohérent.
  • 3:55 - 3:57
    Mais les algorithmes peuvent mal tourner,
  • 3:57 - 4:01
    voire avoir des effets destructeurs
    avec de bonnes intentions.
  • 4:03 - 4:06
    Alors que quand un avion
    mal conçu s'écrase,
  • 4:06 - 4:07
    tout le monde le voit,
  • 4:07 - 4:09
    un algorithme mal conçu, lui,
  • 4:10 - 4:14
    peut continuer longtemps
    à faire des ravages en silence.
  • 4:16 - 4:17
    Voici Roger Ailes.
  • 4:17 - 4:19
    (Rires)
  • 4:21 - 4:23
    Il a fondé Fox News en 1996.
  • 4:23 - 4:26
    Plus de 20 femmes se sont plaintes
    de harcèlement sexuel,
  • 4:26 - 4:29
    elles ont dit ne pas avoir eu le droit
    de réussir chez Fox News.
  • 4:29 - 4:32
    Il a été viré l'an dernier,
    mais on a vu récemment
  • 4:32 - 4:35
    que ces problèmes persistent.
  • 4:36 - 4:37
    On peut se demander :
  • 4:37 - 4:40
    que devrait faire Fox News
    pour tourner la page ?
  • 4:41 - 4:44
    Et s'ils remplaçaient leur procédure
    de recrutement
  • 4:44 - 4:46
    par un algorithme ?
  • 4:46 - 4:48
    Ça a l'air bien, non ?
  • 4:48 - 4:49
    Pensez-y.
  • 4:49 - 4:51
    Les données,
    quelles seraient les données ?
  • 4:51 - 4:56
    Un choix raisonnable serait les
    candidatures des 21 dernières années.
  • 4:56 - 4:58
    Raisonnable.
  • 4:58 - 4:59
    Et la définition du succès ?
  • 5:00 - 5:01
    Le choix raisonnable serait,
  • 5:01 - 5:03
    mais qui a du succès chez Fox News ?
  • 5:03 - 5:07
    À mon avis, quelqu'un qui y est resté
    au moins quatre ans,
  • 5:07 - 5:08
    qui a été promu au moins une fois.
  • 5:09 - 5:10
    Ça m'a l'air raisonnable.
  • 5:10 - 5:13
    Et puis l'algorithme serait mis au point.
  • 5:13 - 5:17
    Mis au point pour sonder les gens,
    apprendre ce qui les a conduits au succès,
  • 5:17 - 5:22
    quels types de candidatures ont
    historiquement mené au succès
  • 5:22 - 5:23
    par cette définition.
  • 5:24 - 5:26
    Pensez à ce qu'il pourrait se passer
  • 5:26 - 5:29
    si on appliquait cela
    à un groupe actuel de candidats.
  • 5:29 - 5:31
    Le filtrage éliminerait les femmes
  • 5:32 - 5:36
    car elles ne ressemblent pas aux gens
    qui ont eu du succès dans le passé.
  • 5:40 - 5:42
    Les algorithmes ne rendent pas
    les choses équitables
  • 5:42 - 5:45
    si on les applique aveuglément,
    avec négligence.
  • 5:45 - 5:47
    Ils n'instaurent pas l'équité.
  • 5:47 - 5:49
    Ils reproduisent nos pratiques du passé,
  • 5:49 - 5:50
    nos habitudes.
  • 5:50 - 5:52
    Ils automatisent le statu quo.
  • 5:53 - 5:55
    Cela aurait été bien
    si nous avions un monde parfait,
  • 5:56 - 5:57
    mais ce n'est pas le cas.
  • 5:57 - 6:01
    De plus, la plupart des sociétés ne
    font pas l'objet de poursuites honteuses
  • 6:02 - 6:05
    mais les scientifiques de données
    dans ces sociétés
  • 6:05 - 6:07
    sont invités à suivre les données,
  • 6:07 - 6:09
    à se concentrer sur la précision.
  • 6:10 - 6:12
    Imaginez ce que ça veut dire :
  • 6:12 - 6:15
    parce que nous avons tous un parti pris,
    cela veut dire qu'ils pourraient coder
  • 6:15 - 6:18
    des idées sexistes, entre autres.
  • 6:19 - 6:21
    Petit exercice de réflexion
  • 6:21 - 6:22
    parce que j'aime en faire :
  • 6:24 - 6:27
    une société entièrement en proie
    à la ségrégation --
  • 6:28 - 6:32
    à la ségrégation raciale, dans toutes
    les villes, tous les voisinages
  • 6:32 - 6:35
    et où la police va seulement
    dans les quartiers de minorité
  • 6:35 - 6:36
    à la recherche de crimes.
  • 6:36 - 6:39
    Les données policières seraient
    complètement biaisées.
  • 6:40 - 6:42
    Et si, en plus, on trouvait
    des experts en données
  • 6:42 - 6:47
    et qu'on les payait pour qu'ils nous
    prédisent le lieu du prochain crime ?
  • 6:47 - 6:49
    Le quartier des minorités.
  • 6:49 - 6:52
    Ou encore qu'ils prédisent qui serait
    le prochain criminel ?
  • 6:53 - 6:54
    Un membre d'une minorité.
  • 6:56 - 7:00
    Les experts en données se vanteraient
    de l'excellence et de l'exactitude
  • 7:00 - 7:01
    de leur modèle,
  • 7:01 - 7:02
    et ils auraient raison.
  • 7:04 - 7:09
    Bien sûr, la réalité n'est pas comme ça,
    mais la ségrégation existe tout de même
  • 7:09 - 7:10
    dans beaucoup d'endroits,
  • 7:10 - 7:12
    et nous avons assez de preuves
  • 7:12 - 7:15
    que les données policières et judiciaires
    sont biaisées.
  • 7:16 - 7:18
    Et nous prédisons vraiment
    les zones sensibles,
  • 7:18 - 7:20
    là où les crimes seront commis,
  • 7:20 - 7:24
    et nous prédisons aussi, en fait,
    les infractions individuelles,
  • 7:24 - 7:26
    commises par un seul individu.
  • 7:27 - 7:30
    L'agence de presse « ProPublica »
    s'est récemment penchée
  • 7:30 - 7:33
    sur l'un de ces algorithmes
    de « risque de récidive »,
  • 7:33 - 7:34
    comme on les appelle,
  • 7:34 - 7:37
    utilisé par les juges en Floride
    pendant la détermination de la peine.
  • 7:38 - 7:42
    Bernard, à gauche, l'homme noir,
    a obtenu un 10 sur 10.
  • 7:43 - 7:45
    Dylan, à droite, 3 sur 10.
  • 7:45 - 7:48
    10 sur 10 risque élevé,
    3 sur 10, risque faible.
  • 7:49 - 7:51
    Tous deux ont été jugés pour
    possession de drogue.
  • 7:51 - 7:52
    Tous deux avaient un casier,
  • 7:52 - 7:55
    mais Dylan avait déjà commis un crime,
  • 7:55 - 7:57
    ce qui n'était pas le cas de Bernard.
  • 7:58 - 8:01
    C'est important, car plus le score
    est élevé,
  • 8:01 - 8:04
    plus il est probable que la sentence
    soit longue.
  • 8:06 - 8:08
    Qu'est-ce qu'il se passe ?
  • 8:09 - 8:10
    Un blanchiment de données.
  • 8:11 - 8:15
    C'est un processus de technologues
    pour cacher des vérités gênantes
  • 8:15 - 8:17
    dans des algorithmes « boîte noire »
  • 8:17 - 8:19
    soi-disant objectifs,
  • 8:19 - 8:21
    soi-disant méritocratiques.
  • 8:23 - 8:26
    Quand ces algorithmes sont secrets,
    importants et destructifs,
  • 8:26 - 8:28
    je leur ai inventé un nom :
  • 8:28 - 8:30
    « armes de destruction math-ive ».
  • 8:30 - 8:32
    (Rires)
  • 8:32 - 8:35
    (Applaudissements)
  • 8:35 - 8:37
    Ils sont partout, et ce n'est pas
    une erreur !
  • 8:38 - 8:41
    Il s'agit de compagnie privées,
    qui créent des algorithmes privés,
  • 8:41 - 8:43
    à des fins privées.
  • 8:43 - 8:46
    Même ceux dont j'ai parlé,
    pour les professeurs et la police,
  • 8:46 - 8:49
    ont été mis au point
    par des sociétés privées
  • 8:49 - 8:50
    et vendus au gouvernement.
  • 8:50 - 8:53
    Ils appellent ça
    leur « recette secrète »,
  • 8:53 - 8:55
    et donc ne peuvent pas
    nous en parler.
  • 8:55 - 8:57
    C'est aussi du pouvoir privé.
  • 8:58 - 9:03
    Ils tirent profit en donnant de
    l'autorité à ce qu'on ne comprend pas.
  • 9:05 - 9:08
    Vous pourriez penser,
    puisque tout ceci est privé,
  • 9:08 - 9:09
    et qu'il y a concurrence,
  • 9:09 - 9:12
    que le marché libre pourrait
    résoudre ce problème.
  • 9:12 - 9:13
    Eh bien non.
  • 9:13 - 9:16
    Il y a beaucoup d'argent à gagner
    grâce à l'injustice.
  • 9:17 - 9:20
    De plus, nous ne sommes pas
    des acteurs économiques rationnels.
  • 9:21 - 9:22
    Nous sommes tous partiaux.
  • 9:23 - 9:26
    Nous sommes tous racistes et intolérants
    sans le vouloir,
  • 9:26 - 9:28
    sans parfois même le savoir.
  • 9:29 - 9:32
    Globalement, pourtant, nous le savons,
  • 9:32 - 9:36
    car les sociologues l'ont
    sans cesse démontré
  • 9:36 - 9:37
    avec ces expériences
  • 9:37 - 9:40
    où ils envoient des candidatures
    à qualifications égales
  • 9:40 - 9:42
    mais certaines avec des noms « blancs »
  • 9:42 - 9:44
    et d'autres avec des noms « noirs » :
  • 9:44 - 9:47
    les résultats sont toujours décevants.
    Toujours.
  • 9:47 - 9:49
    Donc, nous sommes
    porteurs de préjugés,
  • 9:49 - 9:53
    et nous les injectons dans les algorithmes
  • 9:53 - 9:55
    en choisissant
    les données à collecter
  • 9:55 - 9:57
    comme quand j'ai choisi
    de mettre les ramen de côté,
  • 9:57 - 9:59
    car ce n'était pas pertinent.
  • 9:59 - 10:05
    Mais en se basant sur des données
    qui reprennent des pratiques passées
  • 10:05 - 10:07
    et en définissant soi-même la réussite,
  • 10:07 - 10:11
    comment peut-on s'attendre à ce que
    les algorithmes en sortent indemnes ?
  • 10:11 - 10:13
    On ne peut pas. On doit les contrôler.
  • 10:14 - 10:16
    On doit contrôler leur équité.
  • 10:16 - 10:19
    La bonne nouvelle, c'est qu'on peut
    contrôler leur équité.
  • 10:19 - 10:22
    Les algorithmes peuvent être interrogés,
  • 10:22 - 10:24
    et ils diront la vérité à chaque fois.
  • 10:24 - 10:27
    Et on peut les corriger,
    les améliorer.
  • 10:27 - 10:29
    J'appelle ça
    un « audit algorithmique »,
  • 10:29 - 10:31
    et je vais vous l'expliquer.
  • 10:31 - 10:33
    D'abord, vérification
    de l'intégrité des données.
  • 10:34 - 10:37
    Pour l'algorithme « risque de récidive »
    dont j'ai parlé,
  • 10:38 - 10:41
    cette vérification impliquera qu'il
    faudra se rendre compte du fait
  • 10:41 - 10:45
    qu'aux États-Unis, blancs et noirs
    fument la même quantité de joints,
  • 10:45 - 10:48
    mais que les noirs ont bien plus de
    chance d'être arrêtés,
  • 10:48 - 10:50
    quatre ou cinq fois plus selon la région.
  • 10:51 - 10:54
    A quoi ressemble ce préjugé
    dans les autres catégories de crime,
  • 10:54 - 10:56
    et comment en tient-on compte ?
  • 10:56 - 10:59
    Ensuite, on doit réfléchir
    à la définition du succès,
  • 10:59 - 11:01
    la contrôler.
  • 11:01 - 11:03
    Vous vous souvenez,
    l'algorithme de recrutement ?
  • 11:03 - 11:07
    Quelqu'un qui reste plus de quatre ans
    et est promu une fois ?
  • 11:07 - 11:08
    Eh bien, cet employé est performant,
  • 11:08 - 11:11
    mais cet aussi un employé soutenu
    par sa culture.
  • 11:12 - 11:14
    Cela peut donc aussi être biaisé.
  • 11:14 - 11:16
    Nous devons séparer ces deux idées.
  • 11:16 - 11:19
    Nous devrions prendre
    les auditions à l'aveugle
  • 11:19 - 11:20
    comme exemple.
  • 11:20 - 11:23
    Celles où les gens auditionnent
    derrière un drap.
  • 11:23 - 11:25
    Ce à quoi je pense ici,
  • 11:25 - 11:28
    c'est que les gens qui écoutent
    ont décidé de ce qui est important,
  • 11:28 - 11:30
    et de ce qui ne l'est pas,
  • 11:30 - 11:32
    et ils ne se laissent pas distraire
    par cela.
  • 11:33 - 11:36
    Quand les auditions d'orchestre
    à l'aveugle ont commencé,
  • 11:36 - 11:39
    le nombre de femmes dans les orchestres
    s'est multiplié par 5.
  • 11:40 - 11:43
    Ensuite, nous devons tenir compte
    de la précision.
  • 11:43 - 11:47
    Le modèle de « valeur-ajoutée » pour
    professeurs échouerait dans ce cas-là.
  • 11:48 - 11:50
    Aucun algorithme n'est parfait,
    évidemment,
  • 11:51 - 11:54
    donc nous devons examiner les
    erreurs de tous les algorithmes.
  • 11:55 - 11:59
    Reviennent-elles souvent,
    et pour qui est-ce que le modèle échoue ?
  • 12:00 - 12:02
    Quel est le coût de cet échec ?
  • 12:02 - 12:05
    Enfin, nous devons prendre en compte
  • 12:06 - 12:08
    l'effet à long terme des algorithmes,
  • 12:09 - 12:11
    les boucles de réactions
    qu'ils engendrent.
  • 12:12 - 12:13
    Cela semble abstrait,
  • 12:13 - 12:16
    mais imaginez, si les ingénieurs
    de Facebook y avaient pensé
  • 12:16 - 12:21
    avant de décider de nous montrer
    seulement les publications de nos amis.
  • 12:22 - 12:25
    J'ai encore deux messages, un pour
    les scientifiques de données ici.
  • 12:25 - 12:29
    Nous ne devrions pas être
    les arbitres de la vérité.
  • 12:30 - 12:33
    Nous devrions être les traducteurs
    des discussions d'ordre éthique
  • 12:33 - 12:35
    de la société en général.
  • 12:36 - 12:38
    (Applaudissements)
  • 12:38 - 12:39
    Et pour le reste d'entre vous,
  • 12:40 - 12:41
    qui n'êtes pas du milieu,
  • 12:41 - 12:43
    ceci n'est pas un test de math.
  • 12:44 - 12:45
    C'est une bataille politique.
  • 12:47 - 12:50
    Nous devons réclamer des comptes
    à nos souverains algorithmiques.
  • 12:52 - 12:54
    (Applaudissements)
  • 12:54 - 12:58
    L'ère de la confiance absolue
    dans le Big Data doit prendre fin.
  • 12:58 - 12:59
    Merci beaucoup.
  • 12:59 - 13:04
    (Applaudissements)
Title:
L'ère de la confiance absolue dans le Big Data doit prendre fin
Speaker:
Cathy O'Neil
Description:

Les algorithmes déterminent qui peut obtenir un prêt, un entretien, une assurance ou beaucoup d'autres choses encore -- mais ce n'est pas pour ça qu'ils rendent les choses équitables. Cathy O'Neil, mathématicienne et scientifique de données, a inventé un nom pour les algorithmes qui sont secrets, importants et dangereux : « armes de destruction math-ive ». Apprenez-en plus sur les intentions cachées derrière les formules.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18

French subtitles

Revisions