L'ère de la confiance absolue dans le Big Data doit prendre fin
-
0:01 - 0:03Les algorithmes sont partout.
-
0:04 - 0:07Ils trient et séparent
les vainqueurs des perdants. -
0:08 - 0:10Les vainqueurs obtiennent le poste
-
0:10 - 0:12ou une bonne offre de carte de crédit.
-
0:12 - 0:15Les perdants n'obtiennent
même pas un entretien -
0:16 - 0:17ou paient leur assurance plus cher.
-
0:18 - 0:22On nous classe avec des formules secrètes
que nous ne comprenons pas -
0:23 - 0:26qui n'offrent pas souvent
de systèmes de recours. -
0:27 - 0:29La question se pose donc :
-
0:29 - 0:31et si les algorithmes sont faux ?
-
0:33 - 0:35Deux choses constituent un algorithme :
-
0:35 - 0:37des données historiques,
-
0:37 - 0:39et une définition du succès,
-
0:39 - 0:40ce que l'on espère trouver.
-
0:41 - 0:46On forme un algorithme
en observant, en comprenant, -
0:46 - 0:50l'algorithme trouve ce que
l'on associe au succès, -
0:50 - 0:52la situation qui mène au succès.
-
0:52 - 0:55En fait,
tout le monde utilise des algorithmes -
0:55 - 0:57sans forcément les formaliser
en les écrivant. -
0:58 - 0:58Voici un exemple :
-
0:58 - 1:01chaque jour, en cuisinant
je me sers d'un algorithme. -
1:02 - 1:03Les données que j'utilise
-
1:04 - 1:06sont les ingrédients à disposition,
-
1:06 - 1:07le temps dont je dispose,
-
1:07 - 1:08l'ambition que j'ai,
-
1:09 - 1:10et je conserve ces données.
-
1:10 - 1:14Je ne considère pas les paquets
de ramen comme de la nourriture. -
1:14 - 1:16(Rires)
-
1:17 - 1:19Ma définition du succès est :
-
1:19 - 1:21un repas est réussi si mes enfants
mangent des légumes. -
1:22 - 1:25Si mon fils était aux commandes,
ce serait différent. -
1:25 - 1:28Pour lui, le succès serait
de manger plein de Nutella. -
1:29 - 1:31Mais c'est moi qui choisis
ce qu'est le succès. -
1:31 - 1:34Je commande. C'est mon avis qui compte.
-
1:34 - 1:37C'est la première règle des algorithmes.
-
1:37 - 1:40Les algorithmes sont des opinions
intégrées dans du code. -
1:42 - 1:45C'est très différent de ce que
les gens pensent des algorithmes. -
1:45 - 1:50Ils pensent que les algorithmes sont
objectifs, vrais et scientifiques. -
1:50 - 1:52C'est une astuce marketing.
-
1:53 - 1:55C'en est une autre
-
1:55 - 1:59de vous intimider avec des algorithmes,
-
1:59 - 2:02de vous faire croire et craindre
les algorithmes, -
2:02 - 2:04car vous croyez et craignez
les mathématiques. -
2:06 - 2:10Tout peut mal tourner quand on a
une foi aveugle dans le Big Data. -
2:11 - 2:15Voici Kiri Soares. Elle est directrice
d'un lycée à Brooklyn. -
2:15 - 2:18En 2011, elle m'a dit que ses
professeurs étaient classés -
2:18 - 2:20par un algorithme complexe et secret
-
2:20 - 2:22appelé le « modèle de valeur ajoutée ».
-
2:23 - 2:25Je lui ai dit : « Trouve la formule,
montre-la moi, -
2:25 - 2:27et je vais te l'expliquer. »
-
2:27 - 2:29Elle m'a dit :
« J'ai essayé de la trouver, -
2:29 - 2:32mais le Ministère de l'éducation
m'a dit que c'était des "maths" -
2:32 - 2:34et que je ne comprendrais pas. »
-
2:35 - 2:36Il y a pire.
-
2:36 - 2:40Le New York Post a invoqué la loi
sur la liberté d'information, -
2:40 - 2:43a obtenu les noms des enseignants
ainsi que leur classement, -
2:43 - 2:46et les ont publiés
pour humilier les enseignants. -
2:47 - 2:51Quand j'ai tenté d'avoir les formules,
le code source, par les mêmes moyens, -
2:51 - 2:53on m'a dit que je ne pouvais pas.
-
2:53 - 2:54On me les a refusés.
-
2:54 - 2:56Plus tard, j'ai découvert
-
2:56 - 2:58que personne à New York n'avait
accès à cette formule. -
2:58 - 3:00Personne ne la comprenait.
-
3:02 - 3:05Puis quelqu'un de très malin
s'en est mêlé, Gary Rubinstein. -
3:05 - 3:09Il a trouvé 665 enseignants
des données du New York Post -
3:09 - 3:11qui avaient deux notes.
-
3:11 - 3:13Cela peut arriver s'ils enseignaient
-
3:13 - 3:15les maths en cinquième et en quatrième.
-
3:15 - 3:17Il a décidé d'en faire un graphique.
-
3:17 - 3:19Chaque point représente un enseignant.
-
3:19 - 3:21(Rires)
-
3:22 - 3:23Qu'est-ce que c'est ?
-
3:23 - 3:24(Rires)
-
3:24 - 3:28Ça n'aurait jamais dû être utilisé
pour des évaluations individuelles. -
3:28 - 3:30On dirait presque un générateur aléatoire.
-
3:30 - 3:33(Applaudissements)
-
3:33 - 3:34Mais ça l'a été.
-
3:34 - 3:35Voici Sarah Wysocki.
-
3:35 - 3:37Elle a été virée
avec 205 autres enseignants -
3:37 - 3:40du secteur scolaire de Washington,
-
3:40 - 3:43malgré les excellentes
recommandations de son directeur -
3:43 - 3:44et des parents de ses élèves.
-
3:45 - 3:48Je sais ce que bon nombre
d'entre vous pensent, -
3:48 - 3:50surtout les scientifiques de données,
-
3:50 - 3:54vous vous dites que vous ne feriez jamais
un algorithme aussi incohérent. -
3:55 - 3:57Mais les algorithmes peuvent mal tourner,
-
3:57 - 4:01voire avoir des effets destructeurs
avec de bonnes intentions. -
4:03 - 4:06Alors que quand un avion
mal conçu s'écrase, -
4:06 - 4:07tout le monde le voit,
-
4:07 - 4:09un algorithme mal conçu, lui,
-
4:10 - 4:14peut continuer longtemps
à faire des ravages en silence. -
4:16 - 4:17Voici Roger Ailes.
-
4:17 - 4:19(Rires)
-
4:21 - 4:23Il a fondé Fox News en 1996.
-
4:23 - 4:26Plus de 20 femmes se sont plaintes
de harcèlement sexuel, -
4:26 - 4:29elles ont dit ne pas avoir eu le droit
de réussir chez Fox News. -
4:29 - 4:32Il a été viré l'an dernier,
mais on a vu récemment -
4:32 - 4:35que ces problèmes persistent.
-
4:36 - 4:37On peut se demander :
-
4:37 - 4:40que devrait faire Fox News
pour tourner la page ? -
4:41 - 4:44Et s'ils remplaçaient leur procédure
de recrutement -
4:44 - 4:46par un algorithme ?
-
4:46 - 4:48Ça a l'air bien, non ?
-
4:48 - 4:49Pensez-y.
-
4:49 - 4:51Les données,
quelles seraient les données ? -
4:51 - 4:56Un choix raisonnable serait les
candidatures des 21 dernières années. -
4:56 - 4:58Raisonnable.
-
4:58 - 4:59Et la définition du succès ?
-
5:00 - 5:01Le choix raisonnable serait,
-
5:01 - 5:03mais qui a du succès chez Fox News ?
-
5:03 - 5:07À mon avis, quelqu'un qui y est resté
au moins quatre ans, -
5:07 - 5:08qui a été promu au moins une fois.
-
5:09 - 5:10Ça m'a l'air raisonnable.
-
5:10 - 5:13Et puis l'algorithme serait mis au point.
-
5:13 - 5:17Mis au point pour sonder les gens,
apprendre ce qui les a conduits au succès, -
5:17 - 5:22quels types de candidatures ont
historiquement mené au succès -
5:22 - 5:23par cette définition.
-
5:24 - 5:26Pensez à ce qu'il pourrait se passer
-
5:26 - 5:29si on appliquait cela
à un groupe actuel de candidats. -
5:29 - 5:31Le filtrage éliminerait les femmes
-
5:32 - 5:36car elles ne ressemblent pas aux gens
qui ont eu du succès dans le passé. -
5:40 - 5:42Les algorithmes ne rendent pas
les choses équitables -
5:42 - 5:45si on les applique aveuglément,
avec négligence. -
5:45 - 5:47Ils n'instaurent pas l'équité.
-
5:47 - 5:49Ils reproduisent nos pratiques du passé,
-
5:49 - 5:50nos habitudes.
-
5:50 - 5:52Ils automatisent le statu quo.
-
5:53 - 5:55Cela aurait été bien
si nous avions un monde parfait, -
5:56 - 5:57mais ce n'est pas le cas.
-
5:57 - 6:01De plus, la plupart des sociétés ne
font pas l'objet de poursuites honteuses -
6:02 - 6:05mais les scientifiques de données
dans ces sociétés -
6:05 - 6:07sont invités à suivre les données,
-
6:07 - 6:09à se concentrer sur la précision.
-
6:10 - 6:12Imaginez ce que ça veut dire :
-
6:12 - 6:15parce que nous avons tous un parti pris,
cela veut dire qu'ils pourraient coder -
6:15 - 6:18des idées sexistes, entre autres.
-
6:19 - 6:21Petit exercice de réflexion
-
6:21 - 6:22parce que j'aime en faire :
-
6:24 - 6:27une société entièrement en proie
à la ségrégation -- -
6:28 - 6:32à la ségrégation raciale, dans toutes
les villes, tous les voisinages -
6:32 - 6:35et où la police va seulement
dans les quartiers de minorité -
6:35 - 6:36à la recherche de crimes.
-
6:36 - 6:39Les données policières seraient
complètement biaisées. -
6:40 - 6:42Et si, en plus, on trouvait
des experts en données -
6:42 - 6:47et qu'on les payait pour qu'ils nous
prédisent le lieu du prochain crime ? -
6:47 - 6:49Le quartier des minorités.
-
6:49 - 6:52Ou encore qu'ils prédisent qui serait
le prochain criminel ? -
6:53 - 6:54Un membre d'une minorité.
-
6:56 - 7:00Les experts en données se vanteraient
de l'excellence et de l'exactitude -
7:00 - 7:01de leur modèle,
-
7:01 - 7:02et ils auraient raison.
-
7:04 - 7:09Bien sûr, la réalité n'est pas comme ça,
mais la ségrégation existe tout de même -
7:09 - 7:10dans beaucoup d'endroits,
-
7:10 - 7:12et nous avons assez de preuves
-
7:12 - 7:15que les données policières et judiciaires
sont biaisées. -
7:16 - 7:18Et nous prédisons vraiment
les zones sensibles, -
7:18 - 7:20là où les crimes seront commis,
-
7:20 - 7:24et nous prédisons aussi, en fait,
les infractions individuelles, -
7:24 - 7:26commises par un seul individu.
-
7:27 - 7:30L'agence de presse « ProPublica »
s'est récemment penchée -
7:30 - 7:33sur l'un de ces algorithmes
de « risque de récidive », -
7:33 - 7:34comme on les appelle,
-
7:34 - 7:37utilisé par les juges en Floride
pendant la détermination de la peine. -
7:38 - 7:42Bernard, à gauche, l'homme noir,
a obtenu un 10 sur 10. -
7:43 - 7:45Dylan, à droite, 3 sur 10.
-
7:45 - 7:4810 sur 10 risque élevé,
3 sur 10, risque faible. -
7:49 - 7:51Tous deux ont été jugés pour
possession de drogue. -
7:51 - 7:52Tous deux avaient un casier,
-
7:52 - 7:55mais Dylan avait déjà commis un crime,
-
7:55 - 7:57ce qui n'était pas le cas de Bernard.
-
7:58 - 8:01C'est important, car plus le score
est élevé, -
8:01 - 8:04plus il est probable que la sentence
soit longue. -
8:06 - 8:08Qu'est-ce qu'il se passe ?
-
8:09 - 8:10Un blanchiment de données.
-
8:11 - 8:15C'est un processus de technologues
pour cacher des vérités gênantes -
8:15 - 8:17dans des algorithmes « boîte noire »
-
8:17 - 8:19soi-disant objectifs,
-
8:19 - 8:21soi-disant méritocratiques.
-
8:23 - 8:26Quand ces algorithmes sont secrets,
importants et destructifs, -
8:26 - 8:28je leur ai inventé un nom :
-
8:28 - 8:30« armes de destruction math-ive ».
-
8:30 - 8:32(Rires)
-
8:32 - 8:35(Applaudissements)
-
8:35 - 8:37Ils sont partout, et ce n'est pas
une erreur ! -
8:38 - 8:41Il s'agit de compagnie privées,
qui créent des algorithmes privés, -
8:41 - 8:43à des fins privées.
-
8:43 - 8:46Même ceux dont j'ai parlé,
pour les professeurs et la police, -
8:46 - 8:49ont été mis au point
par des sociétés privées -
8:49 - 8:50et vendus au gouvernement.
-
8:50 - 8:53Ils appellent ça
leur « recette secrète », -
8:53 - 8:55et donc ne peuvent pas
nous en parler. -
8:55 - 8:57C'est aussi du pouvoir privé.
-
8:58 - 9:03Ils tirent profit en donnant de
l'autorité à ce qu'on ne comprend pas. -
9:05 - 9:08Vous pourriez penser,
puisque tout ceci est privé, -
9:08 - 9:09et qu'il y a concurrence,
-
9:09 - 9:12que le marché libre pourrait
résoudre ce problème. -
9:12 - 9:13Eh bien non.
-
9:13 - 9:16Il y a beaucoup d'argent à gagner
grâce à l'injustice. -
9:17 - 9:20De plus, nous ne sommes pas
des acteurs économiques rationnels. -
9:21 - 9:22Nous sommes tous partiaux.
-
9:23 - 9:26Nous sommes tous racistes et intolérants
sans le vouloir, -
9:26 - 9:28sans parfois même le savoir.
-
9:29 - 9:32Globalement, pourtant, nous le savons,
-
9:32 - 9:36car les sociologues l'ont
sans cesse démontré -
9:36 - 9:37avec ces expériences
-
9:37 - 9:40où ils envoient des candidatures
à qualifications égales -
9:40 - 9:42mais certaines avec des noms « blancs »
-
9:42 - 9:44et d'autres avec des noms « noirs » :
-
9:44 - 9:47les résultats sont toujours décevants.
Toujours. -
9:47 - 9:49Donc, nous sommes
porteurs de préjugés, -
9:49 - 9:53et nous les injectons dans les algorithmes
-
9:53 - 9:55en choisissant
les données à collecter -
9:55 - 9:57comme quand j'ai choisi
de mettre les ramen de côté, -
9:57 - 9:59car ce n'était pas pertinent.
-
9:59 - 10:05Mais en se basant sur des données
qui reprennent des pratiques passées -
10:05 - 10:07et en définissant soi-même la réussite,
-
10:07 - 10:11comment peut-on s'attendre à ce que
les algorithmes en sortent indemnes ? -
10:11 - 10:13On ne peut pas. On doit les contrôler.
-
10:14 - 10:16On doit contrôler leur équité.
-
10:16 - 10:19La bonne nouvelle, c'est qu'on peut
contrôler leur équité. -
10:19 - 10:22Les algorithmes peuvent être interrogés,
-
10:22 - 10:24et ils diront la vérité à chaque fois.
-
10:24 - 10:27Et on peut les corriger,
les améliorer. -
10:27 - 10:29J'appelle ça
un « audit algorithmique », -
10:29 - 10:31et je vais vous l'expliquer.
-
10:31 - 10:33D'abord, vérification
de l'intégrité des données. -
10:34 - 10:37Pour l'algorithme « risque de récidive »
dont j'ai parlé, -
10:38 - 10:41cette vérification impliquera qu'il
faudra se rendre compte du fait -
10:41 - 10:45qu'aux États-Unis, blancs et noirs
fument la même quantité de joints, -
10:45 - 10:48mais que les noirs ont bien plus de
chance d'être arrêtés, -
10:48 - 10:50quatre ou cinq fois plus selon la région.
-
10:51 - 10:54A quoi ressemble ce préjugé
dans les autres catégories de crime, -
10:54 - 10:56et comment en tient-on compte ?
-
10:56 - 10:59Ensuite, on doit réfléchir
à la définition du succès, -
10:59 - 11:01la contrôler.
-
11:01 - 11:03Vous vous souvenez,
l'algorithme de recrutement ? -
11:03 - 11:07Quelqu'un qui reste plus de quatre ans
et est promu une fois ? -
11:07 - 11:08Eh bien, cet employé est performant,
-
11:08 - 11:11mais cet aussi un employé soutenu
par sa culture. -
11:12 - 11:14Cela peut donc aussi être biaisé.
-
11:14 - 11:16Nous devons séparer ces deux idées.
-
11:16 - 11:19Nous devrions prendre
les auditions à l'aveugle -
11:19 - 11:20comme exemple.
-
11:20 - 11:23Celles où les gens auditionnent
derrière un drap. -
11:23 - 11:25Ce à quoi je pense ici,
-
11:25 - 11:28c'est que les gens qui écoutent
ont décidé de ce qui est important, -
11:28 - 11:30et de ce qui ne l'est pas,
-
11:30 - 11:32et ils ne se laissent pas distraire
par cela. -
11:33 - 11:36Quand les auditions d'orchestre
à l'aveugle ont commencé, -
11:36 - 11:39le nombre de femmes dans les orchestres
s'est multiplié par 5. -
11:40 - 11:43Ensuite, nous devons tenir compte
de la précision. -
11:43 - 11:47Le modèle de « valeur-ajoutée » pour
professeurs échouerait dans ce cas-là. -
11:48 - 11:50Aucun algorithme n'est parfait,
évidemment, -
11:51 - 11:54donc nous devons examiner les
erreurs de tous les algorithmes. -
11:55 - 11:59Reviennent-elles souvent,
et pour qui est-ce que le modèle échoue ? -
12:00 - 12:02Quel est le coût de cet échec ?
-
12:02 - 12:05Enfin, nous devons prendre en compte
-
12:06 - 12:08l'effet à long terme des algorithmes,
-
12:09 - 12:11les boucles de réactions
qu'ils engendrent. -
12:12 - 12:13Cela semble abstrait,
-
12:13 - 12:16mais imaginez, si les ingénieurs
de Facebook y avaient pensé -
12:16 - 12:21avant de décider de nous montrer
seulement les publications de nos amis. -
12:22 - 12:25J'ai encore deux messages, un pour
les scientifiques de données ici. -
12:25 - 12:29Nous ne devrions pas être
les arbitres de la vérité. -
12:30 - 12:33Nous devrions être les traducteurs
des discussions d'ordre éthique -
12:33 - 12:35de la société en général.
-
12:36 - 12:38(Applaudissements)
-
12:38 - 12:39Et pour le reste d'entre vous,
-
12:40 - 12:41qui n'êtes pas du milieu,
-
12:41 - 12:43ceci n'est pas un test de math.
-
12:44 - 12:45C'est une bataille politique.
-
12:47 - 12:50Nous devons réclamer des comptes
à nos souverains algorithmiques. -
12:52 - 12:54(Applaudissements)
-
12:54 - 12:58L'ère de la confiance absolue
dans le Big Data doit prendre fin. -
12:58 - 12:59Merci beaucoup.
-
12:59 - 13:04(Applaudissements)
- Title:
- L'ère de la confiance absolue dans le Big Data doit prendre fin
- Speaker:
- Cathy O'Neil
- Description:
-
Les algorithmes déterminent qui peut obtenir un prêt, un entretien, une assurance ou beaucoup d'autres choses encore -- mais ce n'est pas pour ça qu'ils rendent les choses équitables. Cathy O'Neil, mathématicienne et scientifique de données, a inventé un nom pour les algorithmes qui sont secrets, importants et dangereux : « armes de destruction math-ive ». Apprenez-en plus sur les intentions cachées derrière les formules.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
eric vautier approved French subtitles for The era of blind faith in big data must end | ||
eric vautier edited French subtitles for The era of blind faith in big data must end | ||
Shadia Ramsahye accepted French subtitles for The era of blind faith in big data must end | ||
Shadia Ramsahye edited French subtitles for The era of blind faith in big data must end | ||
Shadia Ramsahye edited French subtitles for The era of blind faith in big data must end | ||
Pauline Forêt edited French subtitles for The era of blind faith in big data must end | ||
Pauline Forêt edited French subtitles for The era of blind faith in big data must end | ||
Prince Yanel BOKO GOUNOU edited French subtitles for The era of blind faith in big data must end |