WEBVTT 00:00:00.739 --> 00:00:04.635 Mon premier travail était programmeuse informatique 00:00:04.635 --> 00:00:06.881 durant ma première année à l'université -- 00:00:06.881 --> 00:00:08.372 quand j'étais adolescente. NOTE Paragraph 00:00:08.889 --> 00:00:12.291 Peu après avoir commencé à écrire des programmes en entreprise, 00:00:12.799 --> 00:00:16.434 un responsable de l'entreprise est venu me voir 00:00:16.458 --> 00:00:17.726 et m'a murmuré : 00:00:18.229 --> 00:00:21.090 « Peut-il dire si je mens ? » 00:00:21.806 --> 00:00:23.883 Il n'y avait personne d'autre dans la pièce. NOTE Paragraph 00:00:25.032 --> 00:00:29.421 « Qui peut dire si vous mentez ? Et pourquoi chuchotez-vous ? » NOTE Paragraph 00:00:30.266 --> 00:00:33.373 Le responsable a pointé du doigt l'ordinateur dans la pièce. 00:00:33.397 --> 00:00:36.493 « Peut-il dire si je mens ? » 00:00:37.613 --> 00:00:41.975 Ce responsable avait une aventure avec la réceptionniste. NOTE Paragraph 00:00:41.999 --> 00:00:43.111 (Rires) NOTE Paragraph 00:00:43.135 --> 00:00:44.901 J'étais toujours adolescente. 00:00:45.447 --> 00:00:47.466 J'ai lui ai murmuré-crié : 00:00:47.490 --> 00:00:51.114 « Oui, l'ordinateur peut dire si vous mentez. » NOTE Paragraph 00:00:51.138 --> 00:00:52.944 (Rires) NOTE Paragraph 00:00:52.968 --> 00:00:55.891 J'ai rigolé, mais c'est de moi qu'on peut se moquer. 00:00:55.915 --> 00:00:59.183 Il y a aujourd'hui des systèmes informatiques 00:00:59.207 --> 00:01:02.755 qui peuvent repérer les états émotionnels et les mensonges 00:01:02.779 --> 00:01:04.983 en traitant les informations du visage humain. 00:01:05.248 --> 00:01:09.401 Les publicitaires et les gouvernements sont très intéressés. NOTE Paragraph 00:01:10.319 --> 00:01:12.321 J'étais devenue programmeuse informatique 00:01:12.321 --> 00:01:15.318 car j'étais l'une de ces gamines folles de maths et de sciences. 00:01:15.942 --> 00:01:19.050 Mais, en chemin, j'avais découvert les armes nucléaires 00:01:19.074 --> 00:01:22.026 et je me sentais très concernée par l'éthique de la science. 00:01:22.050 --> 00:01:23.254 J'étais troublée. 00:01:23.278 --> 00:01:25.919 Cependant, du fait de circonstances familiales, 00:01:25.943 --> 00:01:29.241 je devais aussi commencer à travailler aussi vite que possible. 00:01:29.265 --> 00:01:32.564 Je me suis dit : « Choisis un domaine technique 00:01:32.588 --> 00:01:34.384 où tu peux avoir un emploi facilement 00:01:34.408 --> 00:01:38.426 et où je n'ai pas à gérer des questions d'éthique difficiles. » 00:01:39.022 --> 00:01:40.551 J'ai donc choisi l'informatique. NOTE Paragraph 00:01:40.575 --> 00:01:41.679 (Rires) NOTE Paragraph 00:01:41.703 --> 00:01:45.113 Eh bien, ah ah ah ! On peut se moquer de moi. 00:01:45.137 --> 00:01:47.951 Aujourd'hui, les informaticiens construisent des plateformes 00:01:47.951 --> 00:01:52.124 qui contrôlent chaque jour ce que voient un milliard de personnes. 00:01:53.052 --> 00:01:56.874 Ils développent des voitures pouvant décider qui écraser. 00:01:57.707 --> 00:02:00.904 Ils construisent même des machines, des armes 00:02:00.904 --> 00:02:03.449 qui pourraient tuer des êtres humains dans une guerre. 00:02:03.449 --> 00:02:06.024 Il y a de l'éthique partout. NOTE Paragraph 00:02:07.183 --> 00:02:09.241 L'intelligence artificielle est arrivée. 00:02:09.823 --> 00:02:13.297 Nous utilisons l'informatique pour prendre toutes sortes de décisions, 00:02:13.321 --> 00:02:15.207 y compris de nouvelles décisions. 00:02:15.231 --> 00:02:17.427 Nous posons à l'informatique 00:02:17.427 --> 00:02:20.427 des questions auxquelles il n'y a pas d'unique bonne réponse, 00:02:20.427 --> 00:02:21.629 qui sont subjectives, 00:02:21.653 --> 00:02:23.978 ouvertes et reposent sur des valeurs. NOTE Paragraph 00:02:24.002 --> 00:02:25.760 Nous posons des questions comme : 00:02:25.784 --> 00:02:27.434 « Qui devrait-on embaucher ? » 00:02:28.096 --> 00:02:30.855 « Quelles nouvelles de quel ami devrait-on vous montrer ? » 00:02:30.879 --> 00:02:33.145 « Quel prisonnier va probablement récidiver ? » 00:02:33.514 --> 00:02:36.568 « Quel nouvel objet ou film devrait être recommandé aux gens ? » NOTE Paragraph 00:02:36.592 --> 00:02:39.964 Cela fait un certain temps que nous utilisons des ordinateurs 00:02:39.988 --> 00:02:41.505 mais c'est différent. 00:02:41.529 --> 00:02:43.596 C'est un changement historique : 00:02:43.620 --> 00:02:48.957 car on ne peut pas utiliser l'informatique pour des décisions si subjectives 00:02:48.981 --> 00:02:54.401 comme on utilise l'informatique pour piloter un avion, construire un pont, 00:02:54.425 --> 00:02:55.684 aller sur la Lune. 00:02:56.449 --> 00:02:59.708 Les avions sont-ils plus sûrs ? Un pont a-t-il bougé et est tombé ? 00:02:59.732 --> 00:03:04.230 Là, nous nous accordons sur des repères assez clairs 00:03:04.254 --> 00:03:06.493 et les lois de la nature nous guident. 00:03:06.517 --> 00:03:09.911 Nous n'avons pas de tels ancres et repères 00:03:09.935 --> 00:03:13.898 pour les décisions des affaires complexes humaines. NOTE Paragraph 00:03:13.922 --> 00:03:18.159 Pour compliquer encore les choses, nos logiciels gagnent en puissance 00:03:18.183 --> 00:03:21.956 mais sont aussi moins transparents et plus complexes. 00:03:22.542 --> 00:03:24.582 Récemment, les dix dernières années, 00:03:24.606 --> 00:03:27.335 les algorithmes complexes ont fait de grandes avancées. 00:03:27.359 --> 00:03:29.479 Ils peuvent reconnaître les visages humains, 00:03:29.985 --> 00:03:32.040 déchiffrer l'écriture, 00:03:32.436 --> 00:03:34.502 détecter la fraude à la carte bancaire, 00:03:34.526 --> 00:03:35.715 bloquer le spam, 00:03:35.739 --> 00:03:37.776 traduire d'une langue à une autre, 00:03:37.800 --> 00:03:40.374 détecter les tumeurs en imagerie médicale, 00:03:40.398 --> 00:03:42.603 battre les humains aux échecs et au go. NOTE Paragraph 00:03:43.264 --> 00:03:46.315 Beaucoup de ces progrès découlent d'une méthode : 00:03:46.315 --> 00:03:48.175 « l'apprentissage de la machine ». 00:03:48.175 --> 00:03:51.362 Cette méthode est différente de la programmation traditionnelle 00:03:51.386 --> 00:03:55.191 où l'on donne des instructions détaillées, exactes, méticuleuses à l'ordinateur. 00:03:55.378 --> 00:03:59.560 Cela ressemble plus à un système nourri de données, 00:03:59.584 --> 00:04:01.240 dont des données non structurées, 00:04:01.264 --> 00:04:03.542 comme celles générées par notre vie numérique. 00:04:03.566 --> 00:04:06.296 Le système apprend en parcourant ces données. 00:04:06.669 --> 00:04:08.195 Et aussi, c'est crucial, 00:04:08.219 --> 00:04:12.599 ces systèmes n'utilisent pas la logique de la réponse unique. 00:04:12.623 --> 00:04:15.712 Ils ne produisent pas une seule réponse, c'est plus probabiliste : 00:04:15.712 --> 00:04:19.089 « Celle-ci est probablement plus proche de ce que vous cherchez. » NOTE Paragraph 00:04:20.023 --> 00:04:23.093 L'avantage est que cette méthode est très puissante. 00:04:23.117 --> 00:04:25.193 Le chef de l'IA chez Google l'a appelée : 00:04:25.217 --> 00:04:27.414 « l'efficacité irraisonnable des données ». 00:04:27.791 --> 00:04:29.144 L'inconvénient est : 00:04:29.738 --> 00:04:32.809 nous ne comprenons pas vraiment ce que le système a appris. 00:04:32.833 --> 00:04:34.420 En fait, c'est sa force. 00:04:34.946 --> 00:04:38.744 C'est moins comme donner des instructions à un ordinateur ; 00:04:39.200 --> 00:04:43.264 plus comme entraîner une machine-chiot-créature 00:04:43.288 --> 00:04:45.809 que nous ne comprenons ni ne contrôlons vraiment. 00:04:46.362 --> 00:04:47.913 Voilà notre problème. 00:04:48.427 --> 00:04:52.689 C'est un problème quand cette intelligence artificielle comprend mal les choses. 00:04:52.713 --> 00:04:56.253 C'est aussi un problème quand elle comprend les choses 00:04:56.277 --> 00:04:59.905 car on ne sait pas différencier ces situations pour un problème subjectif. 00:04:59.929 --> 00:05:02.268 Nous ignorons ce que pense cette chose. NOTE Paragraph 00:05:03.493 --> 00:05:07.176 Considérez un algorithme d'embauche -- 00:05:08.123 --> 00:05:12.434 un système utilisé pour embaucher des gens en utilisant l'apprentissage des machines. 00:05:13.052 --> 00:05:16.631 Un tel système aurait été entraîné sur les données des employés 00:05:16.655 --> 00:05:19.246 et chargé de trouver et embaucher 00:05:19.270 --> 00:05:22.308 des gens similaires à ceux les plus performants de l'entreprise. 00:05:22.814 --> 00:05:23.967 Cela semble bien. 00:05:23.991 --> 00:05:25.924 Une fois, j'ai assisté à une conférence 00:05:25.924 --> 00:05:29.209 qui réunissait responsables des ressources humaines et des dirigeants, 00:05:29.209 --> 00:05:30.369 des gens de haut niveau, 00:05:30.393 --> 00:05:31.982 avec de tels systèmes d'embauche. 00:05:31.982 --> 00:05:33.622 Ils étaient très excités. 00:05:33.646 --> 00:05:38.299 Ils pensaient que cela rendrait l'embauche plus objective, moins biaisée 00:05:38.323 --> 00:05:41.323 et donnerait plus de chances aux femmes et minorités 00:05:41.347 --> 00:05:43.535 face à des responsables RH partiaux. NOTE Paragraph 00:05:43.559 --> 00:05:46.402 L'embauche humaine est partiale. 00:05:47.099 --> 00:05:48.284 Je sais. 00:05:48.308 --> 00:05:51.313 Dans l'un de mes premiers postes en tant que programmeuse, 00:05:51.337 --> 00:05:55.205 ma responsable directe venait parfois me voir 00:05:55.229 --> 00:05:58.982 très tôt le matin ou très tard l'après-midi 00:05:59.006 --> 00:06:02.068 et elle disait : « Zeinep, allons déjeuner ! » 00:06:02.724 --> 00:06:04.891 L'heure étrange me laissait perplexe. 00:06:04.915 --> 00:06:07.044 Il est 16h, déjeuner ? 00:06:07.068 --> 00:06:10.292 J'étais fauchée, le déjeuner était gratuit donc j'y allais toujours. 00:06:10.618 --> 00:06:12.685 Plus tard, j'ai réalisé ce qu'il se passait. 00:06:12.709 --> 00:06:17.255 Mes responsables directs n'avaient pas dit à leurs responsables 00:06:17.279 --> 00:06:20.392 qu'ils avaient embauché pour un travail sérieux une adolescente 00:06:20.416 --> 00:06:24.346 qui portait un jeans et des baskets au travail. 00:06:25.174 --> 00:06:27.606 Je faisais du bon travail mais mon allure clochait, 00:06:27.606 --> 00:06:29.139 j'avais les mauvais âge et sexe. NOTE Paragraph 00:06:29.139 --> 00:06:32.469 Embaucher d'une manière aveugle à la couleur et au sexe 00:06:32.493 --> 00:06:34.358 me semble très bien. 00:06:35.031 --> 00:06:38.372 Mais avec ces systèmes, c'est plus compliqué, voici pourquoi : 00:06:38.968 --> 00:06:44.759 actuellement, les systèmes informatiques peuvent déduire beaucoup vous concernant 00:06:44.783 --> 00:06:46.655 grâce à vos miettes numériques, 00:06:46.679 --> 00:06:49.012 même si vous n'avez rien révélé. 00:06:49.506 --> 00:06:52.433 Ils peuvent déduire votre orientation sexuelle, 00:06:52.994 --> 00:06:54.300 vos traits de personnalité, 00:06:54.859 --> 00:06:56.232 vos tendances politiques. 00:06:56.830 --> 00:07:00.515 Ils ont des pouvoirs prédictifs ayant une exactitude élevée. 00:07:01.362 --> 00:07:03.940 Pour des choses que vous n'avez pas révélées. 00:07:03.964 --> 00:07:05.555 C'est de la déduction. NOTE Paragraph 00:07:05.579 --> 00:07:08.840 J'ai une amie qui a développé de tels systèmes informatiques 00:07:08.864 --> 00:07:12.505 pour prévoir la probabilité d'une dépression clinique ou post-partum 00:07:12.529 --> 00:07:13.945 grâce à vos médias sociaux. 00:07:14.676 --> 00:07:16.373 Les résultats sont impressionnants. 00:07:16.492 --> 00:07:19.849 Son système peut prévoir les risques de dépression 00:07:19.873 --> 00:07:23.776 des mois avant l'apparition de tout symptôme -- 00:07:23.800 --> 00:07:25.173 des mois avant. 00:07:25.197 --> 00:07:27.443 Aucun symptôme mais une prédiction. 00:07:27.467 --> 00:07:32.279 Elle espère que cela sera utilisé pour des interventions précoces, super ! 00:07:32.911 --> 00:07:35.261 Mais mettez cela dans le contexte de l'embauche. NOTE Paragraph 00:07:36.027 --> 00:07:39.073 Lors de cette conférence de responsables des ressources humaines, 00:07:39.097 --> 00:07:43.806 j'ai approché une responsable d'une très grande entreprise 00:07:43.830 --> 00:07:48.408 et lui ai dit : « Et si, à votre insu, 00:07:48.432 --> 00:07:54.981 votre système éliminait les gens avec de forts risques de dépression ? 00:07:55.761 --> 00:07:59.137 Ils ne sont pas en dépression mais ont plus de risques pour l'avenir. 00:07:59.923 --> 00:08:03.329 Et s'il éliminait les femmes ayant plus de chances d'être enceintes 00:08:03.353 --> 00:08:05.939 dans un ou deux ans mais ne le sont pas actuellement ? 00:08:06.844 --> 00:08:12.480 Et s'il embauchait des gens agressifs car c'est la culture de l'entreprise ? » 00:08:13.173 --> 00:08:15.994 On ne peut pas le dire en regardant la répartition par sexe. 00:08:15.994 --> 00:08:17.390 Cela peut être équilibré. 00:08:17.414 --> 00:08:20.971 Puisque c'est de l'apprentissage de la machine, non du code traditionnel, 00:08:20.995 --> 00:08:25.902 il n'y a pas de variables appelées « plus de risques de dépression », 00:08:25.926 --> 00:08:27.759 « plus de risques d'être enceinte », 00:08:27.783 --> 00:08:29.517 « échelle d'agressivité d'un mec ». 00:08:29.995 --> 00:08:33.674 Non seulement vous ignorez ce que votre système utilise pour choisir, 00:08:33.698 --> 00:08:36.021 mais vous ignorez où chercher. 00:08:36.045 --> 00:08:37.291 C'est une boîte noire. 00:08:37.315 --> 00:08:40.122 Elle a un pouvoir prédictif mais vous ne le comprenez pas. NOTE Paragraph 00:08:40.486 --> 00:08:42.855 J'ai demandé : « Quelle garantie avez-vous 00:08:42.879 --> 00:08:46.552 pour vous assurer que votre boîte noire ne fait rien de louche ? » 00:08:48.863 --> 00:08:52.741 Elle m'a regardée comme si je venais de l'insulter. NOTE Paragraph 00:08:52.765 --> 00:08:54.013 (Rires) NOTE Paragraph 00:08:54.037 --> 00:08:56.078 Elle m'a fixée et m'a dit : 00:08:56.556 --> 00:09:00.889 « Je ne veux rien entendre de plus. » 00:09:01.458 --> 00:09:03.492 Puis elle s'est tournée et est partie. 00:09:04.064 --> 00:09:05.550 Elle n'était pas impolie. 00:09:05.574 --> 00:09:06.906 C'était clairement du : 00:09:06.906 --> 00:09:11.946 « ce que j'ignore n'est pas mon problème, allez-vous en, regard meurtrier ». NOTE Paragraph 00:09:11.946 --> 00:09:13.152 (Rires) NOTE Paragraph 00:09:13.862 --> 00:09:17.701 Un tel système pourrait être moins biaisé 00:09:17.725 --> 00:09:19.828 que les responsables humains. 00:09:19.852 --> 00:09:21.998 Et il pourrait être monétairement censé. 00:09:22.573 --> 00:09:24.223 Mais il pourrait aussi mener 00:09:24.247 --> 00:09:28.995 à une fermeture du marché du travail stable mais dissimulée 00:09:29.019 --> 00:09:31.312 pour les gens avec plus de risques de dépression. 00:09:31.753 --> 00:09:34.349 Est-ce le genre de société que nous voulons bâtir, 00:09:34.373 --> 00:09:36.658 sans même savoir que nous l'avons fait, 00:09:36.682 --> 00:09:39.405 car nous avons confié la prise de décisions à des machines 00:09:39.405 --> 00:09:41.265 que nous ne comprenons pas vraiment ? NOTE Paragraph 00:09:41.265 --> 00:09:42.723 Un autre problème : 00:09:43.314 --> 00:09:47.766 ces systèmes sont souvent entraînés sur des données générées par nos actions, 00:09:47.790 --> 00:09:49.606 des empreintes humaines. 00:09:50.188 --> 00:09:53.996 Elles pourraient refléter nos préjugés 00:09:54.020 --> 00:09:57.613 et ces systèmes pourraient apprendre nos préjugés, 00:09:57.637 --> 00:09:58.950 les amplifier 00:09:58.974 --> 00:10:00.392 et nous les retourner 00:10:00.416 --> 00:10:01.878 alors que nous nous disons : 00:10:01.902 --> 00:10:05.019 « Nous ne faisons que de l'informatique neutre et objective. » NOTE Paragraph 00:10:06.314 --> 00:10:08.991 Des chercheurs chez Google ont découvert 00:10:10.134 --> 00:10:13.463 qu'on a moins de chances de montrer aux femmes plutôt qu'aux hommes 00:10:13.463 --> 00:10:16.463 des offres d'emploi avec un salaire élevé. 00:10:16.463 --> 00:10:18.993 Et chercher des noms afro-américains 00:10:19.017 --> 00:10:20.747 a plus de chances de retourner 00:10:20.747 --> 00:10:23.747 des publicités suggérant un historique criminel, 00:10:23.747 --> 00:10:25.314 même quand il n'y en a pas. 00:10:26.693 --> 00:10:30.242 De tels préjugés cachés et des algorithmes boîte noire 00:10:30.266 --> 00:10:34.239 qui sont parfois découverts par les chercheurs, parfois non, 00:10:34.263 --> 00:10:36.924 peuvent avoir des conséquences qui changent la vie. NOTE Paragraph 00:10:37.958 --> 00:10:42.117 Dans le Wisconsin, un prévenu a été condamné à 6 ans de prison 00:10:42.141 --> 00:10:43.736 pour avoir échappé à la police. 00:10:44.824 --> 00:10:46.010 Vous l'ignorez peut-être 00:10:46.034 --> 00:10:50.032 mais des algorithmes sont utilisés pour les probations et les condamnations. 00:10:50.056 --> 00:10:53.011 Nous voulions savoir comment ce score était calculé. 00:10:53.795 --> 00:10:55.460 C'est une boîte noire commerciale. 00:10:55.484 --> 00:10:59.689 L'entreprise a refusé que l'on conteste son algorithme en audience publique. 00:11:00.396 --> 00:11:05.928 Mais ProPublica, une organisation d'enquête, a audité cet algorithme 00:11:05.952 --> 00:11:07.968 avec des données publiques 00:11:07.992 --> 00:11:10.308 et a découvert que les résultats étaient biaisés, 00:11:10.332 --> 00:11:13.961 que son pouvoir prédictif était mauvais, à peine meilleur que la chance, 00:11:13.985 --> 00:11:18.401 et qu'il étiquetait les prévenus noirs comme de futurs criminels 00:11:18.425 --> 00:11:22.320 avec un taux deux fois plus élevé que pour les prévenus blancs. NOTE Paragraph 00:11:23.891 --> 00:11:25.455 Considérez ce cas : 00:11:26.103 --> 00:11:29.955 cette femme était en retard pour récupérer sa filleule 00:11:29.979 --> 00:11:32.084 à une école du comté de Broward, en Floride, 00:11:32.757 --> 00:11:35.113 elle courait dans la rue avec une amie à elle. 00:11:35.137 --> 00:11:39.236 Elles ont repéré une bécane et un vélo non attachés sur un porche 00:11:39.260 --> 00:11:40.892 et ont bêtement sauté dessus. 00:11:40.916 --> 00:11:43.585 Alors qu'elles partaient, une femme est sortie et a dit : 00:11:43.585 --> 00:11:45.744 « Hey ! C'est la bécane de mon fils ! » 00:11:45.768 --> 00:11:49.062 Elles l'ont lâchée, sont parties mais ont été arrêtées. NOTE Paragraph 00:11:49.086 --> 00:11:52.723 Elle avait tort, elle a été idiote mais elle n'avait que 18 ans. 00:11:52.747 --> 00:11:55.291 Adolescente, elle avait commis quelques méfaits. 00:11:55.808 --> 00:12:00.993 Pendant ce temps, cet homme a été arrêté pour vol chez Home Depot -- 00:12:01.017 --> 00:12:03.941 pour une valeur de 85$, un crime mineur similaire. 00:12:04.766 --> 00:12:09.325 Mais il avait deux condamnations pour vol à main armée. 00:12:09.955 --> 00:12:13.577 L'algorithme l'a considérée elle, comme étant un risque important, pas lui. 00:12:14.746 --> 00:12:18.584 Deux ans plus tard, ProPublica a découvert qu'elle n'avait pas récidivé. 00:12:18.584 --> 00:12:21.234 Son casier judiciaire compliquait sa recherche d'emploi. 00:12:21.234 --> 00:12:23.294 Lui, d'un autre côté, avait récidivé 00:12:23.318 --> 00:12:27.154 et avait été condamné à 8 ans pour un autre crime. 00:12:28.088 --> 00:12:31.457 Clairement, nous devons auditer nos boîtes noires 00:12:31.481 --> 00:12:34.096 et ne pas leur laisser ce genre de pouvoir incontrôlé. NOTE Paragraph 00:12:34.120 --> 00:12:36.999 (Applaudissements) NOTE Paragraph 00:12:38.087 --> 00:12:39.383 Les audits sont importants, 00:12:39.383 --> 00:12:42.353 mais ils ne résolvent pas tous nos problèmes. 00:12:42.353 --> 00:12:45.151 Prenez le puissant algorithme du fil d'actualités Facebook, 00:12:45.151 --> 00:12:49.968 celui qui classe tout et décide quoi vous montrer 00:12:49.992 --> 00:12:52.276 des amis et des pages que vous suivez. 00:12:52.898 --> 00:12:55.243 Devrait-on vous montrer une autre photo de bébé ? NOTE Paragraph 00:12:55.243 --> 00:12:56.393 (Rires) NOTE Paragraph 00:12:56.417 --> 00:12:59.013 Une note maussade d'une connaissance ? 00:12:59.449 --> 00:13:01.305 Une actualité importante mais dure ? 00:13:01.329 --> 00:13:02.811 Il n'y a pas de bonne réponse. 00:13:02.835 --> 00:13:05.494 Facebook optimise pour vous engager envers le site : 00:13:05.518 --> 00:13:07.243 les j'aime, partages, commentaires. NOTE Paragraph 00:13:08.168 --> 00:13:10.818 En août 2014, 00:13:10.818 --> 00:13:13.600 des manifestations ont éclaté à Ferguson, dans le Missouri, 00:13:13.600 --> 00:13:17.991 après qu'un adolescent afro-américain a été tué par un officier de police blanc 00:13:18.015 --> 00:13:19.585 dans des circonstances douteuses. 00:13:19.974 --> 00:13:24.691 La nouvelle des manifestations remplissait mon fil d'actualité Twitter non filtré 00:13:24.714 --> 00:13:26.664 mais n'était pas sur mon Facebook. 00:13:27.182 --> 00:13:28.916 Était-ce mes amis Facebook ? 00:13:28.940 --> 00:13:30.972 J'ai désactivé l'algorithme Facebook, 00:13:31.472 --> 00:13:34.320 ce qui est difficile car Facebook veut vous faire passer 00:13:34.344 --> 00:13:36.380 sous le contrôle de l'algorithme, 00:13:36.404 --> 00:13:38.642 et j'ai vu que mes amis en parlaient. 00:13:38.666 --> 00:13:41.175 C'est juste que l'algorithme ne me le montrait pas. 00:13:41.199 --> 00:13:44.351 Après des recherches, j'ai découvert que le problème est répandu. NOTE Paragraph 00:13:44.351 --> 00:13:48.078 L'histoire de Ferguson ne plaisait pas à l'algorithme. 00:13:48.102 --> 00:13:51.203 Ce n'était pas « aimable », qui allait cliquer sur « j'aime » ? 00:13:51.500 --> 00:13:53.706 Ce n'est même pas facile à commenter. 00:13:53.730 --> 00:13:55.101 Sans j'aime et commentaires, 00:13:55.125 --> 00:13:58.417 l'algorithme allait le montrer à un nombre décroissant de gens, 00:13:58.441 --> 00:13:59.983 donc nous ne pouvions le voir. 00:14:00.946 --> 00:14:02.174 Cette semaine-là, 00:14:02.198 --> 00:14:04.496 Facebook a plutôt souligné ceci, 00:14:04.520 --> 00:14:06.746 le Ice Bucket Challenge. 00:14:06.770 --> 00:14:10.512 Cause méritante, lâcher d'eau glacée, donner à une charité, très bien. 00:14:10.536 --> 00:14:12.440 Cela plaisait beaucoup à l'algorithme. 00:14:13.219 --> 00:14:15.832 La machine a pris cette décision pour nous. 00:14:15.856 --> 00:14:19.353 Une conversation très importante mais difficile 00:14:19.377 --> 00:14:20.932 aurait pu être étouffée 00:14:20.956 --> 00:14:23.652 si Facebook avait été le seul canal. NOTE Paragraph 00:14:24.117 --> 00:14:27.914 Finalement, ces systèmes peuvent aussi avoir tort 00:14:27.938 --> 00:14:30.674 de façons qui ne ressemblent pas aux systèmes humains. 00:14:30.698 --> 00:14:33.620 Vous souvenez-vous de Watson, le système d'IA d'IBM 00:14:33.644 --> 00:14:36.772 qui a éliminé les participants humains dans Jeopardy ? 00:14:37.131 --> 00:14:38.559 C'était un super joueur. 00:14:38.583 --> 00:14:42.152 Mais, pour la finale de Jeopardy, on a posé cette question à Watson : 00:14:42.659 --> 00:14:45.565 « Le plus grand aéroport ayant le nom d'un héros de 39-45, 00:14:45.565 --> 00:14:47.897 le second plus grand pour une bataille de 39-45. » NOTE Paragraph 00:14:47.897 --> 00:14:49.269 (Signal sonore de fin) NOTE Paragraph 00:14:49.582 --> 00:14:50.764 Chicago. 00:14:50.788 --> 00:14:52.438 Les deux humains avaient raison. 00:14:52.697 --> 00:14:57.045 Watson, par contre, a répondu « Toronto » -- 00:14:57.069 --> 00:14:59.557 à une question sur les villes des États-Unis ! 00:14:59.597 --> 00:15:02.497 L'impressionnant système a aussi fait une erreur 00:15:02.521 --> 00:15:06.172 qu'un humain ne ferait jamais, qu'un CE1 ne ferait jamais. NOTE Paragraph 00:15:06.823 --> 00:15:09.932 Notre intelligence artificielle peut échouer 00:15:09.956 --> 00:15:13.056 de façons ne correspondant pas aux schémas d'erreurs humaines, 00:15:13.080 --> 00:15:16.030 de façons inattendues et imprévues. 00:15:16.054 --> 00:15:19.692 Il serait lamentable de ne pas obtenir un emploi pour lequel on est qualifié 00:15:19.716 --> 00:15:23.443 mais ce serait pire si c'était à cause d'un dépassement de pile 00:15:23.467 --> 00:15:24.899 dans une sous-routine. NOTE Paragraph 00:15:24.923 --> 00:15:26.502 (Rires) NOTE Paragraph 00:15:26.526 --> 00:15:29.312 En mai 2010, 00:15:29.336 --> 00:15:33.380 un crash éclair sur Wall Street alimenté par une boucle de rétroaction 00:15:33.404 --> 00:15:36.432 dans un algorithme de vente de Wall Street 00:15:36.456 --> 00:15:40.640 a fait perdre mille milliards de dollars en 36 minutes. 00:15:41.722 --> 00:15:43.909 Je refuse de penser au sens du mot « erreur » 00:15:43.933 --> 00:15:47.522 dans le contexte des armes mortelles autonomes. NOTE Paragraph 00:15:49.894 --> 00:15:53.684 Oui, les humains ont toujours été partiaux. 00:15:53.708 --> 00:15:55.884 Les preneurs de décision et gardiens, 00:15:55.908 --> 00:15:59.401 dans les tribunaux, les actualités, en guerre... 00:15:59.425 --> 00:16:02.463 Ils font des erreurs ; mais c'est de cela dont je parle. 00:16:02.487 --> 00:16:06.008 Nous ne pouvons pas échapper à ces questions difficiles. 00:16:06.596 --> 00:16:10.112 Nous ne pouvons pas sous-traiter nos responsabilités aux machines. NOTE Paragraph 00:16:10.676 --> 00:16:14.884 (Applaudissements) NOTE Paragraph 00:16:17.089 --> 00:16:21.536 L'intelligence artificielle n'offre pas une carte « sortie de l'éthique ». NOTE Paragraph 00:16:22.742 --> 00:16:26.373 Le scientifique des données Fred Benenson qualifie cela de lavage des maths. 00:16:26.373 --> 00:16:27.536 Il nous faut l'opposé. 00:16:27.560 --> 00:16:32.948 Nous devons cultiver la suspicion, le contrôle et l'enquête de l'algorithme. 00:16:33.380 --> 00:16:36.578 Nous devons nous assurer de la responsabilité des algorithmes, 00:16:36.602 --> 00:16:39.047 les auditer et avoir une transparence significative. 00:16:39.380 --> 00:16:42.614 Nous devons accepter qu'apporter les maths et l'informatique 00:16:42.638 --> 00:16:45.688 dans les affaires humaines désordonnées et basées sur des valeurs 00:16:45.688 --> 00:16:48.016 n'apporte pas l'objectivité 00:16:48.040 --> 00:16:50.448 mais plutôt que la complexité des affaires humaines 00:16:50.448 --> 00:16:52.148 envahit les algorithmes. 00:16:52.148 --> 00:16:55.635 Nous devrions utiliser l'informatique 00:16:55.659 --> 00:16:57.673 pour prendre de meilleures décisions. 00:16:57.697 --> 00:17:03.029 Mais nous devons assumer notre responsabilité morale de jugement 00:17:03.053 --> 00:17:05.871 et utiliser les algorithmes dans ce cadre, 00:17:05.895 --> 00:17:10.830 pas comme un moyen d'abdiquer et sous-traiter nos responsabilités 00:17:10.854 --> 00:17:13.308 d'un humain à un autre. NOTE Paragraph 00:17:13.807 --> 00:17:16.416 L'intelligence artificielle est arrivée. 00:17:16.440 --> 00:17:19.861 Cela signifie que nous devons nous accrocher encore plus 00:17:19.885 --> 00:17:22.032 aux valeurs et éthiques humaines. NOTE Paragraph 00:17:22.056 --> 00:17:23.210 Merci. NOTE Paragraph 00:17:23.234 --> 00:17:28.254 (Applaudissements)