L'intelligence artificielle rend la morale humaine plus importante
-
0:01 - 0:05Mon premier travail
était programmeuse informatique -
0:05 - 0:07durant ma première année à l'université --
-
0:07 - 0:08quand j'étais adolescente.
-
0:09 - 0:12Peu après avoir commencé
à écrire des programmes en entreprise, -
0:13 - 0:16un responsable de l'entreprise
est venu me voir -
0:16 - 0:18et m'a murmuré :
-
0:18 - 0:21« Peut-il dire si je mens ? »
-
0:22 - 0:24Il n'y avait personne d'autre
dans la pièce. -
0:25 - 0:29« Qui peut dire si vous mentez ?
Et pourquoi chuchotez-vous ? » -
0:30 - 0:33Le responsable a pointé du doigt
l'ordinateur dans la pièce. -
0:33 - 0:36« Peut-il dire si je mens ? »
-
0:38 - 0:42Ce responsable avait une aventure
avec la réceptionniste. -
0:42 - 0:43(Rires)
-
0:43 - 0:45J'étais toujours adolescente.
-
0:45 - 0:47J'ai lui ai murmuré-crié :
-
0:47 - 0:51« Oui, l'ordinateur peut dire
si vous mentez. » -
0:51 - 0:53(Rires)
-
0:53 - 0:56J'ai rigolé, mais c'est de moi
qu'on peut se moquer. -
0:56 - 0:59Il y a aujourd'hui
des systèmes informatiques -
0:59 - 1:03qui peuvent repérer
les états émotionnels et les mensonges -
1:03 - 1:05en traitant les informations
du visage humain. -
1:05 - 1:09Les publicitaires et les gouvernements
sont très intéressés. -
1:10 - 1:12J'étais devenue programmeuse informatique
-
1:12 - 1:15car j'étais l'une de ces gamines
folles de maths et de sciences. -
1:16 - 1:19Mais, en chemin, j'avais découvert
les armes nucléaires -
1:19 - 1:22et je me sentais très concernée
par l'éthique de la science. -
1:22 - 1:23J'étais troublée.
-
1:23 - 1:26Cependant, du fait
de circonstances familiales, -
1:26 - 1:29je devais aussi commencer à travailler
aussi vite que possible. -
1:29 - 1:33Je me suis dit :
« Choisis un domaine technique -
1:33 - 1:34où tu peux avoir un emploi facilement
-
1:34 - 1:38et où je n'ai pas à gérer
des questions d'éthique difficiles. » -
1:39 - 1:41J'ai donc choisi l'informatique.
-
1:41 - 1:42(Rires)
-
1:42 - 1:45Eh bien, ah ah ah !
On peut se moquer de moi. -
1:45 - 1:48Aujourd'hui, les informaticiens
construisent des plateformes -
1:48 - 1:52qui contrôlent chaque jour
ce que voient un milliard de personnes. -
1:53 - 1:57Ils développent des voitures
pouvant décider qui écraser. -
1:58 - 2:01Ils construisent même
des machines, des armes -
2:01 - 2:03qui pourraient tuer
des êtres humains dans une guerre. -
2:03 - 2:06Il y a de l'éthique partout.
-
2:07 - 2:09L'intelligence artificielle est arrivée.
-
2:10 - 2:13Nous utilisons l'informatique
pour prendre toutes sortes de décisions, -
2:13 - 2:15y compris de nouvelles décisions.
-
2:15 - 2:17Nous posons à l'informatique
-
2:17 - 2:20des questions auxquelles
il n'y a pas d'unique bonne réponse, -
2:20 - 2:22qui sont subjectives,
-
2:22 - 2:24ouvertes et reposent sur des valeurs.
-
2:24 - 2:26Nous posons des questions comme :
-
2:26 - 2:27« Qui devrait-on embaucher ? »
-
2:28 - 2:31« Quelles nouvelles de quel ami
devrait-on vous montrer ? » -
2:31 - 2:33« Quel prisonnier
va probablement récidiver ? » -
2:34 - 2:37« Quel nouvel objet ou film
devrait être recommandé aux gens ? » -
2:37 - 2:40Cela fait un certain temps
que nous utilisons des ordinateurs -
2:40 - 2:42mais c'est différent.
-
2:42 - 2:44C'est un changement historique :
-
2:44 - 2:49car on ne peut pas utiliser l'informatique
pour des décisions si subjectives -
2:49 - 2:54comme on utilise l'informatique
pour piloter un avion, construire un pont, -
2:54 - 2:56aller sur la Lune.
-
2:56 - 3:00Les avions sont-ils plus sûrs ?
Un pont a-t-il bougé et est tombé ? -
3:00 - 3:04Là, nous nous accordons
sur des repères assez clairs -
3:04 - 3:06et les lois de la nature nous guident.
-
3:07 - 3:10Nous n'avons pas de tels ancres et repères
-
3:10 - 3:14pour les décisions
des affaires complexes humaines. -
3:14 - 3:18Pour compliquer encore les choses,
nos logiciels gagnent en puissance -
3:18 - 3:22mais sont aussi moins transparents
et plus complexes. -
3:23 - 3:25Récemment, les dix dernières années,
-
3:25 - 3:27les algorithmes complexes
ont fait de grandes avancées. -
3:27 - 3:29Ils peuvent reconnaître
les visages humains, -
3:30 - 3:32déchiffrer l'écriture,
-
3:32 - 3:35détecter la fraude à la carte bancaire,
-
3:35 - 3:36bloquer le spam,
-
3:36 - 3:38traduire d'une langue à une autre,
-
3:38 - 3:40détecter les tumeurs en imagerie médicale,
-
3:40 - 3:43battre les humains aux échecs et au go.
-
3:43 - 3:46Beaucoup de ces progrès
découlent d'une méthode : -
3:46 - 3:48« l'apprentissage de la machine ».
-
3:48 - 3:51Cette méthode est différente
de la programmation traditionnelle -
3:51 - 3:55où l'on donne des instructions détaillées,
exactes, méticuleuses à l'ordinateur. -
3:55 - 4:00Cela ressemble plus
à un système nourri de données, -
4:00 - 4:01dont des données non structurées,
-
4:01 - 4:04comme celles générées
par notre vie numérique. -
4:04 - 4:06Le système apprend
en parcourant ces données. -
4:07 - 4:08Et aussi, c'est crucial,
-
4:08 - 4:13ces systèmes n'utilisent pas la logique
de la réponse unique. -
4:13 - 4:16Ils ne produisent pas une seule réponse,
c'est plus probabiliste : -
4:16 - 4:19« Celle-ci est probablement
plus proche de ce que vous cherchez. » -
4:20 - 4:23L'avantage est que cette méthode
est très puissante. -
4:23 - 4:25Le chef de l'IA chez Google l'a appelée :
-
4:25 - 4:27« l'efficacité irraisonnable
des données ». -
4:28 - 4:29L'inconvénient est :
-
4:30 - 4:33nous ne comprenons pas vraiment
ce que le système a appris. -
4:33 - 4:34En fait, c'est sa force.
-
4:35 - 4:39C'est moins comme donner
des instructions à un ordinateur ; -
4:39 - 4:43plus comme entraîner
une machine-chiot-créature -
4:43 - 4:46que nous ne comprenons
ni ne contrôlons vraiment. -
4:46 - 4:48Voilà notre problème.
-
4:48 - 4:53C'est un problème quand cette intelligence
artificielle comprend mal les choses. -
4:53 - 4:56C'est aussi un problème
quand elle comprend les choses -
4:56 - 5:00car on ne sait pas différencier
ces situations pour un problème subjectif. -
5:00 - 5:02Nous ignorons ce que pense cette chose.
-
5:03 - 5:07Considérez un algorithme d'embauche --
-
5:08 - 5:12un système utilisé pour embaucher des gens
en utilisant l'apprentissage des machines. -
5:13 - 5:17Un tel système aurait été entraîné
sur les données des employés -
5:17 - 5:19et chargé de trouver et embaucher
-
5:19 - 5:22des gens similaires à ceux
les plus performants de l'entreprise. -
5:23 - 5:24Cela semble bien.
-
5:24 - 5:26Une fois, j'ai assisté à une conférence
-
5:26 - 5:29qui réunissait responsables
des ressources humaines et des dirigeants, -
5:29 - 5:30des gens de haut niveau,
-
5:30 - 5:32avec de tels systèmes d'embauche.
-
5:32 - 5:34Ils étaient très excités.
-
5:34 - 5:38Ils pensaient que cela rendrait l'embauche
plus objective, moins biaisée -
5:38 - 5:41et donnerait plus de chances
aux femmes et minorités -
5:41 - 5:44face à des responsables RH partiaux.
-
5:44 - 5:46L'embauche humaine est partiale.
-
5:47 - 5:48Je sais.
-
5:48 - 5:51Dans l'un de mes premiers postes
en tant que programmeuse, -
5:51 - 5:55ma responsable directe
venait parfois me voir -
5:55 - 5:59très tôt le matin
ou très tard l'après-midi -
5:59 - 6:02et elle disait : « Zeinep,
allons déjeuner ! » -
6:03 - 6:05L'heure étrange me laissait perplexe.
-
6:05 - 6:07Il est 16h, déjeuner ?
-
6:07 - 6:10J'étais fauchée, le déjeuner était gratuit
donc j'y allais toujours. -
6:11 - 6:13Plus tard, j'ai réalisé
ce qu'il se passait. -
6:13 - 6:17Mes responsables directs
n'avaient pas dit à leurs responsables -
6:17 - 6:20qu'ils avaient embauché
pour un travail sérieux une adolescente -
6:20 - 6:24qui portait un jeans
et des baskets au travail. -
6:25 - 6:28Je faisais du bon travail
mais mon allure clochait, -
6:28 - 6:29j'avais les mauvais âge et sexe.
-
6:29 - 6:32Embaucher d'une manière
aveugle à la couleur et au sexe -
6:32 - 6:34me semble très bien.
-
6:35 - 6:38Mais avec ces systèmes,
c'est plus compliqué, voici pourquoi : -
6:39 - 6:45actuellement, les systèmes informatiques
peuvent déduire beaucoup vous concernant -
6:45 - 6:47grâce à vos miettes numériques,
-
6:47 - 6:49même si vous n'avez rien révélé.
-
6:50 - 6:52Ils peuvent déduire
votre orientation sexuelle, -
6:53 - 6:54vos traits de personnalité,
-
6:55 - 6:56vos tendances politiques.
-
6:57 - 7:01Ils ont des pouvoirs prédictifs
ayant une exactitude élevée. -
7:01 - 7:04Pour des choses
que vous n'avez pas révélées. -
7:04 - 7:06C'est de la déduction.
-
7:06 - 7:09J'ai une amie qui a développé
de tels systèmes informatiques -
7:09 - 7:13pour prévoir la probabilité
d'une dépression clinique ou post-partum -
7:13 - 7:14grâce à vos médias sociaux.
-
7:15 - 7:16Les résultats sont impressionnants.
-
7:16 - 7:20Son système peut prévoir
les risques de dépression -
7:20 - 7:24des mois avant l'apparition
de tout symptôme -- -
7:24 - 7:25des mois avant.
-
7:25 - 7:27Aucun symptôme mais une prédiction.
-
7:27 - 7:32Elle espère que cela sera utilisé
pour des interventions précoces, super ! -
7:33 - 7:35Mais mettez cela
dans le contexte de l'embauche. -
7:36 - 7:39Lors de cette conférence
de responsables des ressources humaines, -
7:39 - 7:44j'ai approché une responsable
d'une très grande entreprise -
7:44 - 7:48et lui ai dit : « Et si, à votre insu,
-
7:48 - 7:55votre système éliminait les gens
avec de forts risques de dépression ? -
7:56 - 7:59Ils ne sont pas en dépression
mais ont plus de risques pour l'avenir. -
8:00 - 8:03Et s'il éliminait les femmes
ayant plus de chances d'être enceintes -
8:03 - 8:06dans un ou deux ans
mais ne le sont pas actuellement ? -
8:07 - 8:12Et s'il embauchait des gens agressifs
car c'est la culture de l'entreprise ? » -
8:13 - 8:16On ne peut pas le dire en regardant
la répartition par sexe. -
8:16 - 8:17Cela peut être équilibré.
-
8:17 - 8:21Puisque c'est de l'apprentissage
de la machine, non du code traditionnel, -
8:21 - 8:26il n'y a pas de variables appelées
« plus de risques de dépression », -
8:26 - 8:28« plus de risques d'être enceinte »,
-
8:28 - 8:30« échelle d'agressivité d'un mec ».
-
8:30 - 8:34Non seulement vous ignorez
ce que votre système utilise pour choisir, -
8:34 - 8:36mais vous ignorez où chercher.
-
8:36 - 8:37C'est une boîte noire.
-
8:37 - 8:40Elle a un pouvoir prédictif
mais vous ne le comprenez pas. -
8:40 - 8:43J'ai demandé : « Quelle garantie avez-vous
-
8:43 - 8:47pour vous assurer que votre boîte noire
ne fait rien de louche ? » -
8:49 - 8:53Elle m'a regardée comme
si je venais de l'insulter. -
8:53 - 8:54(Rires)
-
8:54 - 8:56Elle m'a fixée et m'a dit :
-
8:57 - 9:01« Je ne veux rien entendre de plus. »
-
9:01 - 9:03Puis elle s'est tournée et est partie.
-
9:04 - 9:06Elle n'était pas impolie.
-
9:06 - 9:07C'était clairement du :
-
9:07 - 9:12« ce que j'ignore n'est pas mon problème,
allez-vous en, regard meurtrier ». -
9:12 - 9:13(Rires)
-
9:14 - 9:18Un tel système pourrait être moins biaisé
-
9:18 - 9:20que les responsables humains.
-
9:20 - 9:22Et il pourrait être monétairement censé.
-
9:23 - 9:24Mais il pourrait aussi mener
-
9:24 - 9:29à une fermeture du marché du travail
stable mais dissimulée -
9:29 - 9:31pour les gens avec
plus de risques de dépression. -
9:32 - 9:34Est-ce le genre de société
que nous voulons bâtir, -
9:34 - 9:37sans même savoir que nous l'avons fait,
-
9:37 - 9:39car nous avons confié
la prise de décisions à des machines -
9:39 - 9:41que nous ne comprenons pas vraiment ?
-
9:41 - 9:43Un autre problème :
-
9:43 - 9:48ces systèmes sont souvent entraînés
sur des données générées par nos actions, -
9:48 - 9:50des empreintes humaines.
-
9:50 - 9:54Elles pourraient refléter nos préjugés
-
9:54 - 9:58et ces systèmes pourraient
apprendre nos préjugés, -
9:58 - 9:59les amplifier
-
9:59 - 10:00et nous les retourner
-
10:00 - 10:02alors que nous nous disons :
-
10:02 - 10:05« Nous ne faisons que de l'informatique
neutre et objective. » -
10:06 - 10:09Des chercheurs chez Google ont découvert
-
10:10 - 10:13qu'on a moins de chances de montrer
aux femmes plutôt qu'aux hommes -
10:13 - 10:16des offres d'emploi avec un salaire élevé.
-
10:16 - 10:19Et chercher des noms afro-américains
-
10:19 - 10:21a plus de chances de retourner
-
10:21 - 10:24des publicités suggérant
un historique criminel, -
10:24 - 10:25même quand il n'y en a pas.
-
10:27 - 10:30De tels préjugés cachés
et des algorithmes boîte noire -
10:30 - 10:34qui sont parfois découverts
par les chercheurs, parfois non, -
10:34 - 10:37peuvent avoir des conséquences
qui changent la vie. -
10:38 - 10:42Dans le Wisconsin, un prévenu
a été condamné à 6 ans de prison -
10:42 - 10:44pour avoir échappé à la police.
-
10:45 - 10:46Vous l'ignorez peut-être
-
10:46 - 10:50mais des algorithmes sont utilisés
pour les probations et les condamnations. -
10:50 - 10:53Nous voulions savoir
comment ce score était calculé. -
10:54 - 10:55C'est une boîte noire commerciale.
-
10:55 - 11:00L'entreprise a refusé que l'on conteste
son algorithme en audience publique. -
11:00 - 11:06Mais ProPublica, une organisation
d'enquête, a audité cet algorithme -
11:06 - 11:08avec des données publiques
-
11:08 - 11:10et a découvert
que les résultats étaient biaisés, -
11:10 - 11:14que son pouvoir prédictif était mauvais,
à peine meilleur que la chance, -
11:14 - 11:18et qu'il étiquetait les prévenus noirs
comme de futurs criminels -
11:18 - 11:22avec un taux deux fois plus élevé
que pour les prévenus blancs. -
11:24 - 11:25Considérez ce cas :
-
11:26 - 11:30cette femme était en retard
pour récupérer sa filleule -
11:30 - 11:32à une école du comté de Broward,
en Floride, -
11:33 - 11:35elle courait dans la rue
avec une amie à elle. -
11:35 - 11:39Elles ont repéré une bécane et un vélo
non attachés sur un porche -
11:39 - 11:41et ont bêtement sauté dessus.
-
11:41 - 11:44Alors qu'elles partaient,
une femme est sortie et a dit : -
11:44 - 11:46« Hey ! C'est la bécane de mon fils ! »
-
11:46 - 11:49Elles l'ont lâchée, sont parties
mais ont été arrêtées. -
11:49 - 11:53Elle avait tort, elle a été idiote
mais elle n'avait que 18 ans. -
11:53 - 11:55Adolescente, elle avait commis
quelques méfaits. -
11:56 - 12:01Pendant ce temps, cet homme a été arrêté
pour vol chez Home Depot -- -
12:01 - 12:04pour une valeur de 85$,
un crime mineur similaire. -
12:05 - 12:09Mais il avait deux condamnations
pour vol à main armée. -
12:10 - 12:14L'algorithme l'a considérée elle,
comme étant un risque important, pas lui. -
12:15 - 12:19Deux ans plus tard, ProPublica a découvert
qu'elle n'avait pas récidivé. -
12:19 - 12:21Son casier judiciaire compliquait
sa recherche d'emploi. -
12:21 - 12:23Lui, d'un autre côté, avait récidivé
-
12:23 - 12:27et avait été condamné à 8 ans
pour un autre crime. -
12:28 - 12:31Clairement, nous devons
auditer nos boîtes noires -
12:31 - 12:34et ne pas leur laisser
ce genre de pouvoir incontrôlé. -
12:34 - 12:37(Applaudissements)
-
12:38 - 12:39Les audits sont importants,
-
12:39 - 12:42mais ils ne résolvent pas
tous nos problèmes. -
12:42 - 12:45Prenez le puissant algorithme
du fil d'actualités Facebook, -
12:45 - 12:50celui qui classe tout
et décide quoi vous montrer -
12:50 - 12:52des amis et des pages que vous suivez.
-
12:53 - 12:55Devrait-on vous montrer
une autre photo de bébé ? -
12:55 - 12:56(Rires)
-
12:56 - 12:59Une note maussade d'une connaissance ?
-
12:59 - 13:01Une actualité importante mais dure ?
-
13:01 - 13:03Il n'y a pas de bonne réponse.
-
13:03 - 13:05Facebook optimise
pour vous engager envers le site : -
13:06 - 13:07les j'aime, partages, commentaires.
-
13:08 - 13:11En août 2014,
-
13:11 - 13:14des manifestations ont éclaté
à Ferguson, dans le Missouri, -
13:14 - 13:18après qu'un adolescent afro-américain
a été tué par un officier de police blanc -
13:18 - 13:20dans des circonstances douteuses.
-
13:20 - 13:25La nouvelle des manifestations remplissait
mon fil d'actualité Twitter non filtré -
13:25 - 13:27mais n'était pas sur mon Facebook.
-
13:27 - 13:29Était-ce mes amis Facebook ?
-
13:29 - 13:31J'ai désactivé l'algorithme Facebook,
-
13:31 - 13:34ce qui est difficile car Facebook
veut vous faire passer -
13:34 - 13:36sous le contrôle de l'algorithme,
-
13:36 - 13:39et j'ai vu que mes amis en parlaient.
-
13:39 - 13:41C'est juste que l'algorithme
ne me le montrait pas. -
13:41 - 13:44Après des recherches, j'ai découvert
que le problème est répandu. -
13:44 - 13:48L'histoire de Ferguson
ne plaisait pas à l'algorithme. -
13:48 - 13:51Ce n'était pas « aimable »,
qui allait cliquer sur « j'aime » ? -
13:52 - 13:54Ce n'est même pas facile à commenter.
-
13:54 - 13:55Sans j'aime et commentaires,
-
13:55 - 13:58l'algorithme allait le montrer
à un nombre décroissant de gens, -
13:58 - 14:00donc nous ne pouvions le voir.
-
14:01 - 14:02Cette semaine-là,
-
14:02 - 14:04Facebook a plutôt souligné ceci,
-
14:05 - 14:07le Ice Bucket Challenge.
-
14:07 - 14:11Cause méritante, lâcher d'eau glacée,
donner à une charité, très bien. -
14:11 - 14:12Cela plaisait beaucoup à l'algorithme.
-
14:13 - 14:16La machine a pris
cette décision pour nous. -
14:16 - 14:19Une conversation
très importante mais difficile -
14:19 - 14:21aurait pu être étouffée
-
14:21 - 14:24si Facebook avait été le seul canal.
-
14:24 - 14:28Finalement, ces systèmes
peuvent aussi avoir tort -
14:28 - 14:31de façons qui ne ressemblent pas
aux systèmes humains. -
14:31 - 14:34Vous souvenez-vous de Watson,
le système d'IA d'IBM -
14:34 - 14:37qui a éliminé les participants humains
dans Jeopardy ? -
14:37 - 14:39C'était un super joueur.
-
14:39 - 14:42Mais, pour la finale de Jeopardy,
on a posé cette question à Watson : -
14:43 - 14:46« Le plus grand aéroport
ayant le nom d'un héros de 39-45, -
14:46 - 14:48le second plus grand
pour une bataille de 39-45. » -
14:48 - 14:49(Signal sonore de fin)
-
14:50 - 14:51Chicago.
-
14:51 - 14:52Les deux humains avaient raison.
-
14:53 - 14:57Watson, par contre,
a répondu « Toronto » -- -
14:57 - 15:00à une question
sur les villes des États-Unis ! -
15:00 - 15:02L'impressionnant système
a aussi fait une erreur -
15:03 - 15:06qu'un humain ne ferait jamais,
qu'un CE1 ne ferait jamais. -
15:07 - 15:10Notre intelligence artificielle
peut échouer -
15:10 - 15:13de façons ne correspondant pas
aux schémas d'erreurs humaines, -
15:13 - 15:16de façons inattendues et imprévues.
-
15:16 - 15:20Il serait lamentable de ne pas obtenir
un emploi pour lequel on est qualifié -
15:20 - 15:23mais ce serait pire si c'était à cause
d'un dépassement de pile -
15:23 - 15:25dans une sous-routine.
-
15:25 - 15:27(Rires)
-
15:27 - 15:29En mai 2010,
-
15:29 - 15:33un crash éclair sur Wall Street
alimenté par une boucle de rétroaction -
15:33 - 15:36dans un algorithme de vente de Wall Street
-
15:36 - 15:41a fait perdre mille milliards de dollars
en 36 minutes. -
15:42 - 15:44Je refuse de penser
au sens du mot « erreur » -
15:44 - 15:48dans le contexte des armes
mortelles autonomes. -
15:50 - 15:54Oui, les humains
ont toujours été partiaux. -
15:54 - 15:56Les preneurs de décision et gardiens,
-
15:56 - 15:59dans les tribunaux,
les actualités, en guerre... -
15:59 - 16:02Ils font des erreurs ;
mais c'est de cela dont je parle. -
16:02 - 16:06Nous ne pouvons pas échapper
à ces questions difficiles. -
16:07 - 16:10Nous ne pouvons pas sous-traiter
nos responsabilités aux machines. -
16:11 - 16:15(Applaudissements)
-
16:17 - 16:22L'intelligence artificielle n'offre pas
une carte « sortie de l'éthique ». -
16:23 - 16:26Le scientifique des données Fred Benenson
qualifie cela de lavage des maths. -
16:26 - 16:28Il nous faut l'opposé.
-
16:28 - 16:33Nous devons cultiver la suspicion,
le contrôle et l'enquête de l'algorithme. -
16:33 - 16:37Nous devons nous assurer
de la responsabilité des algorithmes, -
16:37 - 16:39les auditer et avoir
une transparence significative. -
16:39 - 16:43Nous devons accepter
qu'apporter les maths et l'informatique -
16:43 - 16:46dans les affaires humaines
désordonnées et basées sur des valeurs -
16:46 - 16:48n'apporte pas l'objectivité
-
16:48 - 16:50mais plutôt que la complexité
des affaires humaines -
16:50 - 16:52envahit les algorithmes.
-
16:52 - 16:56Nous devrions utiliser l'informatique
-
16:56 - 16:58pour prendre de meilleures décisions.
-
16:58 - 17:03Mais nous devons assumer
notre responsabilité morale de jugement -
17:03 - 17:06et utiliser les algorithmes dans ce cadre,
-
17:06 - 17:11pas comme un moyen d'abdiquer
et sous-traiter nos responsabilités -
17:11 - 17:13d'un humain à un autre.
-
17:14 - 17:16L'intelligence artificielle est arrivée.
-
17:16 - 17:20Cela signifie que nous devons
nous accrocher encore plus -
17:20 - 17:22aux valeurs et éthiques humaines.
-
17:22 - 17:23Merci.
-
17:23 - 17:28(Applaudissements)
- Title:
- L'intelligence artificielle rend la morale humaine plus importante
- Speaker:
- Zeynep Tufekci
- Description:
-
L'intelligence artificielle est arrivée et nous sommes prêts à l'utiliser pour prendre des décisions subjectives. Mais la façon complexe dont l'IA grossit et s'améliore fait qu'elle est difficile à comprendre et encore plus à contrôler. Dans cet exposé de mise en garde, Zeynep Tufekci explique comment les machines intelligentes peuvent échouer de façons qui ne correspondent pas aux schémas d'erreurs humaines -- et de façons inattendues et imprévues. « Nous ne pouvons pas sous-traiter nos responsabilités aux machines, dit-elle. Nous devons nous accrocher encore plus aux valeurs et éthiques humaines. »
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
eric vautier approved French subtitles for Machine intelligence makes human morals more important | ||
eric vautier edited French subtitles for Machine intelligence makes human morals more important | ||
Claire Ghyselen accepted French subtitles for Machine intelligence makes human morals more important | ||
Claire Ghyselen edited French subtitles for Machine intelligence makes human morals more important | ||
Thomas Prigent edited French subtitles for Machine intelligence makes human morals more important | ||
Morgane Quilfen edited French subtitles for Machine intelligence makes human morals more important | ||
Morgane Quilfen edited French subtitles for Machine intelligence makes human morals more important | ||
Morgane Quilfen edited French subtitles for Machine intelligence makes human morals more important |