Return to Video

L'intelligence artificielle rend la morale humaine plus importante

  • 0:01 - 0:05
    Mon premier travail
    était programmeuse informatique
  • 0:05 - 0:07
    durant ma première année à l'université --
  • 0:07 - 0:08
    quand j'étais adolescente.
  • 0:09 - 0:12
    Peu après avoir commencé
    à écrire des programmes en entreprise,
  • 0:13 - 0:16
    un responsable de l'entreprise
    est venu me voir
  • 0:16 - 0:18
    et m'a murmuré :
  • 0:18 - 0:21
    « Peut-il dire si je mens ? »
  • 0:22 - 0:24
    Il n'y avait personne d'autre
    dans la pièce.
  • 0:25 - 0:29
    « Qui peut dire si vous mentez ?
    Et pourquoi chuchotez-vous ? »
  • 0:30 - 0:33
    Le responsable a pointé du doigt
    l'ordinateur dans la pièce.
  • 0:33 - 0:36
    « Peut-il dire si je mens ? »
  • 0:38 - 0:42
    Ce responsable avait une aventure
    avec la réceptionniste.
  • 0:42 - 0:43
    (Rires)
  • 0:43 - 0:45
    J'étais toujours adolescente.
  • 0:45 - 0:47
    J'ai lui ai murmuré-crié :
  • 0:47 - 0:51
    « Oui, l'ordinateur peut dire
    si vous mentez. »
  • 0:51 - 0:53
    (Rires)
  • 0:53 - 0:56
    J'ai rigolé, mais c'est de moi
    qu'on peut se moquer.
  • 0:56 - 0:59
    Il y a aujourd'hui
    des systèmes informatiques
  • 0:59 - 1:03
    qui peuvent repérer
    les états émotionnels et les mensonges
  • 1:03 - 1:05
    en traitant les informations
    du visage humain.
  • 1:05 - 1:09
    Les publicitaires et les gouvernements
    sont très intéressés.
  • 1:10 - 1:12
    J'étais devenue programmeuse informatique
  • 1:12 - 1:15
    car j'étais l'une de ces gamines
    folles de maths et de sciences.
  • 1:16 - 1:19
    Mais, en chemin, j'avais découvert
    les armes nucléaires
  • 1:19 - 1:22
    et je me sentais très concernée
    par l'éthique de la science.
  • 1:22 - 1:23
    J'étais troublée.
  • 1:23 - 1:26
    Cependant, du fait
    de circonstances familiales,
  • 1:26 - 1:29
    je devais aussi commencer à travailler
    aussi vite que possible.
  • 1:29 - 1:33
    Je me suis dit :
    « Choisis un domaine technique
  • 1:33 - 1:34
    où tu peux avoir un emploi facilement
  • 1:34 - 1:38
    et où je n'ai pas à gérer
    des questions d'éthique difficiles. »
  • 1:39 - 1:41
    J'ai donc choisi l'informatique.
  • 1:41 - 1:42
    (Rires)
  • 1:42 - 1:45
    Eh bien, ah ah ah !
    On peut se moquer de moi.
  • 1:45 - 1:48
    Aujourd'hui, les informaticiens
    construisent des plateformes
  • 1:48 - 1:52
    qui contrôlent chaque jour
    ce que voient un milliard de personnes.
  • 1:53 - 1:57
    Ils développent des voitures
    pouvant décider qui écraser.
  • 1:58 - 2:01
    Ils construisent même
    des machines, des armes
  • 2:01 - 2:03
    qui pourraient tuer
    des êtres humains dans une guerre.
  • 2:03 - 2:06
    Il y a de l'éthique partout.
  • 2:07 - 2:09
    L'intelligence artificielle est arrivée.
  • 2:10 - 2:13
    Nous utilisons l'informatique
    pour prendre toutes sortes de décisions,
  • 2:13 - 2:15
    y compris de nouvelles décisions.
  • 2:15 - 2:17
    Nous posons à l'informatique
  • 2:17 - 2:20
    des questions auxquelles
    il n'y a pas d'unique bonne réponse,
  • 2:20 - 2:22
    qui sont subjectives,
  • 2:22 - 2:24
    ouvertes et reposent sur des valeurs.
  • 2:24 - 2:26
    Nous posons des questions comme :
  • 2:26 - 2:27
    « Qui devrait-on embaucher ? »
  • 2:28 - 2:31
    « Quelles nouvelles de quel ami
    devrait-on vous montrer ? »
  • 2:31 - 2:33
    « Quel prisonnier
    va probablement récidiver ? »
  • 2:34 - 2:37
    « Quel nouvel objet ou film
    devrait être recommandé aux gens ? »
  • 2:37 - 2:40
    Cela fait un certain temps
    que nous utilisons des ordinateurs
  • 2:40 - 2:42
    mais c'est différent.
  • 2:42 - 2:44
    C'est un changement historique :
  • 2:44 - 2:49
    car on ne peut pas utiliser l'informatique
    pour des décisions si subjectives
  • 2:49 - 2:54
    comme on utilise l'informatique
    pour piloter un avion, construire un pont,
  • 2:54 - 2:56
    aller sur la Lune.
  • 2:56 - 3:00
    Les avions sont-ils plus sûrs ?
    Un pont a-t-il bougé et est tombé ?
  • 3:00 - 3:04
    Là, nous nous accordons
    sur des repères assez clairs
  • 3:04 - 3:06
    et les lois de la nature nous guident.
  • 3:07 - 3:10
    Nous n'avons pas de tels ancres et repères
  • 3:10 - 3:14
    pour les décisions
    des affaires complexes humaines.
  • 3:14 - 3:18
    Pour compliquer encore les choses,
    nos logiciels gagnent en puissance
  • 3:18 - 3:22
    mais sont aussi moins transparents
    et plus complexes.
  • 3:23 - 3:25
    Récemment, les dix dernières années,
  • 3:25 - 3:27
    les algorithmes complexes
    ont fait de grandes avancées.
  • 3:27 - 3:29
    Ils peuvent reconnaître
    les visages humains,
  • 3:30 - 3:32
    déchiffrer l'écriture,
  • 3:32 - 3:35
    détecter la fraude à la carte bancaire,
  • 3:35 - 3:36
    bloquer le spam,
  • 3:36 - 3:38
    traduire d'une langue à une autre,
  • 3:38 - 3:40
    détecter les tumeurs en imagerie médicale,
  • 3:40 - 3:43
    battre les humains aux échecs et au go.
  • 3:43 - 3:46
    Beaucoup de ces progrès
    découlent d'une méthode :
  • 3:46 - 3:48
    « l'apprentissage de la machine ».
  • 3:48 - 3:51
    Cette méthode est différente
    de la programmation traditionnelle
  • 3:51 - 3:55
    où l'on donne des instructions détaillées,
    exactes, méticuleuses à l'ordinateur.
  • 3:55 - 4:00
    Cela ressemble plus
    à un système nourri de données,
  • 4:00 - 4:01
    dont des données non structurées,
  • 4:01 - 4:04
    comme celles générées
    par notre vie numérique.
  • 4:04 - 4:06
    Le système apprend
    en parcourant ces données.
  • 4:07 - 4:08
    Et aussi, c'est crucial,
  • 4:08 - 4:13
    ces systèmes n'utilisent pas la logique
    de la réponse unique.
  • 4:13 - 4:16
    Ils ne produisent pas une seule réponse,
    c'est plus probabiliste :
  • 4:16 - 4:19
    « Celle-ci est probablement
    plus proche de ce que vous cherchez. »
  • 4:20 - 4:23
    L'avantage est que cette méthode
    est très puissante.
  • 4:23 - 4:25
    Le chef de l'IA chez Google l'a appelée :
  • 4:25 - 4:27
    « l'efficacité irraisonnable
    des données ».
  • 4:28 - 4:29
    L'inconvénient est :
  • 4:30 - 4:33
    nous ne comprenons pas vraiment
    ce que le système a appris.
  • 4:33 - 4:34
    En fait, c'est sa force.
  • 4:35 - 4:39
    C'est moins comme donner
    des instructions à un ordinateur ;
  • 4:39 - 4:43
    plus comme entraîner
    une machine-chiot-créature
  • 4:43 - 4:46
    que nous ne comprenons
    ni ne contrôlons vraiment.
  • 4:46 - 4:48
    Voilà notre problème.
  • 4:48 - 4:53
    C'est un problème quand cette intelligence
    artificielle comprend mal les choses.
  • 4:53 - 4:56
    C'est aussi un problème
    quand elle comprend les choses
  • 4:56 - 5:00
    car on ne sait pas différencier
    ces situations pour un problème subjectif.
  • 5:00 - 5:02
    Nous ignorons ce que pense cette chose.
  • 5:03 - 5:07
    Considérez un algorithme d'embauche --
  • 5:08 - 5:12
    un système utilisé pour embaucher des gens
    en utilisant l'apprentissage des machines.
  • 5:13 - 5:17
    Un tel système aurait été entraîné
    sur les données des employés
  • 5:17 - 5:19
    et chargé de trouver et embaucher
  • 5:19 - 5:22
    des gens similaires à ceux
    les plus performants de l'entreprise.
  • 5:23 - 5:24
    Cela semble bien.
  • 5:24 - 5:26
    Une fois, j'ai assisté à une conférence
  • 5:26 - 5:29
    qui réunissait responsables
    des ressources humaines et des dirigeants,
  • 5:29 - 5:30
    des gens de haut niveau,
  • 5:30 - 5:32
    avec de tels systèmes d'embauche.
  • 5:32 - 5:34
    Ils étaient très excités.
  • 5:34 - 5:38
    Ils pensaient que cela rendrait l'embauche
    plus objective, moins biaisée
  • 5:38 - 5:41
    et donnerait plus de chances
    aux femmes et minorités
  • 5:41 - 5:44
    face à des responsables RH partiaux.
  • 5:44 - 5:46
    L'embauche humaine est partiale.
  • 5:47 - 5:48
    Je sais.
  • 5:48 - 5:51
    Dans l'un de mes premiers postes
    en tant que programmeuse,
  • 5:51 - 5:55
    ma responsable directe
    venait parfois me voir
  • 5:55 - 5:59
    très tôt le matin
    ou très tard l'après-midi
  • 5:59 - 6:02
    et elle disait : « Zeinep,
    allons déjeuner ! »
  • 6:03 - 6:05
    L'heure étrange me laissait perplexe.
  • 6:05 - 6:07
    Il est 16h, déjeuner ?
  • 6:07 - 6:10
    J'étais fauchée, le déjeuner était gratuit
    donc j'y allais toujours.
  • 6:11 - 6:13
    Plus tard, j'ai réalisé
    ce qu'il se passait.
  • 6:13 - 6:17
    Mes responsables directs
    n'avaient pas dit à leurs responsables
  • 6:17 - 6:20
    qu'ils avaient embauché
    pour un travail sérieux une adolescente
  • 6:20 - 6:24
    qui portait un jeans
    et des baskets au travail.
  • 6:25 - 6:28
    Je faisais du bon travail
    mais mon allure clochait,
  • 6:28 - 6:29
    j'avais les mauvais âge et sexe.
  • 6:29 - 6:32
    Embaucher d'une manière
    aveugle à la couleur et au sexe
  • 6:32 - 6:34
    me semble très bien.
  • 6:35 - 6:38
    Mais avec ces systèmes,
    c'est plus compliqué, voici pourquoi :
  • 6:39 - 6:45
    actuellement, les systèmes informatiques
    peuvent déduire beaucoup vous concernant
  • 6:45 - 6:47
    grâce à vos miettes numériques,
  • 6:47 - 6:49
    même si vous n'avez rien révélé.
  • 6:50 - 6:52
    Ils peuvent déduire
    votre orientation sexuelle,
  • 6:53 - 6:54
    vos traits de personnalité,
  • 6:55 - 6:56
    vos tendances politiques.
  • 6:57 - 7:01
    Ils ont des pouvoirs prédictifs
    ayant une exactitude élevée.
  • 7:01 - 7:04
    Pour des choses
    que vous n'avez pas révélées.
  • 7:04 - 7:06
    C'est de la déduction.
  • 7:06 - 7:09
    J'ai une amie qui a développé
    de tels systèmes informatiques
  • 7:09 - 7:13
    pour prévoir la probabilité
    d'une dépression clinique ou post-partum
  • 7:13 - 7:14
    grâce à vos médias sociaux.
  • 7:15 - 7:16
    Les résultats sont impressionnants.
  • 7:16 - 7:20
    Son système peut prévoir
    les risques de dépression
  • 7:20 - 7:24
    des mois avant l'apparition
    de tout symptôme --
  • 7:24 - 7:25
    des mois avant.
  • 7:25 - 7:27
    Aucun symptôme mais une prédiction.
  • 7:27 - 7:32
    Elle espère que cela sera utilisé
    pour des interventions précoces, super !
  • 7:33 - 7:35
    Mais mettez cela
    dans le contexte de l'embauche.
  • 7:36 - 7:39
    Lors de cette conférence
    de responsables des ressources humaines,
  • 7:39 - 7:44
    j'ai approché une responsable
    d'une très grande entreprise
  • 7:44 - 7:48
    et lui ai dit : « Et si, à votre insu,
  • 7:48 - 7:55
    votre système éliminait les gens
    avec de forts risques de dépression ?
  • 7:56 - 7:59
    Ils ne sont pas en dépression
    mais ont plus de risques pour l'avenir.
  • 8:00 - 8:03
    Et s'il éliminait les femmes
    ayant plus de chances d'être enceintes
  • 8:03 - 8:06
    dans un ou deux ans
    mais ne le sont pas actuellement ?
  • 8:07 - 8:12
    Et s'il embauchait des gens agressifs
    car c'est la culture de l'entreprise ? »
  • 8:13 - 8:16
    On ne peut pas le dire en regardant
    la répartition par sexe.
  • 8:16 - 8:17
    Cela peut être équilibré.
  • 8:17 - 8:21
    Puisque c'est de l'apprentissage
    de la machine, non du code traditionnel,
  • 8:21 - 8:26
    il n'y a pas de variables appelées
    « plus de risques de dépression »,
  • 8:26 - 8:28
    « plus de risques d'être enceinte »,
  • 8:28 - 8:30
    « échelle d'agressivité d'un mec ».
  • 8:30 - 8:34
    Non seulement vous ignorez
    ce que votre système utilise pour choisir,
  • 8:34 - 8:36
    mais vous ignorez où chercher.
  • 8:36 - 8:37
    C'est une boîte noire.
  • 8:37 - 8:40
    Elle a un pouvoir prédictif
    mais vous ne le comprenez pas.
  • 8:40 - 8:43
    J'ai demandé : « Quelle garantie avez-vous
  • 8:43 - 8:47
    pour vous assurer que votre boîte noire
    ne fait rien de louche ? »
  • 8:49 - 8:53
    Elle m'a regardée comme
    si je venais de l'insulter.
  • 8:53 - 8:54
    (Rires)
  • 8:54 - 8:56
    Elle m'a fixée et m'a dit :
  • 8:57 - 9:01
    « Je ne veux rien entendre de plus. »
  • 9:01 - 9:03
    Puis elle s'est tournée et est partie.
  • 9:04 - 9:06
    Elle n'était pas impolie.
  • 9:06 - 9:07
    C'était clairement du :
  • 9:07 - 9:12
    « ce que j'ignore n'est pas mon problème,
    allez-vous en, regard meurtrier ».
  • 9:12 - 9:13
    (Rires)
  • 9:14 - 9:18
    Un tel système pourrait être moins biaisé
  • 9:18 - 9:20
    que les responsables humains.
  • 9:20 - 9:22
    Et il pourrait être monétairement censé.
  • 9:23 - 9:24
    Mais il pourrait aussi mener
  • 9:24 - 9:29
    à une fermeture du marché du travail
    stable mais dissimulée
  • 9:29 - 9:31
    pour les gens avec
    plus de risques de dépression.
  • 9:32 - 9:34
    Est-ce le genre de société
    que nous voulons bâtir,
  • 9:34 - 9:37
    sans même savoir que nous l'avons fait,
  • 9:37 - 9:39
    car nous avons confié
    la prise de décisions à des machines
  • 9:39 - 9:41
    que nous ne comprenons pas vraiment ?
  • 9:41 - 9:43
    Un autre problème :
  • 9:43 - 9:48
    ces systèmes sont souvent entraînés
    sur des données générées par nos actions,
  • 9:48 - 9:50
    des empreintes humaines.
  • 9:50 - 9:54
    Elles pourraient refléter nos préjugés
  • 9:54 - 9:58
    et ces systèmes pourraient
    apprendre nos préjugés,
  • 9:58 - 9:59
    les amplifier
  • 9:59 - 10:00
    et nous les retourner
  • 10:00 - 10:02
    alors que nous nous disons :
  • 10:02 - 10:05
    « Nous ne faisons que de l'informatique
    neutre et objective. »
  • 10:06 - 10:09
    Des chercheurs chez Google ont découvert
  • 10:10 - 10:13
    qu'on a moins de chances de montrer
    aux femmes plutôt qu'aux hommes
  • 10:13 - 10:16
    des offres d'emploi avec un salaire élevé.
  • 10:16 - 10:19
    Et chercher des noms afro-américains
  • 10:19 - 10:21
    a plus de chances de retourner
  • 10:21 - 10:24
    des publicités suggérant
    un historique criminel,
  • 10:24 - 10:25
    même quand il n'y en a pas.
  • 10:27 - 10:30
    De tels préjugés cachés
    et des algorithmes boîte noire
  • 10:30 - 10:34
    qui sont parfois découverts
    par les chercheurs, parfois non,
  • 10:34 - 10:37
    peuvent avoir des conséquences
    qui changent la vie.
  • 10:38 - 10:42
    Dans le Wisconsin, un prévenu
    a été condamné à 6 ans de prison
  • 10:42 - 10:44
    pour avoir échappé à la police.
  • 10:45 - 10:46
    Vous l'ignorez peut-être
  • 10:46 - 10:50
    mais des algorithmes sont utilisés
    pour les probations et les condamnations.
  • 10:50 - 10:53
    Nous voulions savoir
    comment ce score était calculé.
  • 10:54 - 10:55
    C'est une boîte noire commerciale.
  • 10:55 - 11:00
    L'entreprise a refusé que l'on conteste
    son algorithme en audience publique.
  • 11:00 - 11:06
    Mais ProPublica, une organisation
    d'enquête, a audité cet algorithme
  • 11:06 - 11:08
    avec des données publiques
  • 11:08 - 11:10
    et a découvert
    que les résultats étaient biaisés,
  • 11:10 - 11:14
    que son pouvoir prédictif était mauvais,
    à peine meilleur que la chance,
  • 11:14 - 11:18
    et qu'il étiquetait les prévenus noirs
    comme de futurs criminels
  • 11:18 - 11:22
    avec un taux deux fois plus élevé
    que pour les prévenus blancs.
  • 11:24 - 11:25
    Considérez ce cas :
  • 11:26 - 11:30
    cette femme était en retard
    pour récupérer sa filleule
  • 11:30 - 11:32
    à une école du comté de Broward,
    en Floride,
  • 11:33 - 11:35
    elle courait dans la rue
    avec une amie à elle.
  • 11:35 - 11:39
    Elles ont repéré une bécane et un vélo
    non attachés sur un porche
  • 11:39 - 11:41
    et ont bêtement sauté dessus.
  • 11:41 - 11:44
    Alors qu'elles partaient,
    une femme est sortie et a dit :
  • 11:44 - 11:46
    « Hey ! C'est la bécane de mon fils ! »
  • 11:46 - 11:49
    Elles l'ont lâchée, sont parties
    mais ont été arrêtées.
  • 11:49 - 11:53
    Elle avait tort, elle a été idiote
    mais elle n'avait que 18 ans.
  • 11:53 - 11:55
    Adolescente, elle avait commis
    quelques méfaits.
  • 11:56 - 12:01
    Pendant ce temps, cet homme a été arrêté
    pour vol chez Home Depot --
  • 12:01 - 12:04
    pour une valeur de 85$,
    un crime mineur similaire.
  • 12:05 - 12:09
    Mais il avait deux condamnations
    pour vol à main armée.
  • 12:10 - 12:14
    L'algorithme l'a considérée elle,
    comme étant un risque important, pas lui.
  • 12:15 - 12:19
    Deux ans plus tard, ProPublica a découvert
    qu'elle n'avait pas récidivé.
  • 12:19 - 12:21
    Son casier judiciaire compliquait
    sa recherche d'emploi.
  • 12:21 - 12:23
    Lui, d'un autre côté, avait récidivé
  • 12:23 - 12:27
    et avait été condamné à 8 ans
    pour un autre crime.
  • 12:28 - 12:31
    Clairement, nous devons
    auditer nos boîtes noires
  • 12:31 - 12:34
    et ne pas leur laisser
    ce genre de pouvoir incontrôlé.
  • 12:34 - 12:37
    (Applaudissements)
  • 12:38 - 12:39
    Les audits sont importants,
  • 12:39 - 12:42
    mais ils ne résolvent pas
    tous nos problèmes.
  • 12:42 - 12:45
    Prenez le puissant algorithme
    du fil d'actualités Facebook,
  • 12:45 - 12:50
    celui qui classe tout
    et décide quoi vous montrer
  • 12:50 - 12:52
    des amis et des pages que vous suivez.
  • 12:53 - 12:55
    Devrait-on vous montrer
    une autre photo de bébé ?
  • 12:55 - 12:56
    (Rires)
  • 12:56 - 12:59
    Une note maussade d'une connaissance ?
  • 12:59 - 13:01
    Une actualité importante mais dure ?
  • 13:01 - 13:03
    Il n'y a pas de bonne réponse.
  • 13:03 - 13:05
    Facebook optimise
    pour vous engager envers le site :
  • 13:06 - 13:07
    les j'aime, partages, commentaires.
  • 13:08 - 13:11
    En août 2014,
  • 13:11 - 13:14
    des manifestations ont éclaté
    à Ferguson, dans le Missouri,
  • 13:14 - 13:18
    après qu'un adolescent afro-américain
    a été tué par un officier de police blanc
  • 13:18 - 13:20
    dans des circonstances douteuses.
  • 13:20 - 13:25
    La nouvelle des manifestations remplissait
    mon fil d'actualité Twitter non filtré
  • 13:25 - 13:27
    mais n'était pas sur mon Facebook.
  • 13:27 - 13:29
    Était-ce mes amis Facebook ?
  • 13:29 - 13:31
    J'ai désactivé l'algorithme Facebook,
  • 13:31 - 13:34
    ce qui est difficile car Facebook
    veut vous faire passer
  • 13:34 - 13:36
    sous le contrôle de l'algorithme,
  • 13:36 - 13:39
    et j'ai vu que mes amis en parlaient.
  • 13:39 - 13:41
    C'est juste que l'algorithme
    ne me le montrait pas.
  • 13:41 - 13:44
    Après des recherches, j'ai découvert
    que le problème est répandu.
  • 13:44 - 13:48
    L'histoire de Ferguson
    ne plaisait pas à l'algorithme.
  • 13:48 - 13:51
    Ce n'était pas « aimable »,
    qui allait cliquer sur « j'aime » ?
  • 13:52 - 13:54
    Ce n'est même pas facile à commenter.
  • 13:54 - 13:55
    Sans j'aime et commentaires,
  • 13:55 - 13:58
    l'algorithme allait le montrer
    à un nombre décroissant de gens,
  • 13:58 - 14:00
    donc nous ne pouvions le voir.
  • 14:01 - 14:02
    Cette semaine-là,
  • 14:02 - 14:04
    Facebook a plutôt souligné ceci,
  • 14:05 - 14:07
    le Ice Bucket Challenge.
  • 14:07 - 14:11
    Cause méritante, lâcher d'eau glacée,
    donner à une charité, très bien.
  • 14:11 - 14:12
    Cela plaisait beaucoup à l'algorithme.
  • 14:13 - 14:16
    La machine a pris
    cette décision pour nous.
  • 14:16 - 14:19
    Une conversation
    très importante mais difficile
  • 14:19 - 14:21
    aurait pu être étouffée
  • 14:21 - 14:24
    si Facebook avait été le seul canal.
  • 14:24 - 14:28
    Finalement, ces systèmes
    peuvent aussi avoir tort
  • 14:28 - 14:31
    de façons qui ne ressemblent pas
    aux systèmes humains.
  • 14:31 - 14:34
    Vous souvenez-vous de Watson,
    le système d'IA d'IBM
  • 14:34 - 14:37
    qui a éliminé les participants humains
    dans Jeopardy ?
  • 14:37 - 14:39
    C'était un super joueur.
  • 14:39 - 14:42
    Mais, pour la finale de Jeopardy,
    on a posé cette question à Watson :
  • 14:43 - 14:46
    « Le plus grand aéroport
    ayant le nom d'un héros de 39-45,
  • 14:46 - 14:48
    le second plus grand
    pour une bataille de 39-45. »
  • 14:48 - 14:49
    (Signal sonore de fin)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:52
    Les deux humains avaient raison.
  • 14:53 - 14:57
    Watson, par contre,
    a répondu « Toronto » --
  • 14:57 - 15:00
    à une question
    sur les villes des États-Unis !
  • 15:00 - 15:02
    L'impressionnant système
    a aussi fait une erreur
  • 15:03 - 15:06
    qu'un humain ne ferait jamais,
    qu'un CE1 ne ferait jamais.
  • 15:07 - 15:10
    Notre intelligence artificielle
    peut échouer
  • 15:10 - 15:13
    de façons ne correspondant pas
    aux schémas d'erreurs humaines,
  • 15:13 - 15:16
    de façons inattendues et imprévues.
  • 15:16 - 15:20
    Il serait lamentable de ne pas obtenir
    un emploi pour lequel on est qualifié
  • 15:20 - 15:23
    mais ce serait pire si c'était à cause
    d'un dépassement de pile
  • 15:23 - 15:25
    dans une sous-routine.
  • 15:25 - 15:27
    (Rires)
  • 15:27 - 15:29
    En mai 2010,
  • 15:29 - 15:33
    un crash éclair sur Wall Street
    alimenté par une boucle de rétroaction
  • 15:33 - 15:36
    dans un algorithme de vente de Wall Street
  • 15:36 - 15:41
    a fait perdre mille milliards de dollars
    en 36 minutes.
  • 15:42 - 15:44
    Je refuse de penser
    au sens du mot « erreur »
  • 15:44 - 15:48
    dans le contexte des armes
    mortelles autonomes.
  • 15:50 - 15:54
    Oui, les humains
    ont toujours été partiaux.
  • 15:54 - 15:56
    Les preneurs de décision et gardiens,
  • 15:56 - 15:59
    dans les tribunaux,
    les actualités, en guerre...
  • 15:59 - 16:02
    Ils font des erreurs ;
    mais c'est de cela dont je parle.
  • 16:02 - 16:06
    Nous ne pouvons pas échapper
    à ces questions difficiles.
  • 16:07 - 16:10
    Nous ne pouvons pas sous-traiter
    nos responsabilités aux machines.
  • 16:11 - 16:15
    (Applaudissements)
  • 16:17 - 16:22
    L'intelligence artificielle n'offre pas
    une carte « sortie de l'éthique ».
  • 16:23 - 16:26
    Le scientifique des données Fred Benenson
    qualifie cela de lavage des maths.
  • 16:26 - 16:28
    Il nous faut l'opposé.
  • 16:28 - 16:33
    Nous devons cultiver la suspicion,
    le contrôle et l'enquête de l'algorithme.
  • 16:33 - 16:37
    Nous devons nous assurer
    de la responsabilité des algorithmes,
  • 16:37 - 16:39
    les auditer et avoir
    une transparence significative.
  • 16:39 - 16:43
    Nous devons accepter
    qu'apporter les maths et l'informatique
  • 16:43 - 16:46
    dans les affaires humaines
    désordonnées et basées sur des valeurs
  • 16:46 - 16:48
    n'apporte pas l'objectivité
  • 16:48 - 16:50
    mais plutôt que la complexité
    des affaires humaines
  • 16:50 - 16:52
    envahit les algorithmes.
  • 16:52 - 16:56
    Nous devrions utiliser l'informatique
  • 16:56 - 16:58
    pour prendre de meilleures décisions.
  • 16:58 - 17:03
    Mais nous devons assumer
    notre responsabilité morale de jugement
  • 17:03 - 17:06
    et utiliser les algorithmes dans ce cadre,
  • 17:06 - 17:11
    pas comme un moyen d'abdiquer
    et sous-traiter nos responsabilités
  • 17:11 - 17:13
    d'un humain à un autre.
  • 17:14 - 17:16
    L'intelligence artificielle est arrivée.
  • 17:16 - 17:20
    Cela signifie que nous devons
    nous accrocher encore plus
  • 17:20 - 17:22
    aux valeurs et éthiques humaines.
  • 17:22 - 17:23
    Merci.
  • 17:23 - 17:28
    (Applaudissements)
Title:
L'intelligence artificielle rend la morale humaine plus importante
Speaker:
Zeynep Tufekci
Description:

L'intelligence artificielle est arrivée et nous sommes prêts à l'utiliser pour prendre des décisions subjectives. Mais la façon complexe dont l'IA grossit et s'améliore fait qu'elle est difficile à comprendre et encore plus à contrôler. Dans cet exposé de mise en garde, Zeynep Tufekci explique comment les machines intelligentes peuvent échouer de façons qui ne correspondent pas aux schémas d'erreurs humaines -- et de façons inattendues et imprévues. « Nous ne pouvons pas sous-traiter nos responsabilités aux machines, dit-elle. Nous devons nous accrocher encore plus aux valeurs et éthiques humaines. »

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

French subtitles

Revisions