Return to Video

Machine-intelligentie maakt menselijke moraal belangrijker

  • 0:01 - 0:05
    Ik begon mijn eerste baan
    als computerprogrammeur
  • 0:05 - 0:07
    in mijn eerste jaar aan de universiteit.
  • 0:07 - 0:08
    Ik was nog een tiener.
  • 0:09 - 0:10
    Spoedig nadat ik er begon
  • 0:10 - 0:13
    met het schrijven
    van software voor een bedrijf,
  • 0:13 - 0:18
    kwam een manager van het bedrijf
    naar me toe en fluisterde:
  • 0:18 - 0:21
    "Weet hij of ik lieg?"
  • 0:22 - 0:24
    Er was niemand anders in de kamer.
  • 0:25 - 0:29
    Ik: "Weet wie dat je liegt?
    En waarom fluisteren we?"
  • 0:30 - 0:33
    De manager wees
    naar de computer in de kamer.
  • 0:33 - 0:36
    "Weet hij of ik lieg?"
  • 0:38 - 0:42
    Nu had die manager
    een affaire met de receptioniste.
  • 0:42 - 0:43
    (Gelach)
  • 0:43 - 0:45
    En ik was nog een tiener.
  • 0:45 - 0:47
    Dus fluister-schreeuwde ik naar hem terug:
  • 0:47 - 0:51
    "Ja, de computer weet of je liegt."
  • 0:51 - 0:53
    (Gelach)
  • 0:53 - 0:56
    Nou, ik lachte, maar op dit moment
    zou ik moeten worden uitgelachen.
  • 0:56 - 0:59
    Tegenwoordig zijn er computersystemen
  • 0:59 - 1:03
    die emotionele toestanden
    en zelfs liegen herkennen
  • 1:03 - 1:05
    door het interpreteren
    van menselijke gezichten.
  • 1:05 - 1:09
    Adverteerders en zelfs regeringen
    zijn zeer geïnteresseerd.
  • 1:10 - 1:12
    Ik was computerprogrammeur geworden
  • 1:12 - 1:16
    omdat ik een van die kinderen was
    die gek zijn op wiskunde en wetenschap.
  • 1:16 - 1:19
    Maar ik leerde wat over kernwapens
  • 1:19 - 1:22
    en werd echt bezorgd
    over de ethiek van de wetenschap.
  • 1:22 - 1:23
    Ik was in de war.
  • 1:23 - 1:26
    Door familieomstandigheden
  • 1:26 - 1:29
    moest ik zo snel mogelijk
    aan werk geraken.
  • 1:29 - 1:33
    Ik dacht, nou, laat me
    een technisch gebied uitkiezen
  • 1:33 - 1:35
    waarin ik gemakkelijk een baan kan vinden
  • 1:35 - 1:38
    en waar ik niet hoef in te gaan
    op eventuele lastige vragen over ethiek.
  • 1:39 - 1:41
    Dus koos ik voor computers.
  • 1:41 - 1:42
    (Gelach)
  • 1:42 - 1:45
    Nou ja, ha, ha, ha! Lach maar.
  • 1:45 - 1:48
    Tegenwoordig bouwen
    computerwetenschappers systemen
  • 1:48 - 1:52
    die elke dag een miljard
    mensen controleren.
  • 1:53 - 1:57
    Ze ontwikkelen auto's die zouden
    kunnen beslissen wie ze overrijden.
  • 1:58 - 2:01
    Ze bouwen zelfs machines, wapens,
  • 2:01 - 2:03
    die in de oorlog mensen
    zouden kunnen doden.
  • 2:03 - 2:06
    Het is ethiek, al wat de klok slaat.
  • 2:07 - 2:09
    Machine-intelligentie is hier.
  • 2:10 - 2:13
    We nemen allerlei beslissingen
    aan de hand van berekeningen,
  • 2:13 - 2:16
    maar ook nieuwe typen beslissingen.
  • 2:16 - 2:20
    We stellen vragen aan de computer
    waar niet één enkel antwoord op is,
  • 2:20 - 2:22
    die subjectief zijn
  • 2:22 - 2:24
    met een open einde en waardegeladen.
  • 2:24 - 2:26
    We stellen vragen als:
  • 2:26 - 2:27
    "Wie moet het bedrijf inhuren?"
  • 2:28 - 2:31
    "Welke update van welke vriend
    moet je te zien krijgen?"
  • 2:31 - 2:34
    "Welke gevangene heeft
    meer kans om te recidiveren?"
  • 2:34 - 2:37
    "Welke nieuwsbericht of film
    moeten we aanbevelen?"
  • 2:37 - 2:40
    Ik weet dat we al een tijdje
    computers gebruiken,
  • 2:40 - 2:42
    maar dit is anders.
  • 2:42 - 2:44
    Dit is een historisch keerpunt,
  • 2:44 - 2:47
    omdat we voor dergelijke
    subjectieve beslissingen
  • 2:47 - 2:49
    niet op berekeningen kunnen vertrouwen,
  • 2:49 - 2:54
    zoals we dat doen voor het vliegen
    van vliegtuigen, het bouwen van bruggen
  • 2:54 - 2:56
    of naar de maan gaan.
  • 2:56 - 3:00
    Zijn vliegtuigen veiliger?
    Is de brug gaan zwaaien en ingestort?
  • 3:00 - 3:04
    Daar hebben we vrij duidelijke
    normen voor afgesproken
  • 3:04 - 3:06
    en we hebben natuurwetten
    om ons te leiden.
  • 3:07 - 3:10
    Dergelijke ijkpunten
    en normen hebben we niet
  • 3:10 - 3:14
    voor besluiten in rommelige
    menselijke aangelegenheden.
  • 3:14 - 3:18
    Om de zaken nog ingewikkelder te maken,
    wordt onze software steeds krachtiger,
  • 3:18 - 3:22
    maar ook steeds
    minder transparant en complexer.
  • 3:23 - 3:25
    Recentelijk, in het afgelopen decennium,
  • 3:25 - 3:27
    hebben complexe algoritmen
    grote vooruitgang geboekt.
  • 3:27 - 3:29
    Ze kunnen menselijke gezichten herkennen.
  • 3:30 - 3:32
    Ze kunnen handschrift ontcijferen.
  • 3:32 - 3:35
    Ze kunnen creditcardfraude detecteren,
  • 3:35 - 3:36
    spam blokkeren
  • 3:36 - 3:38
    en vertalingen maken.
  • 3:38 - 3:41
    Ze kunnen tumoren detecteren
    bij medische beeldvorming.
  • 3:41 - 3:43
    Ze kunnen mensen
    met schaken en go verslaan.
  • 3:43 - 3:45
    Een groot deel van deze vooruitgang
  • 3:45 - 3:48
    komt van een methode
    'machine learning' genaamd.
  • 3:48 - 3:51
    Machine learning is anders
    dan het traditionele programmeren,
  • 3:51 - 3:55
    waar je de computer gedetailleerde,
    exacte, nauwgezette instructies geeft.
  • 3:55 - 4:00
    Het is meer alsof je
    het systeem veel data voert,
  • 4:00 - 4:01
    ook ongestructureerde data,
  • 4:01 - 4:04
    zoals we ze genereren
    in ons digitale leven.
  • 4:04 - 4:06
    En het systeem leert
    door op deze gegeven te broeden.
  • 4:07 - 4:08
    Ook van cruciaal belang is
  • 4:08 - 4:13
    dat deze systemen niet werken
    met een één-antwoord logica.
  • 4:13 - 4:16
    Ze geven geen simpel antwoord;
    het is meer probabilistisch:
  • 4:16 - 4:19
    "Dit is waarschijnlijk meer wat je zoekt."
  • 4:20 - 4:23
    Het voordeel is dat deze methode
    echt krachtig is.
  • 4:23 - 4:26
    Het hoofd van Google's
    AI-systemen noemde het:
  • 4:26 - 4:28
    "De onredelijke effectiviteit van data."
  • 4:28 - 4:29
    Het nadeel is
  • 4:30 - 4:33
    dat we niet echt begrijpen
    wat het systeem leerde.
  • 4:33 - 4:34
    Dat is in feite zijn kracht.
  • 4:35 - 4:39
    Dit lijkt minder op het geven
    van instructies aan een computer
  • 4:39 - 4:43
    dan op het trainen
    van een puppy-machine-schepsel
  • 4:43 - 4:46
    dat we niet echt begrijpen of controleren.
  • 4:46 - 4:48
    Dus dit is ons probleem.
  • 4:48 - 4:52
    Als het kunstmatige-intelligentie systeem
    in de fout gaat, hebben we een probleem.
  • 4:53 - 4:56
    Het is ook een probleem
    wanneer het goed werkt,
  • 4:56 - 4:58
    omdat we niet eens weten
  • 4:58 - 5:00
    wanneer het in de fout gaat
    bij een subjectief probleem.
  • 5:00 - 5:03
    We weten niet wat dit ding denkt.
  • 5:03 - 5:07
    Denk eens aan een algoritme
    voor aanwerving --
  • 5:08 - 5:11
    een systeem dat wordt gebruikt
    om mensen aan te nemen
  • 5:11 - 5:13
    met behulp van machine learning-systemen.
  • 5:13 - 5:17
    Een dergelijk systeem werd getraind
    met data van vroegere werknemers
  • 5:17 - 5:19
    en geïnstrueerd voor het vinden en inhuren
  • 5:19 - 5:22
    van mensen zoals de beste
    presteerders in het bedrijf.
  • 5:23 - 5:24
    Klinkt goed.
  • 5:24 - 5:26
    Ik heb eens een conferentie bijgewoond
  • 5:26 - 5:29
    met human-resourcesmanagers
    en leidinggevenden,
  • 5:29 - 5:30
    hoge pieten,
  • 5:30 - 5:32
    die dergelijke systemen
    voor het inhuren gebruiken.
  • 5:32 - 5:34
    Ze waren superenthousiast.
  • 5:34 - 5:35
    Ze dachten dat dit het inhuren
  • 5:35 - 5:38
    objectiever en minder
    bevooroordeeld zou maken
  • 5:38 - 5:41
    en vrouwen en minderheden
    betere kansen zouden geven
  • 5:41 - 5:44
    ten opzichte van vooringenomen
    menselijke managers.
  • 5:44 - 5:47
    En ja -- het inhuren
    door mensen is bevooroordeeld.
  • 5:47 - 5:48
    Ik weet het.
  • 5:48 - 5:51
    In een van mijn eerste banen
    als programmeur
  • 5:51 - 5:55
    kwam mijn directe manager
    soms naar me toe,
  • 5:55 - 5:59
    heel vroeg in de ochtend
    of erg laat in de middag,
  • 5:59 - 6:02
    en zei: "Zeynep, laten we gaan lunchen!"
  • 6:03 - 6:05
    Ik was verbaasd over de vreemde timing.
  • 6:05 - 6:07
    Het is vier uur in de namiddag. Lunch?
  • 6:07 - 6:10
    Ik was blut. Dus gratis lunch?
    Ik ging altijd mee.
  • 6:11 - 6:13
    Ik besefte pas later wat er loos was.
  • 6:13 - 6:17
    Mijn directe managers
    hadden hun oversten niet verteld
  • 6:17 - 6:20
    dat de programmeur die ze
    voor een serieuze baan hadden ingehuurd
  • 6:20 - 6:22
    een tienermeisje was
  • 6:22 - 6:24
    dat op het werk een spijkerbroek
    en sportschoenen droeg.
  • 6:25 - 6:27
    Ik deed mijn werk goed,
    ik zag er alleen niet uit
  • 6:27 - 6:30
    en had de verkeerde leeftijd en geslacht.
  • 6:30 - 6:32
    Dus inhuren zonder oog
    voor geslacht of ras,
  • 6:32 - 6:34
    daar kan ik alleen maar blij mee zijn.
  • 6:35 - 6:38
    Maar met deze systemen
    ligt het ingewikkelder en wel hierom:
  • 6:39 - 6:45
    momenteel kunnen computersystemen
    allerlei dingen over je afleiden
  • 6:45 - 6:47
    uit je digitale kruimels,
  • 6:47 - 6:49
    zelfs als je die dingen niet hebt verteld.
  • 6:50 - 6:52
    Ze kunnen je seksuele geaardheid afleiden,
  • 6:53 - 6:55
    je persoonlijkheidskenmerken,
  • 6:55 - 6:56
    je politieke kleur.
  • 6:57 - 7:01
    Ze kunnen met grote
    nauwkeurigheid voorspellen.
  • 7:01 - 7:04
    Nogmaals -- ook voor dingen
    die je nog niet eens hebt bekendgemaakt.
  • 7:04 - 7:06
    Dat is inferentie.
  • 7:06 - 7:09
    Ik heb een vriend die dergelijke
    computersystemen heeft ontwikkeld
  • 7:09 - 7:13
    om de waarschijnlijkheid van klinische
    of postpartumdepressie te voorspellen
  • 7:13 - 7:14
    op basis van social-mediagegevens.
  • 7:15 - 7:17
    De resultaten zijn indrukwekkend.
  • 7:17 - 7:20
    Haar systeem kan de kans
    op depressie voorspellen
  • 7:20 - 7:24
    maanden vóór het begin van de symptomen --
  • 7:24 - 7:25
    maanden eerder.
  • 7:25 - 7:27
    Geen symptomen, wel een voorspelling.
  • 7:27 - 7:32
    Ze hoopt dat het zal worden gebruikt
    voor vroege interventie. Geweldig!
  • 7:33 - 7:36
    Maar bekijk dat nu eens
    in het kader van aanwerven.
  • 7:36 - 7:39
    Op deze conferentie
    voor human-resourcesmanagers
  • 7:39 - 7:44
    benaderde ik een vooraanstaande manager
    van een zeer groot bedrijf
  • 7:44 - 7:48
    en zei tegen haar:
    "Kijk, wat als zonder dat je het weet,
  • 7:48 - 7:55
    je systeem mensen met een hoge
    toekomstige kans op depressie uitwiedt?
  • 7:56 - 7:59
    Ze zijn nu niet depressief,
    maar in de toekomst waarschijnlijk wel.
  • 8:00 - 8:03
    Wat als het vrouwen uitwiedt
    omdat ze kans hebben om zwanger te worden
  • 8:03 - 8:06
    in de volgende paar jaar,
    maar nu niet zwanger zijn?
  • 8:07 - 8:12
    Wat als het agressieve mensen inhuurt,
    omdat dat jullie werkplekcultuur is?"
  • 8:13 - 8:16
    Je weet dit niet door te kijken
    naar analyses voor geslacht.
  • 8:16 - 8:17
    Die kunnen in evenwicht zijn.
  • 8:17 - 8:21
    En aangezien dit machine learning is
    en geen traditioneel programmeren,
  • 8:21 - 8:26
    is er geen variabele
    gelabeld 'groter risico op depressie',
  • 8:26 - 8:28
    'hoger risico op zwangerschap'
  • 8:28 - 8:30
    of een 'agressieve-man-schaal'.
  • 8:30 - 8:34
    Niet alleen weet je niet
    waarop jouw systeem selecteert,
  • 8:34 - 8:36
    je weet niet eens
    waar je moet gaan zoeken.
  • 8:36 - 8:37
    Het is een zwarte doos.
  • 8:37 - 8:40
    Het heeft voorspellende kracht,
    maar je begrijpt het niet.
  • 8:40 - 8:43
    "Welke garanties", vroeg ik, "heb je
  • 8:43 - 8:47
    om ervoor te zorgen dat jouw zwarte doos
    geen rare dingen gaat doen?"
  • 8:49 - 8:53
    Ze keek me aan alsof ik
    op tien puppystaarten tegelijk trapte.
  • 8:53 - 8:54
    (Gelach)
  • 8:54 - 8:56
    Ze keek me aan en zei:
  • 8:57 - 9:01
    "Hier wil ik geen woord meer over horen."
  • 9:01 - 9:03
    En ze draaide zich om en liep weg.
  • 9:04 - 9:06
    Let wel -- ze was niet onbeleefd.
  • 9:06 - 9:12
    Het was duidelijk: wat ik niet weet,
    is mijn probleem niet, ga weg, lege blik.
  • 9:12 - 9:13
    (Gelach)
  • 9:14 - 9:18
    Kijk, een dergelijk systeem
    kan misschien minder bevooroordeeld zijn
  • 9:18 - 9:20
    dan menselijke managers,
    in sommige opzichten.
  • 9:20 - 9:22
    Het kan misschien wel geld besparen.
  • 9:23 - 9:24
    Maar het kan ook leiden
  • 9:24 - 9:29
    tot een gestage, maar sluipende
    uitsluiting uit de arbeidsmarkt
  • 9:29 - 9:31
    van mensen met een
    hoger risico op depressie.
  • 9:32 - 9:34
    Is dit het soort
    samenleving dat we willen,
  • 9:34 - 9:37
    zonder zelfs maar te weten
    dat we dat hebben gedaan,
  • 9:37 - 9:40
    omdat we besluitvorming
    delegeerden naar machines
  • 9:40 - 9:41
    die we niet helemaal begrijpen?
  • 9:41 - 9:43
    Een ander probleem is dit:
  • 9:43 - 9:48
    deze systemen worden vaak getraind
    met data gegenereerd door onze acties,
  • 9:48 - 9:50
    menselijke indrukken.
  • 9:50 - 9:54
    Nou, die zouden wel eens
    onze vooroordelen kunnen weerspiegelen,
  • 9:54 - 9:58
    welke die systemen vervolgens
    vlekkeloos overnemen,
  • 9:58 - 9:59
    ze versterken
  • 9:59 - 10:00
    en weer aan ons terugkaatsen,
  • 10:00 - 10:02
    terwijl we onszelf wijsmaken:
  • 10:02 - 10:05
    "We maken objectieve,
    neutrale berekeningen."
  • 10:06 - 10:09
    Onderzoekers ontdekten dat op Google
  • 10:10 - 10:13
    vrouwen minder kans hebben dan mannen
  • 10:13 - 10:16
    om vacatures voor goedbetaalde banen
    te zien te krijgen.
  • 10:16 - 10:19
    Het zoeken naar Afro-Amerikaanse namen
  • 10:19 - 10:21
    geeft een grotere kans op advertenties
  • 10:21 - 10:24
    die een criminele geschiedenis suggereren,
  • 10:24 - 10:25
    zelfs wanneer er geen is.
  • 10:27 - 10:30
    Dergelijke verborgen vooroordelen
    en zwarte-doosalgoritmen,
  • 10:30 - 10:34
    die onderzoekers soms ontdekken
    maar soms ook niet,
  • 10:34 - 10:37
    kunnen iemands leven
    diepgaand beïnvloeden.
  • 10:38 - 10:42
    In Wisconsin werd een verdachte
    veroordeeld tot zes jaar gevangenis
  • 10:42 - 10:44
    door te gaan lopen voor de politie.
  • 10:44 - 10:46
    Misschien weten jullie dit niet,
  • 10:46 - 10:48
    maar algoritmen
    worden steeds meer gebruikt
  • 10:48 - 10:51
    bij voorwaardelijke
    invrijheidstelling en straftoemeting.
  • 10:51 - 10:54
    Hij wilde weten hoe dat
    deze score berekend wordt.
  • 10:54 - 10:55
    Het is een commerciële zwarte doos.
  • 10:55 - 10:57
    Het bedrijf weigerde
  • 10:57 - 11:00
    zijn algoritme in een openbare
    rechtszitting te laten betwisten.
  • 11:00 - 11:06
    Maar ProPublica, een onderzoekende
    non-profit, testte dat algoritme
  • 11:06 - 11:08
    met openbare gegevens
    die ze konden vinden,
  • 11:08 - 11:10
    en vond dat de resultaten ervan
    bevooroordeeld waren
  • 11:10 - 11:14
    en dat de voorspellende kracht onduidelijk
    en nauwelijks beter dan het toeval was.
  • 11:14 - 11:18
    Ze labelde zwarte verdachten
    onterecht als toekomstige criminelen
  • 11:18 - 11:22
    en wel twee keer zo vaak als blanken.
  • 11:24 - 11:25
    Bekijk dit geval:
  • 11:26 - 11:30
    deze vrouw was wat laat
    om een meisje op te pikken
  • 11:30 - 11:33
    op een school in Broward County, Florida.
  • 11:33 - 11:35
    Ze liep op straat met een vriendin.
  • 11:35 - 11:39
    Op een veranda zagen ze
    een kinderfiets en een scooter.
  • 11:39 - 11:41
    Zonder nadenken sprongen ze erop.
  • 11:41 - 11:44
    Terwijl ze wegreden,
    kwam een vrouw naar buiten en zei:
  • 11:44 - 11:46
    "Hé! Dat is de fiets van mijn kind!"
  • 11:46 - 11:49
    Ze lieten hem vallen, liepen door,
    maar werden gearresteerd.
  • 11:49 - 11:53
    Ze ging in de fout, ze was dom,
    maar ze was ook pas 18.
  • 11:53 - 11:55
    Ze had een paar
    jeugdmisdrijven op haar naam.
  • 11:56 - 12:01
    Ondertussen werd deze man gearresteerd
    voor winkeldiefstal in Home Depot --
  • 12:01 - 12:04
    85 dollar aan spullen,
    soortgelijke kleine criminaliteit.
  • 12:05 - 12:09
    Maar hij had twee eerdere veroordelingen
    voor gewapende overval.
  • 12:10 - 12:13
    Het algoritme scoorde haar
    als hoog risico en hem niet.
  • 12:15 - 12:19
    Twee jaar later vond ProPublica
    dat ze niet had gerecidiveerd.
  • 12:19 - 12:21
    Maar ze vond wel moeilijk
    een baan met haar strafblad.
  • 12:21 - 12:23
    Hij daarentegen recidiveerde
  • 12:23 - 12:27
    en zit nu voor acht jaar in de gevangenis
    voor een latere misdaad.
  • 12:28 - 12:31
    Het is duidelijk dat we
    onze zwarte dozen moeten controleren
  • 12:31 - 12:34
    en ze niet dit soort ongecontroleerde
    macht moeten geven.
  • 12:34 - 12:37
    (Applaus)
  • 12:38 - 12:42
    Audits zijn geweldig en belangrijk,
    maar ze lossen niet al onze problemen op.
  • 12:42 - 12:45
    Neem Facebook's krachtige
    nieuwsfeed-algoritme --
  • 12:45 - 12:50
    je weet wel, hetgeen dat alles sorteert
    en beslist wat jij te zien krijgt
  • 12:50 - 12:52
    van alle vrienden
    en pagina's die je volgt.
  • 12:53 - 12:55
    Moet je nog een babyfoto
    voorgeschoteld krijgen?
  • 12:55 - 12:56
    (Gelach)
  • 12:56 - 12:59
    Een sombere opmerking van een kennis?
  • 12:59 - 13:02
    Een belangrijk
    maar moeilijk nieuwsbericht?
  • 13:02 - 13:03
    Er is geen juist antwoord.
  • 13:03 - 13:05
    Facebook optimaliseert
    voor betrokkenheid op de site:
  • 13:06 - 13:08
    wat je leuk vindt, deelt
    of becommentarieert.
  • 13:08 - 13:11
    In augustus 2014
  • 13:11 - 13:14
    braken protesten uit
    in Ferguson, Missouri,
  • 13:14 - 13:18
    na het doden van een Afro-Amerikaanse
    tiener door een blanke politieagent
  • 13:18 - 13:20
    onder duistere omstandigheden.
  • 13:20 - 13:22
    Het nieuws van de protesten
    was prominent aanwezig
  • 13:22 - 13:25
    op mijn algoritmisch
    ongefilterde Twitter-feed,
  • 13:25 - 13:27
    maar nergens op mijn Facebook.
  • 13:27 - 13:29
    Waren het mijn Facebookvrienden?
  • 13:29 - 13:31
    Ik schakelde het Facebookalgoritme uit,
  • 13:31 - 13:34
    wat moeilijk is,
    want Facebook houdt je liever
  • 13:34 - 13:37
    onder de controle van het algoritme.
  • 13:37 - 13:39
    Ik zag dat mijn vrienden erover praatten.
  • 13:39 - 13:41
    Maar het algoritme liet het me niet zien.
  • 13:41 - 13:44
    Ik onderzocht dit en vond dat dit
    een wijdverbreid probleem was.
  • 13:44 - 13:48
    Het verhaal van Ferguson
    was niet 'algoritmevriendelijk'.
  • 13:48 - 13:49
    Het was niet 'sympathiek'.
  • 13:49 - 13:51
    Wie gaat er een 'vind ik leuk' aan geven?
  • 13:51 - 13:54
    Het is zelfs niet makkelijk
    te becommentariëren.
  • 13:54 - 13:56
    Zonder vind-ik-leuk's en commentaar
  • 13:56 - 13:59
    toonde het algoritme het waarschijnlijk
    aan nog minder mensen,
  • 13:59 - 14:01
    zodat we het niet te zien kregen.
  • 14:01 - 14:04
    In plaats daarvan benadrukte
    Facebook's algoritme die week dit:
  • 14:05 - 14:07
    de ALS Ice Bucket Challenge.
  • 14:07 - 14:11
    Giet ijswater, doneer
    aan een goed doel, allemaal fijn.
  • 14:11 - 14:13
    Maar het was uiterst
    algoritmevriendelijk.
  • 14:13 - 14:16
    De machine nam die beslissing voor ons.
  • 14:16 - 14:19
    Een zeer belangrijk maar moeilijk gesprek
  • 14:19 - 14:21
    zou zijn gesmoord,
  • 14:21 - 14:24
    als Facebook het enige kanaal was geweest.
  • 14:24 - 14:28
    Nu kunnen deze systemen ook verkeerd zijn
  • 14:28 - 14:31
    op een manier die niet
    op menselijke systemen lijkt.
  • 14:31 - 14:34
    Herinneren jullie zich Watson,
    IBM's machine-intelligentie-systeem
  • 14:34 - 14:37
    dat op Jeopardy de vloer aanveegde
    met de menselijke deelnemers?
  • 14:37 - 14:39
    Het was een geweldige speler.
  • 14:39 - 14:42
    Maar in de finale kreeg Watson deze vraag:
  • 14:43 - 14:46
    "Zijn grootste luchthaven is vernoemd
    naar een held uit WO II,
  • 14:46 - 14:48
    zijn tweede grootste
    naar een slag uit WO II."
  • 14:48 - 14:50
    (Neuriet Final Jeopardy-muziek)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:53
    De twee mensen hadden het goed.
  • 14:53 - 14:57
    Maar Watson antwoordde "Toronto" --
  • 14:57 - 14:59
    voor een stad van de VS!
  • 15:00 - 15:02
    Het indrukwekkende systeem
    maakte ook een fout
  • 15:03 - 15:06
    die een mens nooit zou maken,
    die een zevenjarige niet zou maken.
  • 15:07 - 15:10
    Onze machine-intelligentie kan mislukken
  • 15:10 - 15:13
    op een manier die niet past
    in foutpatronen van mensen,
  • 15:13 - 15:16
    op een onverwachte manier
    waarop we niet zijn voorbereid.
  • 15:16 - 15:18
    Het zou stom zijn
    om een baan mis te lopen
  • 15:18 - 15:20
    waarvoor je gekwalificeerd bent,
  • 15:20 - 15:23
    maar het zou driedubbel stom zijn
    als het was vanwege een stack overflow
  • 15:23 - 15:25
    in de een of andere subroutine.
  • 15:25 - 15:27
    (Gelach)
  • 15:27 - 15:29
    In mei 2010
  • 15:29 - 15:33
    ontstond een flash crash op Wall Street,
    aangewakkerd door een terugkoppeling
  • 15:33 - 15:36
    in Wall Streets 'verkopen'-algoritme.
  • 15:36 - 15:41
    Het wiste een biljoen dollar weg
    in 36 minuten.
  • 15:42 - 15:44
    Ik wil er niet eens aan denken
    wat 'fout' betekent
  • 15:44 - 15:48
    als het over dodelijke
    autonome wapens gaat.
  • 15:50 - 15:54
    Dus ja, mensen hebben altijd vooroordelen.
  • 15:54 - 15:56
    Beslissers en bewakers,
  • 15:56 - 15:59
    in rechtbanken, in het nieuws,
    in de oorlog...
  • 15:59 - 16:02
    maken ze fouten;
    maar dat is precies wat ik bedoel.
  • 16:02 - 16:06
    We kunnen niet ontsnappen
    aan deze moeilijke vragen.
  • 16:07 - 16:10
    We kunnen onze verantwoordelijkheden
    niet uitbesteden aan machines.
  • 16:11 - 16:15
    (Applaus)
  • 16:17 - 16:22
    Kunstmatige intelligentie stelt ons
    niet vrij van de ethische vraagstukken.
  • 16:23 - 16:26
    Datawetenschapper Fred Benenson
    noemt dit 'wiskunde-wassen'.
  • 16:26 - 16:28
    We moeten het tegenovergestelde doen.
  • 16:28 - 16:33
    Algoritmes verdienen een cultuur
    van achterdocht, controle en onderzoek.
  • 16:33 - 16:37
    We moeten zorgen
    voor algoritmische verantwoording,
  • 16:37 - 16:39
    auditing en betekenisvolle transparantie.
  • 16:39 - 16:43
    We moeten accepteren dat het toepassen
    van wiskunde en berekening
  • 16:43 - 16:46
    op rommelige, waardegeladen
    menselijke aangelegenheden
  • 16:46 - 16:48
    geen objectiviteit met zich meebrengt,
  • 16:48 - 16:52
    maar dat de complexiteit van menselijke
    aangelegenheden in de algoritmen sluipt.
  • 16:52 - 16:56
    Ja, we kunnen en we moeten
    berekening gebruiken
  • 16:56 - 16:58
    om ons te helpen
    om betere beslissingen te nemen.
  • 16:58 - 17:03
    Maar het uiteindelijke oordeel
    blijft onze morele verantwoordelijkheid,
  • 17:03 - 17:06
    en binnen dat kader kunnen
    we algoritmen gebruiken,
  • 17:06 - 17:11
    niet als een middel om
    onze verantwoordelijkheden
  • 17:11 - 17:13
    van mens tot mens te ontlopen.
  • 17:14 - 17:16
    Machine-intelligentie is hier.
  • 17:16 - 17:20
    Dat betekent dat we
    steeds strakker moeten vasthouden
  • 17:20 - 17:22
    aan menselijke waarden
    en menselijke ethiek.
  • 17:22 - 17:23
    Dank je.
  • 17:23 - 17:28
    (Applaus)
Title:
Machine-intelligentie maakt menselijke moraal belangrijker
Speaker:
Zeynep Tufekci
Description:

Machine-intelligentie is er en we gebruiken ze al om persoonlijke beslissingen te nemen. Maar de complexe manier waarop AI groeit en verbetert, maakt ze moeilijk te begrijpen en nog moeilijker te beheersen. In deze kritische talk legt techno-socioloog Zeynep Tüfekçi uit hoe intelligente machines kunnen falen op een manier die niet passen in menselijke foutenpatronen -- en wel op een onverwachte manier waarop we niet zijn voorbereid.. "We mogen onze verantwoordelijkheden niet uitbesteden aan machines", zegt ze. "We moeten steeds strakker aan menselijke waarden en menselijke ethiek blijven vasthouden."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Dutch subtitles

Revisions Compare revisions