Machine-intelligentie maakt menselijke moraal belangrijker
-
0:01 - 0:05Ik begon mijn eerste baan
als computerprogrammeur -
0:05 - 0:07in mijn eerste jaar aan de universiteit.
-
0:07 - 0:08Ik was nog een tiener.
-
0:09 - 0:10Spoedig nadat ik er begon
-
0:10 - 0:13met het schrijven
van software voor een bedrijf, -
0:13 - 0:18kwam een manager van het bedrijf
naar me toe en fluisterde: -
0:18 - 0:21"Weet hij of ik lieg?"
-
0:22 - 0:24Er was niemand anders in de kamer.
-
0:25 - 0:29Ik: "Weet wie dat je liegt?
En waarom fluisteren we?" -
0:30 - 0:33De manager wees
naar de computer in de kamer. -
0:33 - 0:36"Weet hij of ik lieg?"
-
0:38 - 0:42Nu had die manager
een affaire met de receptioniste. -
0:42 - 0:43(Gelach)
-
0:43 - 0:45En ik was nog een tiener.
-
0:45 - 0:47Dus fluister-schreeuwde ik naar hem terug:
-
0:47 - 0:51"Ja, de computer weet of je liegt."
-
0:51 - 0:53(Gelach)
-
0:53 - 0:56Nou, ik lachte, maar op dit moment
zou ik moeten worden uitgelachen. -
0:56 - 0:59Tegenwoordig zijn er computersystemen
-
0:59 - 1:03die emotionele toestanden
en zelfs liegen herkennen -
1:03 - 1:05door het interpreteren
van menselijke gezichten. -
1:05 - 1:09Adverteerders en zelfs regeringen
zijn zeer geïnteresseerd. -
1:10 - 1:12Ik was computerprogrammeur geworden
-
1:12 - 1:16omdat ik een van die kinderen was
die gek zijn op wiskunde en wetenschap. -
1:16 - 1:19Maar ik leerde wat over kernwapens
-
1:19 - 1:22en werd echt bezorgd
over de ethiek van de wetenschap. -
1:22 - 1:23Ik was in de war.
-
1:23 - 1:26Door familieomstandigheden
-
1:26 - 1:29moest ik zo snel mogelijk
aan werk geraken. -
1:29 - 1:33Ik dacht, nou, laat me
een technisch gebied uitkiezen -
1:33 - 1:35waarin ik gemakkelijk een baan kan vinden
-
1:35 - 1:38en waar ik niet hoef in te gaan
op eventuele lastige vragen over ethiek. -
1:39 - 1:41Dus koos ik voor computers.
-
1:41 - 1:42(Gelach)
-
1:42 - 1:45Nou ja, ha, ha, ha! Lach maar.
-
1:45 - 1:48Tegenwoordig bouwen
computerwetenschappers systemen -
1:48 - 1:52die elke dag een miljard
mensen controleren. -
1:53 - 1:57Ze ontwikkelen auto's die zouden
kunnen beslissen wie ze overrijden. -
1:58 - 2:01Ze bouwen zelfs machines, wapens,
-
2:01 - 2:03die in de oorlog mensen
zouden kunnen doden. -
2:03 - 2:06Het is ethiek, al wat de klok slaat.
-
2:07 - 2:09Machine-intelligentie is hier.
-
2:10 - 2:13We nemen allerlei beslissingen
aan de hand van berekeningen, -
2:13 - 2:16maar ook nieuwe typen beslissingen.
-
2:16 - 2:20We stellen vragen aan de computer
waar niet één enkel antwoord op is, -
2:20 - 2:22die subjectief zijn
-
2:22 - 2:24met een open einde en waardegeladen.
-
2:24 - 2:26We stellen vragen als:
-
2:26 - 2:27"Wie moet het bedrijf inhuren?"
-
2:28 - 2:31"Welke update van welke vriend
moet je te zien krijgen?" -
2:31 - 2:34"Welke gevangene heeft
meer kans om te recidiveren?" -
2:34 - 2:37"Welke nieuwsbericht of film
moeten we aanbevelen?" -
2:37 - 2:40Ik weet dat we al een tijdje
computers gebruiken, -
2:40 - 2:42maar dit is anders.
-
2:42 - 2:44Dit is een historisch keerpunt,
-
2:44 - 2:47omdat we voor dergelijke
subjectieve beslissingen -
2:47 - 2:49niet op berekeningen kunnen vertrouwen,
-
2:49 - 2:54zoals we dat doen voor het vliegen
van vliegtuigen, het bouwen van bruggen -
2:54 - 2:56of naar de maan gaan.
-
2:56 - 3:00Zijn vliegtuigen veiliger?
Is de brug gaan zwaaien en ingestort? -
3:00 - 3:04Daar hebben we vrij duidelijke
normen voor afgesproken -
3:04 - 3:06en we hebben natuurwetten
om ons te leiden. -
3:07 - 3:10Dergelijke ijkpunten
en normen hebben we niet -
3:10 - 3:14voor besluiten in rommelige
menselijke aangelegenheden. -
3:14 - 3:18Om de zaken nog ingewikkelder te maken,
wordt onze software steeds krachtiger, -
3:18 - 3:22maar ook steeds
minder transparant en complexer. -
3:23 - 3:25Recentelijk, in het afgelopen decennium,
-
3:25 - 3:27hebben complexe algoritmen
grote vooruitgang geboekt. -
3:27 - 3:29Ze kunnen menselijke gezichten herkennen.
-
3:30 - 3:32Ze kunnen handschrift ontcijferen.
-
3:32 - 3:35Ze kunnen creditcardfraude detecteren,
-
3:35 - 3:36spam blokkeren
-
3:36 - 3:38en vertalingen maken.
-
3:38 - 3:41Ze kunnen tumoren detecteren
bij medische beeldvorming. -
3:41 - 3:43Ze kunnen mensen
met schaken en go verslaan. -
3:43 - 3:45Een groot deel van deze vooruitgang
-
3:45 - 3:48komt van een methode
'machine learning' genaamd. -
3:48 - 3:51Machine learning is anders
dan het traditionele programmeren, -
3:51 - 3:55waar je de computer gedetailleerde,
exacte, nauwgezette instructies geeft. -
3:55 - 4:00Het is meer alsof je
het systeem veel data voert, -
4:00 - 4:01ook ongestructureerde data,
-
4:01 - 4:04zoals we ze genereren
in ons digitale leven. -
4:04 - 4:06En het systeem leert
door op deze gegeven te broeden. -
4:07 - 4:08Ook van cruciaal belang is
-
4:08 - 4:13dat deze systemen niet werken
met een één-antwoord logica. -
4:13 - 4:16Ze geven geen simpel antwoord;
het is meer probabilistisch: -
4:16 - 4:19"Dit is waarschijnlijk meer wat je zoekt."
-
4:20 - 4:23Het voordeel is dat deze methode
echt krachtig is. -
4:23 - 4:26Het hoofd van Google's
AI-systemen noemde het: -
4:26 - 4:28"De onredelijke effectiviteit van data."
-
4:28 - 4:29Het nadeel is
-
4:30 - 4:33dat we niet echt begrijpen
wat het systeem leerde. -
4:33 - 4:34Dat is in feite zijn kracht.
-
4:35 - 4:39Dit lijkt minder op het geven
van instructies aan een computer -
4:39 - 4:43dan op het trainen
van een puppy-machine-schepsel -
4:43 - 4:46dat we niet echt begrijpen of controleren.
-
4:46 - 4:48Dus dit is ons probleem.
-
4:48 - 4:52Als het kunstmatige-intelligentie systeem
in de fout gaat, hebben we een probleem. -
4:53 - 4:56Het is ook een probleem
wanneer het goed werkt, -
4:56 - 4:58omdat we niet eens weten
-
4:58 - 5:00wanneer het in de fout gaat
bij een subjectief probleem. -
5:00 - 5:03We weten niet wat dit ding denkt.
-
5:03 - 5:07Denk eens aan een algoritme
voor aanwerving -- -
5:08 - 5:11een systeem dat wordt gebruikt
om mensen aan te nemen -
5:11 - 5:13met behulp van machine learning-systemen.
-
5:13 - 5:17Een dergelijk systeem werd getraind
met data van vroegere werknemers -
5:17 - 5:19en geïnstrueerd voor het vinden en inhuren
-
5:19 - 5:22van mensen zoals de beste
presteerders in het bedrijf. -
5:23 - 5:24Klinkt goed.
-
5:24 - 5:26Ik heb eens een conferentie bijgewoond
-
5:26 - 5:29met human-resourcesmanagers
en leidinggevenden, -
5:29 - 5:30hoge pieten,
-
5:30 - 5:32die dergelijke systemen
voor het inhuren gebruiken. -
5:32 - 5:34Ze waren superenthousiast.
-
5:34 - 5:35Ze dachten dat dit het inhuren
-
5:35 - 5:38objectiever en minder
bevooroordeeld zou maken -
5:38 - 5:41en vrouwen en minderheden
betere kansen zouden geven -
5:41 - 5:44ten opzichte van vooringenomen
menselijke managers. -
5:44 - 5:47En ja -- het inhuren
door mensen is bevooroordeeld. -
5:47 - 5:48Ik weet het.
-
5:48 - 5:51In een van mijn eerste banen
als programmeur -
5:51 - 5:55kwam mijn directe manager
soms naar me toe, -
5:55 - 5:59heel vroeg in de ochtend
of erg laat in de middag, -
5:59 - 6:02en zei: "Zeynep, laten we gaan lunchen!"
-
6:03 - 6:05Ik was verbaasd over de vreemde timing.
-
6:05 - 6:07Het is vier uur in de namiddag. Lunch?
-
6:07 - 6:10Ik was blut. Dus gratis lunch?
Ik ging altijd mee. -
6:11 - 6:13Ik besefte pas later wat er loos was.
-
6:13 - 6:17Mijn directe managers
hadden hun oversten niet verteld -
6:17 - 6:20dat de programmeur die ze
voor een serieuze baan hadden ingehuurd -
6:20 - 6:22een tienermeisje was
-
6:22 - 6:24dat op het werk een spijkerbroek
en sportschoenen droeg. -
6:25 - 6:27Ik deed mijn werk goed,
ik zag er alleen niet uit -
6:27 - 6:30en had de verkeerde leeftijd en geslacht.
-
6:30 - 6:32Dus inhuren zonder oog
voor geslacht of ras, -
6:32 - 6:34daar kan ik alleen maar blij mee zijn.
-
6:35 - 6:38Maar met deze systemen
ligt het ingewikkelder en wel hierom: -
6:39 - 6:45momenteel kunnen computersystemen
allerlei dingen over je afleiden -
6:45 - 6:47uit je digitale kruimels,
-
6:47 - 6:49zelfs als je die dingen niet hebt verteld.
-
6:50 - 6:52Ze kunnen je seksuele geaardheid afleiden,
-
6:53 - 6:55je persoonlijkheidskenmerken,
-
6:55 - 6:56je politieke kleur.
-
6:57 - 7:01Ze kunnen met grote
nauwkeurigheid voorspellen. -
7:01 - 7:04Nogmaals -- ook voor dingen
die je nog niet eens hebt bekendgemaakt. -
7:04 - 7:06Dat is inferentie.
-
7:06 - 7:09Ik heb een vriend die dergelijke
computersystemen heeft ontwikkeld -
7:09 - 7:13om de waarschijnlijkheid van klinische
of postpartumdepressie te voorspellen -
7:13 - 7:14op basis van social-mediagegevens.
-
7:15 - 7:17De resultaten zijn indrukwekkend.
-
7:17 - 7:20Haar systeem kan de kans
op depressie voorspellen -
7:20 - 7:24maanden vóór het begin van de symptomen --
-
7:24 - 7:25maanden eerder.
-
7:25 - 7:27Geen symptomen, wel een voorspelling.
-
7:27 - 7:32Ze hoopt dat het zal worden gebruikt
voor vroege interventie. Geweldig! -
7:33 - 7:36Maar bekijk dat nu eens
in het kader van aanwerven. -
7:36 - 7:39Op deze conferentie
voor human-resourcesmanagers -
7:39 - 7:44benaderde ik een vooraanstaande manager
van een zeer groot bedrijf -
7:44 - 7:48en zei tegen haar:
"Kijk, wat als zonder dat je het weet, -
7:48 - 7:55je systeem mensen met een hoge
toekomstige kans op depressie uitwiedt? -
7:56 - 7:59Ze zijn nu niet depressief,
maar in de toekomst waarschijnlijk wel. -
8:00 - 8:03Wat als het vrouwen uitwiedt
omdat ze kans hebben om zwanger te worden -
8:03 - 8:06in de volgende paar jaar,
maar nu niet zwanger zijn? -
8:07 - 8:12Wat als het agressieve mensen inhuurt,
omdat dat jullie werkplekcultuur is?" -
8:13 - 8:16Je weet dit niet door te kijken
naar analyses voor geslacht. -
8:16 - 8:17Die kunnen in evenwicht zijn.
-
8:17 - 8:21En aangezien dit machine learning is
en geen traditioneel programmeren, -
8:21 - 8:26is er geen variabele
gelabeld 'groter risico op depressie', -
8:26 - 8:28'hoger risico op zwangerschap'
-
8:28 - 8:30of een 'agressieve-man-schaal'.
-
8:30 - 8:34Niet alleen weet je niet
waarop jouw systeem selecteert, -
8:34 - 8:36je weet niet eens
waar je moet gaan zoeken. -
8:36 - 8:37Het is een zwarte doos.
-
8:37 - 8:40Het heeft voorspellende kracht,
maar je begrijpt het niet. -
8:40 - 8:43"Welke garanties", vroeg ik, "heb je
-
8:43 - 8:47om ervoor te zorgen dat jouw zwarte doos
geen rare dingen gaat doen?" -
8:49 - 8:53Ze keek me aan alsof ik
op tien puppystaarten tegelijk trapte. -
8:53 - 8:54(Gelach)
-
8:54 - 8:56Ze keek me aan en zei:
-
8:57 - 9:01"Hier wil ik geen woord meer over horen."
-
9:01 - 9:03En ze draaide zich om en liep weg.
-
9:04 - 9:06Let wel -- ze was niet onbeleefd.
-
9:06 - 9:12Het was duidelijk: wat ik niet weet,
is mijn probleem niet, ga weg, lege blik. -
9:12 - 9:13(Gelach)
-
9:14 - 9:18Kijk, een dergelijk systeem
kan misschien minder bevooroordeeld zijn -
9:18 - 9:20dan menselijke managers,
in sommige opzichten. -
9:20 - 9:22Het kan misschien wel geld besparen.
-
9:23 - 9:24Maar het kan ook leiden
-
9:24 - 9:29tot een gestage, maar sluipende
uitsluiting uit de arbeidsmarkt -
9:29 - 9:31van mensen met een
hoger risico op depressie. -
9:32 - 9:34Is dit het soort
samenleving dat we willen, -
9:34 - 9:37zonder zelfs maar te weten
dat we dat hebben gedaan, -
9:37 - 9:40omdat we besluitvorming
delegeerden naar machines -
9:40 - 9:41die we niet helemaal begrijpen?
-
9:41 - 9:43Een ander probleem is dit:
-
9:43 - 9:48deze systemen worden vaak getraind
met data gegenereerd door onze acties, -
9:48 - 9:50menselijke indrukken.
-
9:50 - 9:54Nou, die zouden wel eens
onze vooroordelen kunnen weerspiegelen, -
9:54 - 9:58welke die systemen vervolgens
vlekkeloos overnemen, -
9:58 - 9:59ze versterken
-
9:59 - 10:00en weer aan ons terugkaatsen,
-
10:00 - 10:02terwijl we onszelf wijsmaken:
-
10:02 - 10:05"We maken objectieve,
neutrale berekeningen." -
10:06 - 10:09Onderzoekers ontdekten dat op Google
-
10:10 - 10:13vrouwen minder kans hebben dan mannen
-
10:13 - 10:16om vacatures voor goedbetaalde banen
te zien te krijgen. -
10:16 - 10:19Het zoeken naar Afro-Amerikaanse namen
-
10:19 - 10:21geeft een grotere kans op advertenties
-
10:21 - 10:24die een criminele geschiedenis suggereren,
-
10:24 - 10:25zelfs wanneer er geen is.
-
10:27 - 10:30Dergelijke verborgen vooroordelen
en zwarte-doosalgoritmen, -
10:30 - 10:34die onderzoekers soms ontdekken
maar soms ook niet, -
10:34 - 10:37kunnen iemands leven
diepgaand beïnvloeden. -
10:38 - 10:42In Wisconsin werd een verdachte
veroordeeld tot zes jaar gevangenis -
10:42 - 10:44door te gaan lopen voor de politie.
-
10:44 - 10:46Misschien weten jullie dit niet,
-
10:46 - 10:48maar algoritmen
worden steeds meer gebruikt -
10:48 - 10:51bij voorwaardelijke
invrijheidstelling en straftoemeting. -
10:51 - 10:54Hij wilde weten hoe dat
deze score berekend wordt. -
10:54 - 10:55Het is een commerciële zwarte doos.
-
10:55 - 10:57Het bedrijf weigerde
-
10:57 - 11:00zijn algoritme in een openbare
rechtszitting te laten betwisten. -
11:00 - 11:06Maar ProPublica, een onderzoekende
non-profit, testte dat algoritme -
11:06 - 11:08met openbare gegevens
die ze konden vinden, -
11:08 - 11:10en vond dat de resultaten ervan
bevooroordeeld waren -
11:10 - 11:14en dat de voorspellende kracht onduidelijk
en nauwelijks beter dan het toeval was. -
11:14 - 11:18Ze labelde zwarte verdachten
onterecht als toekomstige criminelen -
11:18 - 11:22en wel twee keer zo vaak als blanken.
-
11:24 - 11:25Bekijk dit geval:
-
11:26 - 11:30deze vrouw was wat laat
om een meisje op te pikken -
11:30 - 11:33op een school in Broward County, Florida.
-
11:33 - 11:35Ze liep op straat met een vriendin.
-
11:35 - 11:39Op een veranda zagen ze
een kinderfiets en een scooter. -
11:39 - 11:41Zonder nadenken sprongen ze erop.
-
11:41 - 11:44Terwijl ze wegreden,
kwam een vrouw naar buiten en zei: -
11:44 - 11:46"Hé! Dat is de fiets van mijn kind!"
-
11:46 - 11:49Ze lieten hem vallen, liepen door,
maar werden gearresteerd. -
11:49 - 11:53Ze ging in de fout, ze was dom,
maar ze was ook pas 18. -
11:53 - 11:55Ze had een paar
jeugdmisdrijven op haar naam. -
11:56 - 12:01Ondertussen werd deze man gearresteerd
voor winkeldiefstal in Home Depot -- -
12:01 - 12:0485 dollar aan spullen,
soortgelijke kleine criminaliteit. -
12:05 - 12:09Maar hij had twee eerdere veroordelingen
voor gewapende overval. -
12:10 - 12:13Het algoritme scoorde haar
als hoog risico en hem niet. -
12:15 - 12:19Twee jaar later vond ProPublica
dat ze niet had gerecidiveerd. -
12:19 - 12:21Maar ze vond wel moeilijk
een baan met haar strafblad. -
12:21 - 12:23Hij daarentegen recidiveerde
-
12:23 - 12:27en zit nu voor acht jaar in de gevangenis
voor een latere misdaad. -
12:28 - 12:31Het is duidelijk dat we
onze zwarte dozen moeten controleren -
12:31 - 12:34en ze niet dit soort ongecontroleerde
macht moeten geven. -
12:34 - 12:37(Applaus)
-
12:38 - 12:42Audits zijn geweldig en belangrijk,
maar ze lossen niet al onze problemen op. -
12:42 - 12:45Neem Facebook's krachtige
nieuwsfeed-algoritme -- -
12:45 - 12:50je weet wel, hetgeen dat alles sorteert
en beslist wat jij te zien krijgt -
12:50 - 12:52van alle vrienden
en pagina's die je volgt. -
12:53 - 12:55Moet je nog een babyfoto
voorgeschoteld krijgen? -
12:55 - 12:56(Gelach)
-
12:56 - 12:59Een sombere opmerking van een kennis?
-
12:59 - 13:02Een belangrijk
maar moeilijk nieuwsbericht? -
13:02 - 13:03Er is geen juist antwoord.
-
13:03 - 13:05Facebook optimaliseert
voor betrokkenheid op de site: -
13:06 - 13:08wat je leuk vindt, deelt
of becommentarieert. -
13:08 - 13:11In augustus 2014
-
13:11 - 13:14braken protesten uit
in Ferguson, Missouri, -
13:14 - 13:18na het doden van een Afro-Amerikaanse
tiener door een blanke politieagent -
13:18 - 13:20onder duistere omstandigheden.
-
13:20 - 13:22Het nieuws van de protesten
was prominent aanwezig -
13:22 - 13:25op mijn algoritmisch
ongefilterde Twitter-feed, -
13:25 - 13:27maar nergens op mijn Facebook.
-
13:27 - 13:29Waren het mijn Facebookvrienden?
-
13:29 - 13:31Ik schakelde het Facebookalgoritme uit,
-
13:31 - 13:34wat moeilijk is,
want Facebook houdt je liever -
13:34 - 13:37onder de controle van het algoritme.
-
13:37 - 13:39Ik zag dat mijn vrienden erover praatten.
-
13:39 - 13:41Maar het algoritme liet het me niet zien.
-
13:41 - 13:44Ik onderzocht dit en vond dat dit
een wijdverbreid probleem was. -
13:44 - 13:48Het verhaal van Ferguson
was niet 'algoritmevriendelijk'. -
13:48 - 13:49Het was niet 'sympathiek'.
-
13:49 - 13:51Wie gaat er een 'vind ik leuk' aan geven?
-
13:51 - 13:54Het is zelfs niet makkelijk
te becommentariëren. -
13:54 - 13:56Zonder vind-ik-leuk's en commentaar
-
13:56 - 13:59toonde het algoritme het waarschijnlijk
aan nog minder mensen, -
13:59 - 14:01zodat we het niet te zien kregen.
-
14:01 - 14:04In plaats daarvan benadrukte
Facebook's algoritme die week dit: -
14:05 - 14:07de ALS Ice Bucket Challenge.
-
14:07 - 14:11Giet ijswater, doneer
aan een goed doel, allemaal fijn. -
14:11 - 14:13Maar het was uiterst
algoritmevriendelijk. -
14:13 - 14:16De machine nam die beslissing voor ons.
-
14:16 - 14:19Een zeer belangrijk maar moeilijk gesprek
-
14:19 - 14:21zou zijn gesmoord,
-
14:21 - 14:24als Facebook het enige kanaal was geweest.
-
14:24 - 14:28Nu kunnen deze systemen ook verkeerd zijn
-
14:28 - 14:31op een manier die niet
op menselijke systemen lijkt. -
14:31 - 14:34Herinneren jullie zich Watson,
IBM's machine-intelligentie-systeem -
14:34 - 14:37dat op Jeopardy de vloer aanveegde
met de menselijke deelnemers? -
14:37 - 14:39Het was een geweldige speler.
-
14:39 - 14:42Maar in de finale kreeg Watson deze vraag:
-
14:43 - 14:46"Zijn grootste luchthaven is vernoemd
naar een held uit WO II, -
14:46 - 14:48zijn tweede grootste
naar een slag uit WO II." -
14:48 - 14:50(Neuriet Final Jeopardy-muziek)
-
14:50 - 14:51Chicago.
-
14:51 - 14:53De twee mensen hadden het goed.
-
14:53 - 14:57Maar Watson antwoordde "Toronto" --
-
14:57 - 14:59voor een stad van de VS!
-
15:00 - 15:02Het indrukwekkende systeem
maakte ook een fout -
15:03 - 15:06die een mens nooit zou maken,
die een zevenjarige niet zou maken. -
15:07 - 15:10Onze machine-intelligentie kan mislukken
-
15:10 - 15:13op een manier die niet past
in foutpatronen van mensen, -
15:13 - 15:16op een onverwachte manier
waarop we niet zijn voorbereid. -
15:16 - 15:18Het zou stom zijn
om een baan mis te lopen -
15:18 - 15:20waarvoor je gekwalificeerd bent,
-
15:20 - 15:23maar het zou driedubbel stom zijn
als het was vanwege een stack overflow -
15:23 - 15:25in de een of andere subroutine.
-
15:25 - 15:27(Gelach)
-
15:27 - 15:29In mei 2010
-
15:29 - 15:33ontstond een flash crash op Wall Street,
aangewakkerd door een terugkoppeling -
15:33 - 15:36in Wall Streets 'verkopen'-algoritme.
-
15:36 - 15:41Het wiste een biljoen dollar weg
in 36 minuten. -
15:42 - 15:44Ik wil er niet eens aan denken
wat 'fout' betekent -
15:44 - 15:48als het over dodelijke
autonome wapens gaat. -
15:50 - 15:54Dus ja, mensen hebben altijd vooroordelen.
-
15:54 - 15:56Beslissers en bewakers,
-
15:56 - 15:59in rechtbanken, in het nieuws,
in de oorlog... -
15:59 - 16:02maken ze fouten;
maar dat is precies wat ik bedoel. -
16:02 - 16:06We kunnen niet ontsnappen
aan deze moeilijke vragen. -
16:07 - 16:10We kunnen onze verantwoordelijkheden
niet uitbesteden aan machines. -
16:11 - 16:15(Applaus)
-
16:17 - 16:22Kunstmatige intelligentie stelt ons
niet vrij van de ethische vraagstukken. -
16:23 - 16:26Datawetenschapper Fred Benenson
noemt dit 'wiskunde-wassen'. -
16:26 - 16:28We moeten het tegenovergestelde doen.
-
16:28 - 16:33Algoritmes verdienen een cultuur
van achterdocht, controle en onderzoek. -
16:33 - 16:37We moeten zorgen
voor algoritmische verantwoording, -
16:37 - 16:39auditing en betekenisvolle transparantie.
-
16:39 - 16:43We moeten accepteren dat het toepassen
van wiskunde en berekening -
16:43 - 16:46op rommelige, waardegeladen
menselijke aangelegenheden -
16:46 - 16:48geen objectiviteit met zich meebrengt,
-
16:48 - 16:52maar dat de complexiteit van menselijke
aangelegenheden in de algoritmen sluipt. -
16:52 - 16:56Ja, we kunnen en we moeten
berekening gebruiken -
16:56 - 16:58om ons te helpen
om betere beslissingen te nemen. -
16:58 - 17:03Maar het uiteindelijke oordeel
blijft onze morele verantwoordelijkheid, -
17:03 - 17:06en binnen dat kader kunnen
we algoritmen gebruiken, -
17:06 - 17:11niet als een middel om
onze verantwoordelijkheden -
17:11 - 17:13van mens tot mens te ontlopen.
-
17:14 - 17:16Machine-intelligentie is hier.
-
17:16 - 17:20Dat betekent dat we
steeds strakker moeten vasthouden -
17:20 - 17:22aan menselijke waarden
en menselijke ethiek. -
17:22 - 17:23Dank je.
-
17:23 - 17:28(Applaus)
- Title:
- Machine-intelligentie maakt menselijke moraal belangrijker
- Speaker:
- Zeynep Tufekci
- Description:
-
Machine-intelligentie is er en we gebruiken ze al om persoonlijke beslissingen te nemen. Maar de complexe manier waarop AI groeit en verbetert, maakt ze moeilijk te begrijpen en nog moeilijker te beheersen. In deze kritische talk legt techno-socioloog Zeynep Tüfekçi uit hoe intelligente machines kunnen falen op een manier die niet passen in menselijke foutenpatronen -- en wel op een onverwachte manier waarop we niet zijn voorbereid.. "We mogen onze verantwoordelijkheden niet uitbesteden aan machines", zegt ze. "We moeten steeds strakker aan menselijke waarden en menselijke ethiek blijven vasthouden."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Peter van de Ven edited Dutch subtitles for Machine intelligence makes human morals more important | ||
Peter van de Ven approved Dutch subtitles for Machine intelligence makes human morals more important | ||
Peter van de Ven accepted Dutch subtitles for Machine intelligence makes human morals more important | ||
Peter van de Ven edited Dutch subtitles for Machine intelligence makes human morals more important | ||
Peter van de Ven edited Dutch subtitles for Machine intelligence makes human morals more important | ||
Peter van de Ven edited Dutch subtitles for Machine intelligence makes human morals more important | ||
Peter van de Ven edited Dutch subtitles for Machine intelligence makes human morals more important | ||
Peter van de Ven edited Dutch subtitles for Machine intelligence makes human morals more important |