Tiden när vi trodde blint på big data måste få ett slut
-
0:01 - 0:03Algoritmer finns överallt.
-
0:04 - 0:07De sorterar ut vinnarna från förlorarna.
-
0:08 - 0:10Vinnarna får jobbet
-
0:10 - 0:12eller ett bra kreditkortserbjudande.
-
0:12 - 0:15Förlorarna får inte ens en intervju
-
0:16 - 0:17eller så får de en dyrare försäkring.
-
0:18 - 0:22Vi poängsätts av hemliga formler
som vi inte förstår -
0:23 - 0:26och som oftast inte går att överklaga.
-
0:27 - 0:29Det väcker frågan:
-
0:29 - 0:31Tänk om algoritmerna har fel?
-
0:33 - 0:35För att bygga en algoritm krävs två saker:
-
0:35 - 0:37man behöver data, vad har hänt tidigare,
-
0:37 - 0:38och en definition av framgång,
-
0:38 - 0:41det man letar efter och ofta hoppas på.
-
0:41 - 0:46Man lär en algoritm
genom att titta och fundera. -
0:46 - 0:50Algoritmen räknar ut
vad som associeras med framgång. -
0:50 - 0:52Vilken situation leder till framgång?
-
0:53 - 0:55Faktum är att alla använder algoritmer.
-
0:55 - 0:57De formulerar dem bara inte
i skriftlig kod. -
0:57 - 0:59Låt mig ge ett exempel.
-
0:59 - 1:02Jag använder en algoritm varje
dag för att laga mat. -
1:02 - 1:04Datan jag använder
-
1:04 - 1:06är ingredienserna jag har hemma,
-
1:06 - 1:08den tid jag har på mig,
-
1:08 - 1:09min ambitionsnivå,
-
1:09 - 1:11och jag granskar den datan.
-
1:11 - 1:15Jag räknar inte småpåsarna
med nudlar som mat. -
1:15 - 1:17(Skratt)
-
1:17 - 1:19Min definition av framgång är:
-
1:19 - 1:21En måltid är lyckad
om barnen äter grönsakerna. -
1:22 - 1:25Den skiljer sig ifrån min
yngste sons definition. -
1:25 - 1:28Han skulle säga att framgång är
om han får äta mycket Nutella. -
1:29 - 1:31Men jag definierar vad framgången är.
-
1:31 - 1:34Jag bestämmer. Mina åsikter har betydelse.
-
1:34 - 1:37Det här är den första regeln
för en algoritm. -
1:37 - 1:40Algoritmer är åsikter inbäddade i kod.
-
1:42 - 1:45Det är stor skillnad mot vad man tror
att folk tror om algoritmer. -
1:45 - 1:50Folk tror att algoritmer är objektiva,
sanna och vetenskapligt underbyggda. -
1:50 - 1:52Det är ett marknadsföringstrick.
-
1:53 - 1:55Det är också ett marknadsföringstrick
-
1:55 - 1:59för att skrämma dig med algoritmer,
-
1:59 - 2:02få dig att lita på och frukta algoritmerna
-
2:02 - 2:05eftersom du litar på
och fruktar matematik. -
2:06 - 2:10Mycket kan gå fel
när vi tror blint på big data. -
2:11 - 2:15Det här är Kiri Soares.
Hon är gymnasierektor i Brooklyn. -
2:15 - 2:182011 berättade hon att
hennes lärare poängsattes -
2:18 - 2:20med en komplicerad, hemlig algoritm
-
2:20 - 2:22som kallades "mervärdesmodellen."
-
2:22 - 2:25Jag sade, "Fundera ut
vilken formeln är, och visa mig den. -
2:25 - 2:27Jag ska förklara den för dig."
-
2:27 - 2:29Hon svarade,"Jag försökte få fram formeln,
-
2:29 - 2:32men min kontakt på skolmyndigheten
sade att det var matte -
2:32 - 2:34och att jag inte skulle förstå."
-
2:35 - 2:37Det blir värre.
-
2:37 - 2:40New York Post krävde ut resultatet
med stöd av lagen om informationsfrihet, -
2:40 - 2:43fick alla lärares namn och poäng
-
2:43 - 2:46och publicerade det
för att skämma ut lärarna. -
2:47 - 2:51När jag försökte få tag i formlerna,
källkoden, på samma vis, -
2:51 - 2:53fick jag höra att det inte gick.
-
2:53 - 2:54Jag nekades.
-
2:54 - 2:56Senare upptäckte jag
-
2:56 - 2:58att ingen i New York
hade tillgång till formeln. -
2:58 - 3:00Ingen förstod den.
-
3:02 - 3:05Sedan blev någon som var riktigt smart
inblandad, Gary Rubenstein. -
3:05 - 3:09Han upptäckte att 665 lärare
i New York Posts reportage -
3:09 - 3:11egentligen hade två resultat.
-
3:11 - 3:14Det kunde hända om de undervisade
både sjunde- och åttondeklassare -
3:14 - 3:15i matematik.
-
3:15 - 3:17Han gjorde ett diagram.
-
3:17 - 3:19Varje prick representerar en lärare.
-
3:19 - 3:21(Skratt)
-
3:22 - 3:23Vad är det här?
-
3:23 - 3:24(Skratt)
-
3:24 - 3:28Det här skulle aldrig ha använts
för individuella bedömningar. -
3:28 - 3:30Det är nästan som en slumpgenerator.
-
3:30 - 3:33(Applåder)
-
3:33 - 3:34Men det gjordes.
-
3:34 - 3:35Detta är Sarah Wysocki.
-
3:35 - 3:37Hon och 205 andra lärare fick sparken,
-
3:37 - 3:40från Washington DCs skoldistrikt,
-
3:40 - 3:45trots att hon hade strålande omdömen
från sin rektor och elevernas föräldrar. -
3:45 - 3:47Jag vet vad många av er tänker nu,
-
3:47 - 3:49särskilt dataanalytikerna,
AI-experterna här inne. -
3:49 - 3:54Ni tänker, "Jag skulle aldrig skriva
en sådan inkonsekvent algoritm." -
3:55 - 3:57Men algoritmer kan bli fel,
-
3:57 - 4:01till och med ha djupt destruktiva effekter
även om intentionerna är goda. -
4:03 - 4:05Medan ett illa konstruerat flygplan
-
4:05 - 4:07kraschar och alla kan se det,
-
4:07 - 4:09kan en illa skriven algoritm
-
4:10 - 4:14användas under lång tid,
och i tysthet skapa kaos. -
4:16 - 4:17Det här är Roger Ailes.
-
4:17 - 4:19(Skratt)
-
4:21 - 4:23Han grundade Fox News 1996.
-
4:23 - 4:26Fler än tjugo kvinnor
anmälde sexuella trakasserier. -
4:26 - 4:29De menade att de inte tilläts
att lyckas på Fox News. -
4:29 - 4:32Han fick sparken förra året,
men nyligen såg vi -
4:32 - 4:35att problemen har fortsatt.
-
4:36 - 4:37Det leder oss in på frågan:
-
4:37 - 4:40Vad ska Fox News göra för att vända blad?
-
4:41 - 4:44Tänk om de bytte ut
sin anställningsprocess -
4:44 - 4:46med en maskininlärningsalgoritm?
-
4:46 - 4:48Det låter väl bra?
-
4:48 - 4:49Fundera på det.
-
4:49 - 4:51Data, vilken data skulle användas?
-
4:51 - 4:55Ett rimligt val skulle vara
de senaste 21 årens ansökningar -
4:55 - 4:56till Fox News.
-
4:56 - 4:58Det låter rimligt.
-
4:58 - 4:59Hur skulle framgång definieras?
-
5:00 - 5:01Ett rimligt val vore,
-
5:01 - 5:03ja, vem är framgångsrik på Fox News?
-
5:03 - 5:07Jag gissar på någon som,
låt säga, stannat där i fyra år -
5:07 - 5:08och befordrats minst en gång.
-
5:09 - 5:10Det låter rimligt.
-
5:10 - 5:13Därefter skulle algoritmen tränas.
-
5:13 - 5:17Den skulle tränas i att hitta personer för
att lära sig vad som lett till framgång, -
5:17 - 5:22vilken typ av ansökningar
som historiskt lett till framgång -
5:22 - 5:23utifrån den definitionen.
-
5:24 - 5:26Fundera nu på vad som skulle hända
-
5:26 - 5:29om vi applicerade det här
på jobbsökare idag. -
5:29 - 5:31Den skulle välja bort kvinnor
-
5:32 - 5:36för de liknar inte personer
som varit framgångsrika historiskt. -
5:40 - 5:42Algoritmer gör inte saker rättvisa
-
5:42 - 5:45om man tillämpar dem tanklöst och blint.
-
5:45 - 5:47De skapar inte rättvisa.
-
5:47 - 5:49De repeterar det vi gjort tidigare,
-
5:49 - 5:50våra mönster.
-
5:50 - 5:52De automatiserar rådande läge.
-
5:53 - 5:55Det skulle vara toppen
om världen vore perfekt, -
5:56 - 5:57men det är den inte.
-
5:57 - 6:01Och jag kan tillägga att
de flesta företag inte har blivit stämda, -
6:02 - 6:05men dataanalytikerna i de här företagen
-
6:05 - 6:07är ålagda att använda datan,
-
6:07 - 6:09för att få tillförlitliga resultat.
-
6:10 - 6:12Fundera på vad det betyder.
-
6:12 - 6:16Eftersom vi alla har fördomar, betyder det
att de skulle kunna koda in sexism -
6:16 - 6:18eller något annat trångsynt.
-
6:19 - 6:21Ett tankeexperiment,
-
6:21 - 6:22eftersom jag gillar såna:
-
6:24 - 6:27Tänk er ett helt segregerat samhälle -
-
6:28 - 6:32rassegregerat, i alla städer,
i alla områden -
6:32 - 6:35och där vi bara skickar polisen
till minoritetsområdena -
6:35 - 6:36för brottsbekämpning.
-
6:36 - 6:39Arresteringarna skulle vara
väldigt fördomsfulla. -
6:40 - 6:42Tänk om, till råga på allt,
vi fann dataanalytikerna -
6:42 - 6:47och betalade dem för att tala om
var nästa brott skulle ske? -
6:47 - 6:49I minoritetsområdena.
-
6:49 - 6:52Eller förutspå vem nästa brottsling är?
-
6:53 - 6:55Någon från en minoritet.
-
6:56 - 6:59Dataanalytikerna skulle skryta om
hur bra och tillförlitlig -
7:00 - 7:01deras modell skulle vara,
-
7:01 - 7:02och de skulle ha rätt.
-
7:04 - 7:09Nu är verkligheten inte så drastisk,
men vi har allvarlig segregation -
7:09 - 7:10i många städer och områden,
-
7:10 - 7:12och vi har gott om bevis
-
7:12 - 7:15om fördomsfullt polisarbete
och skev straffrättslig data. -
7:16 - 7:18Vi förutspår faktiskt hotspots,
-
7:18 - 7:20platser där brott kan ske.
-
7:20 - 7:24Faktum är, att vi förutspår
individers kriminalitet, -
7:24 - 7:26individers brottsbenägenhet.
-
7:27 - 7:31Nyhetsorganisationen ProPublica
undersökte för en tid sedan -
7:31 - 7:33en av algoritmerna för "återfallsrisk",
-
7:33 - 7:34som de kallas,
-
7:34 - 7:37och som används i Florida
när domar ska avkunnas. -
7:38 - 7:42Bernard, mannen till vänster,
fick 10 poäng av 10 möjliga. -
7:43 - 7:45Dylan, till höger, 3 poäng av 10 möjliga.
-
7:45 - 7:4810 av 10, hög risk.
3 av 10, låg risk. -
7:49 - 7:51Båda anhölls för droginnehav.
-
7:51 - 7:52Båda var dömda tidigare,
-
7:52 - 7:55men Dylan hade begått ett grovt brott
-
7:55 - 7:56vilket Bernard inte hade.
-
7:58 - 8:01Det här har betydelse,
för ju högre poäng man har, -
8:01 - 8:04desto troligare är det
att man får ett längre straff. -
8:06 - 8:08Vad är det som händer?
-
8:09 - 8:10Datatvätt.
-
8:11 - 8:15Det är en process där tekniker
gömmer fula sanningar -
8:15 - 8:17inuti automatiska algoritmer
-
8:17 - 8:19som de kallar objektiva;
-
8:19 - 8:21kallar meritokratiska.
-
8:23 - 8:26När de är hemliga, viktiga
och destruktiva, -
8:26 - 8:28myntade jag ett begrepp för dem:
-
8:28 - 8:30"matte-förstörelsevapen."
-
8:30 - 8:32(Skratt)
-
8:32 - 8:35(Applåder)
-
8:35 - 8:37De finns överallt,
och det är inte ett misstag. -
8:38 - 8:41Det här är privata företag
som skapar privata algoritmer -
8:41 - 8:43för privata syften.
-
8:43 - 8:46Även de för lärare och poliser
som jag pratat om, -
8:46 - 8:48byggdes av privata företag
-
8:48 - 8:51och såldes till statliga myndigheter.
-
8:51 - 8:52De kallar dem "hemliga recept" -
-
8:52 - 8:55det är därför de inte kan berätta om dem.
-
8:55 - 8:57Det är också privat makt.
-
8:58 - 9:03De skor sig genom att utöva
sin ogenomträngliga makt. -
9:05 - 9:08Nu kanske du tänker
att eftersom allt det här är privat -
9:08 - 9:09och fri konkurrens råder,
-
9:09 - 9:12kommer marknaden kanske lösa problemen.
-
9:12 - 9:13Det gör den inte.
-
9:13 - 9:16Det finns mycket pengar
att tjäna på orättvisa. -
9:17 - 9:20Dessutom, är vi inte
ekonomiskt rationella varelser. -
9:21 - 9:22Alla har vi fördomar.
-
9:23 - 9:26Alla är vi rasister och bigotta på sätt
som vi önskar att vi inte var, -
9:26 - 9:28på sätt vi inte ens vet att vi är.
-
9:29 - 9:32Det här vet vi dock,
-
9:32 - 9:36eftersom sociologer konsekvent visat det
-
9:36 - 9:37genom olika expriment,
-
9:37 - 9:40där de skickar jobbansökningar,
-
9:40 - 9:42alla lika kvalificerade
men några har "vita" namn -
9:43 - 9:44och några har "svarta" namn,
-
9:44 - 9:47och resultaten är alltid
en besvikelse - alltid. -
9:48 - 9:49Vi är alltså de som är fördomsfulla,
-
9:49 - 9:53och vi lägger in fördomarna i algoritmerna
-
9:53 - 9:55genom att välja datan vi samlar in,
-
9:55 - 9:57så som jag valde
att inte ta med japanska nudlar. -
9:57 - 9:59Jag bestämde att de var oviktiga.
-
9:59 - 10:05Men genom att lita på data
som bygger på tidigare erfarenheter -
10:05 - 10:07och välja definitionen av framgång,
-
10:07 - 10:11hur kan vi då förvänta oss
att algoritmerna är harmlösa? -
10:11 - 10:13Det kan vi inte. Vi måste kontrollera dem.
-
10:14 - 10:16Vi måste kolla att de är rättvisa.
-
10:16 - 10:19Den goda nyheten är
att vi kan kolla rättvisan i dem. -
10:19 - 10:22Algoritmer kan ifrågasättas,
-
10:22 - 10:24och de talar om sanningen varenda gång.
-
10:24 - 10:27Vi kan rätta till dem.
Vi kan förbättra dem. -
10:27 - 10:29Jag kallar det för
revision av algoritmer, -
10:29 - 10:31och jag ska förklara.
-
10:31 - 10:33Först, integritetskontroll av datat.
-
10:34 - 10:37För algoritmen för återfallsrisk
som jag pratade om, -
10:38 - 10:41skulle en integritetstest betyda
att vi behöver ta tag i det faktum -
10:41 - 10:45att i USA, röker vita och svarta
maruijana i samma utsträckning -
10:45 - 10:47men svarta löper större risk
att arresteras - -
10:47 - 10:50fyra till fem gånger högre risk
beroende på område. -
10:51 - 10:54Hur ser den fördomen ut
i andra brottskategorier -
10:54 - 10:56och hur hanterar vi det?
-
10:56 - 10:59Två, vi borde tänka över
hur vi definierar framgång, -
10:59 - 11:01granska det.
-
11:01 - 11:02Kommer ni ihåg -
-
11:02 - 11:03anställningsalgoritmen vi pratade om?
-
11:03 - 11:07Någon som stannar fyra år
och befordras en gång? -
11:07 - 11:08Ja, det är en framgångsrik person,
-
11:08 - 11:11men det är också någon
som stöttas av företagskulturen. -
11:12 - 11:14Som sagt, även det kan vara partiskt.
-
11:14 - 11:16Vi måste skilja på de här två sakerna.
-
11:16 - 11:20Vi bör titta på blindrekrytering
till orkestrar som ett exempel. -
11:20 - 11:23I en sådan är den sökande
bakom en skärm. -
11:23 - 11:25Det jag vill framhålla är
-
11:25 - 11:28att de som lyssnar
har bestämt vad som är viktigt -
11:28 - 11:30och vad som är oviktigt
-
11:30 - 11:32och de distraheras inte av det.
-
11:33 - 11:36När den här typen
av rekryteringar startade, -
11:36 - 11:39steg andelen kvinnor
i orkestrarna femfalt. -
11:40 - 11:42Sen måste vi överväga tillförlitligheten.
-
11:43 - 11:47Det är här mervärdesmodellen
för lärare skulle misslyckas omedelbart. -
11:48 - 11:50Självklart är ingen algoritm perfekt,
-
11:51 - 11:54så vi måste överväga felen
i varje algoritm. -
11:55 - 11:59Hur ofta förekommer fel
och för vem misslyckas modellen? -
12:00 - 12:02Vad är kostnaden för de felen?
-
12:02 - 12:05Slutligen, måste vi överväga
-
12:06 - 12:08de långsiktiga effekterna av algoritmerna,
-
12:09 - 12:11och feedbacken som de medför.
-
12:12 - 12:13Det låter abstrakt,
-
12:13 - 12:16men tänk om Facebooks ingenjörer
övervägt det här -
12:16 - 12:21innan de bestämde sig för att bara
visa oss det våra vänner lagt upp. -
12:22 - 12:25Jag har ytterligare två budskap,
ett för dataanalytikerna där ute. -
12:25 - 12:29Dataanalytiker: Vi bör inte vara
sanningens skiljedomare. -
12:30 - 12:33Vi bör vara översättare
av de etiska diskussioner som sker -
12:33 - 12:35i samhället i stort.
-
12:36 - 12:38(Applåder)
-
12:38 - 12:39Och ni andra,
-
12:40 - 12:41som inte är dataanalytiker:
-
12:41 - 12:43Det här är inte ett matteprov.
-
12:44 - 12:46Det här är en politisk kamp.
-
12:47 - 12:50Vi måste kräva ansvarsskyldighet
från våra algoritmiska överherrar. -
12:52 - 12:54(Applåder)
-
12:54 - 12:58Tiden när vi trodde blint
på big data måste få ett slut. -
12:58 - 12:59Tack så mycket.
-
12:59 - 13:02(Applåder)
- Title:
- Tiden när vi trodde blint på big data måste få ett slut
- Speaker:
- Cathy O'Neil
- Description:
-
Algoritmer bestämmer vem som får ta ett lån, vem som kommer på jobbintervju, vem som kan teckna försäkring och mycket mer - men de gör inte automatiskt saker och ting rättvisa. Matematikern och dataanalytikern Cathy O'Neil har myntat ett begrepp för algoritmer som är hemliga, betydelsefulla och skadliga: "matte-förstörelsevapen". Lär dig mer om de dolda agendorna bakom formlerna.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Annika Bidner approved Swedish subtitles for The era of blind faith in big data must end | ||
Annika Bidner accepted Swedish subtitles for The era of blind faith in big data must end | ||
Annika Bidner edited Swedish subtitles for The era of blind faith in big data must end | ||
Annika Bidner edited Swedish subtitles for The era of blind faith in big data must end | ||
Annika Bidner edited Swedish subtitles for The era of blind faith in big data must end | ||
Annika Bidner edited Swedish subtitles for The era of blind faith in big data must end | ||
Annika Bidner edited Swedish subtitles for The era of blind faith in big data must end | ||
Annika Bidner edited Swedish subtitles for The era of blind faith in big data must end |