Return to Video

Tiden när vi trodde blint på big data måste få ett slut

  • 0:01 - 0:03
    Algoritmer finns överallt.
  • 0:04 - 0:07
    De sorterar ut vinnarna från förlorarna.
  • 0:08 - 0:10
    Vinnarna får jobbet
  • 0:10 - 0:12
    eller ett bra kreditkortserbjudande.
  • 0:12 - 0:15
    Förlorarna får inte ens en intervju
  • 0:16 - 0:17
    eller så får de en dyrare försäkring.
  • 0:18 - 0:22
    Vi poängsätts av hemliga formler
    som vi inte förstår
  • 0:23 - 0:26
    och som oftast inte går att överklaga.
  • 0:27 - 0:29
    Det väcker frågan:
  • 0:29 - 0:31
    Tänk om algoritmerna har fel?
  • 0:33 - 0:35
    För att bygga en algoritm krävs två saker:
  • 0:35 - 0:37
    man behöver data, vad har hänt tidigare,
  • 0:37 - 0:38
    och en definition av framgång,
  • 0:38 - 0:41
    det man letar efter och ofta hoppas på.
  • 0:41 - 0:46
    Man lär en algoritm
    genom att titta och fundera.
  • 0:46 - 0:50
    Algoritmen räknar ut
    vad som associeras med framgång.
  • 0:50 - 0:52
    Vilken situation leder till framgång?
  • 0:53 - 0:55
    Faktum är att alla använder algoritmer.
  • 0:55 - 0:57
    De formulerar dem bara inte
    i skriftlig kod.
  • 0:57 - 0:59
    Låt mig ge ett exempel.
  • 0:59 - 1:02
    Jag använder en algoritm varje
    dag för att laga mat.
  • 1:02 - 1:04
    Datan jag använder
  • 1:04 - 1:06
    är ingredienserna jag har hemma,
  • 1:06 - 1:08
    den tid jag har på mig,
  • 1:08 - 1:09
    min ambitionsnivå,
  • 1:09 - 1:11
    och jag granskar den datan.
  • 1:11 - 1:15
    Jag räknar inte småpåsarna
    med nudlar som mat.
  • 1:15 - 1:17
    (Skratt)
  • 1:17 - 1:19
    Min definition av framgång är:
  • 1:19 - 1:21
    En måltid är lyckad
    om barnen äter grönsakerna.
  • 1:22 - 1:25
    Den skiljer sig ifrån min
    yngste sons definition.
  • 1:25 - 1:28
    Han skulle säga att framgång är
    om han får äta mycket Nutella.
  • 1:29 - 1:31
    Men jag definierar vad framgången är.
  • 1:31 - 1:34
    Jag bestämmer. Mina åsikter har betydelse.
  • 1:34 - 1:37
    Det här är den första regeln
    för en algoritm.
  • 1:37 - 1:40
    Algoritmer är åsikter inbäddade i kod.
  • 1:42 - 1:45
    Det är stor skillnad mot vad man tror
    att folk tror om algoritmer.
  • 1:45 - 1:50
    Folk tror att algoritmer är objektiva,
    sanna och vetenskapligt underbyggda.
  • 1:50 - 1:52
    Det är ett marknadsföringstrick.
  • 1:53 - 1:55
    Det är också ett marknadsföringstrick
  • 1:55 - 1:59
    för att skrämma dig med algoritmer,
  • 1:59 - 2:02
    få dig att lita på och frukta algoritmerna
  • 2:02 - 2:05
    eftersom du litar på
    och fruktar matematik.
  • 2:06 - 2:10
    Mycket kan gå fel
    när vi tror blint på big data.
  • 2:11 - 2:15
    Det här är Kiri Soares.
    Hon är gymnasierektor i Brooklyn.
  • 2:15 - 2:18
    2011 berättade hon att
    hennes lärare poängsattes
  • 2:18 - 2:20
    med en komplicerad, hemlig algoritm
  • 2:20 - 2:22
    som kallades "mervärdesmodellen."
  • 2:22 - 2:25
    Jag sade, "Fundera ut
    vilken formeln är, och visa mig den.
  • 2:25 - 2:27
    Jag ska förklara den för dig."
  • 2:27 - 2:29
    Hon svarade,"Jag försökte få fram formeln,
  • 2:29 - 2:32
    men min kontakt på skolmyndigheten
    sade att det var matte
  • 2:32 - 2:34
    och att jag inte skulle förstå."
  • 2:35 - 2:37
    Det blir värre.
  • 2:37 - 2:40
    New York Post krävde ut resultatet
    med stöd av lagen om informationsfrihet,
  • 2:40 - 2:43
    fick alla lärares namn och poäng
  • 2:43 - 2:46
    och publicerade det
    för att skämma ut lärarna.
  • 2:47 - 2:51
    När jag försökte få tag i formlerna,
    källkoden, på samma vis,
  • 2:51 - 2:53
    fick jag höra att det inte gick.
  • 2:53 - 2:54
    Jag nekades.
  • 2:54 - 2:56
    Senare upptäckte jag
  • 2:56 - 2:58
    att ingen i New York
    hade tillgång till formeln.
  • 2:58 - 3:00
    Ingen förstod den.
  • 3:02 - 3:05
    Sedan blev någon som var riktigt smart
    inblandad, Gary Rubenstein.
  • 3:05 - 3:09
    Han upptäckte att 665 lärare
    i New York Posts reportage
  • 3:09 - 3:11
    egentligen hade två resultat.
  • 3:11 - 3:14
    Det kunde hända om de undervisade
    både sjunde- och åttondeklassare
  • 3:14 - 3:15
    i matematik.
  • 3:15 - 3:17
    Han gjorde ett diagram.
  • 3:17 - 3:19
    Varje prick representerar en lärare.
  • 3:19 - 3:21
    (Skratt)
  • 3:22 - 3:23
    Vad är det här?
  • 3:23 - 3:24
    (Skratt)
  • 3:24 - 3:28
    Det här skulle aldrig ha använts
    för individuella bedömningar.
  • 3:28 - 3:30
    Det är nästan som en slumpgenerator.
  • 3:30 - 3:33
    (Applåder)
  • 3:33 - 3:34
    Men det gjordes.
  • 3:34 - 3:35
    Detta är Sarah Wysocki.
  • 3:35 - 3:37
    Hon och 205 andra lärare fick sparken,
  • 3:37 - 3:40
    från Washington DCs skoldistrikt,
  • 3:40 - 3:45
    trots att hon hade strålande omdömen
    från sin rektor och elevernas föräldrar.
  • 3:45 - 3:47
    Jag vet vad många av er tänker nu,
  • 3:47 - 3:49
    särskilt dataanalytikerna,
    AI-experterna här inne.
  • 3:49 - 3:54
    Ni tänker, "Jag skulle aldrig skriva
    en sådan inkonsekvent algoritm."
  • 3:55 - 3:57
    Men algoritmer kan bli fel,
  • 3:57 - 4:01
    till och med ha djupt destruktiva effekter
    även om intentionerna är goda.
  • 4:03 - 4:05
    Medan ett illa konstruerat flygplan
  • 4:05 - 4:07
    kraschar och alla kan se det,
  • 4:07 - 4:09
    kan en illa skriven algoritm
  • 4:10 - 4:14
    användas under lång tid,
    och i tysthet skapa kaos.
  • 4:16 - 4:17
    Det här är Roger Ailes.
  • 4:17 - 4:19
    (Skratt)
  • 4:21 - 4:23
    Han grundade Fox News 1996.
  • 4:23 - 4:26
    Fler än tjugo kvinnor
    anmälde sexuella trakasserier.
  • 4:26 - 4:29
    De menade att de inte tilläts
    att lyckas på Fox News.
  • 4:29 - 4:32
    Han fick sparken förra året,
    men nyligen såg vi
  • 4:32 - 4:35
    att problemen har fortsatt.
  • 4:36 - 4:37
    Det leder oss in på frågan:
  • 4:37 - 4:40
    Vad ska Fox News göra för att vända blad?
  • 4:41 - 4:44
    Tänk om de bytte ut
    sin anställningsprocess
  • 4:44 - 4:46
    med en maskininlärningsalgoritm?
  • 4:46 - 4:48
    Det låter väl bra?
  • 4:48 - 4:49
    Fundera på det.
  • 4:49 - 4:51
    Data, vilken data skulle användas?
  • 4:51 - 4:55
    Ett rimligt val skulle vara
    de senaste 21 årens ansökningar
  • 4:55 - 4:56
    till Fox News.
  • 4:56 - 4:58
    Det låter rimligt.
  • 4:58 - 4:59
    Hur skulle framgång definieras?
  • 5:00 - 5:01
    Ett rimligt val vore,
  • 5:01 - 5:03
    ja, vem är framgångsrik på Fox News?
  • 5:03 - 5:07
    Jag gissar på någon som,
    låt säga, stannat där i fyra år
  • 5:07 - 5:08
    och befordrats minst en gång.
  • 5:09 - 5:10
    Det låter rimligt.
  • 5:10 - 5:13
    Därefter skulle algoritmen tränas.
  • 5:13 - 5:17
    Den skulle tränas i att hitta personer för
    att lära sig vad som lett till framgång,
  • 5:17 - 5:22
    vilken typ av ansökningar
    som historiskt lett till framgång
  • 5:22 - 5:23
    utifrån den definitionen.
  • 5:24 - 5:26
    Fundera nu på vad som skulle hända
  • 5:26 - 5:29
    om vi applicerade det här
    på jobbsökare idag.
  • 5:29 - 5:31
    Den skulle välja bort kvinnor
  • 5:32 - 5:36
    för de liknar inte personer
    som varit framgångsrika historiskt.
  • 5:40 - 5:42
    Algoritmer gör inte saker rättvisa
  • 5:42 - 5:45
    om man tillämpar dem tanklöst och blint.
  • 5:45 - 5:47
    De skapar inte rättvisa.
  • 5:47 - 5:49
    De repeterar det vi gjort tidigare,
  • 5:49 - 5:50
    våra mönster.
  • 5:50 - 5:52
    De automatiserar rådande läge.
  • 5:53 - 5:55
    Det skulle vara toppen
    om världen vore perfekt,
  • 5:56 - 5:57
    men det är den inte.
  • 5:57 - 6:01
    Och jag kan tillägga att
    de flesta företag inte har blivit stämda,
  • 6:02 - 6:05
    men dataanalytikerna i de här företagen
  • 6:05 - 6:07
    är ålagda att använda datan,
  • 6:07 - 6:09
    för att få tillförlitliga resultat.
  • 6:10 - 6:12
    Fundera på vad det betyder.
  • 6:12 - 6:16
    Eftersom vi alla har fördomar, betyder det
    att de skulle kunna koda in sexism
  • 6:16 - 6:18
    eller något annat trångsynt.
  • 6:19 - 6:21
    Ett tankeexperiment,
  • 6:21 - 6:22
    eftersom jag gillar såna:
  • 6:24 - 6:27
    Tänk er ett helt segregerat samhälle -
  • 6:28 - 6:32
    rassegregerat, i alla städer,
    i alla områden
  • 6:32 - 6:35
    och där vi bara skickar polisen
    till minoritetsområdena
  • 6:35 - 6:36
    för brottsbekämpning.
  • 6:36 - 6:39
    Arresteringarna skulle vara
    väldigt fördomsfulla.
  • 6:40 - 6:42
    Tänk om, till råga på allt,
    vi fann dataanalytikerna
  • 6:42 - 6:47
    och betalade dem för att tala om
    var nästa brott skulle ske?
  • 6:47 - 6:49
    I minoritetsområdena.
  • 6:49 - 6:52
    Eller förutspå vem nästa brottsling är?
  • 6:53 - 6:55
    Någon från en minoritet.
  • 6:56 - 6:59
    Dataanalytikerna skulle skryta om
    hur bra och tillförlitlig
  • 7:00 - 7:01
    deras modell skulle vara,
  • 7:01 - 7:02
    och de skulle ha rätt.
  • 7:04 - 7:09
    Nu är verkligheten inte så drastisk,
    men vi har allvarlig segregation
  • 7:09 - 7:10
    i många städer och områden,
  • 7:10 - 7:12
    och vi har gott om bevis
  • 7:12 - 7:15
    om fördomsfullt polisarbete
    och skev straffrättslig data.
  • 7:16 - 7:18
    Vi förutspår faktiskt hotspots,
  • 7:18 - 7:20
    platser där brott kan ske.
  • 7:20 - 7:24
    Faktum är, att vi förutspår
    individers kriminalitet,
  • 7:24 - 7:26
    individers brottsbenägenhet.
  • 7:27 - 7:31
    Nyhetsorganisationen ProPublica
    undersökte för en tid sedan
  • 7:31 - 7:33
    en av algoritmerna för "återfallsrisk",
  • 7:33 - 7:34
    som de kallas,
  • 7:34 - 7:37
    och som används i Florida
    när domar ska avkunnas.
  • 7:38 - 7:42
    Bernard, mannen till vänster,
    fick 10 poäng av 10 möjliga.
  • 7:43 - 7:45
    Dylan, till höger, 3 poäng av 10 möjliga.
  • 7:45 - 7:48
    10 av 10, hög risk.
    3 av 10, låg risk.
  • 7:49 - 7:51
    Båda anhölls för droginnehav.
  • 7:51 - 7:52
    Båda var dömda tidigare,
  • 7:52 - 7:55
    men Dylan hade begått ett grovt brott
  • 7:55 - 7:56
    vilket Bernard inte hade.
  • 7:58 - 8:01
    Det här har betydelse,
    för ju högre poäng man har,
  • 8:01 - 8:04
    desto troligare är det
    att man får ett längre straff.
  • 8:06 - 8:08
    Vad är det som händer?
  • 8:09 - 8:10
    Datatvätt.
  • 8:11 - 8:15
    Det är en process där tekniker
    gömmer fula sanningar
  • 8:15 - 8:17
    inuti automatiska algoritmer
  • 8:17 - 8:19
    som de kallar objektiva;
  • 8:19 - 8:21
    kallar meritokratiska.
  • 8:23 - 8:26
    När de är hemliga, viktiga
    och destruktiva,
  • 8:26 - 8:28
    myntade jag ett begrepp för dem:
  • 8:28 - 8:30
    "matte-förstörelsevapen."
  • 8:30 - 8:32
    (Skratt)
  • 8:32 - 8:35
    (Applåder)
  • 8:35 - 8:37
    De finns överallt,
    och det är inte ett misstag.
  • 8:38 - 8:41
    Det här är privata företag
    som skapar privata algoritmer
  • 8:41 - 8:43
    för privata syften.
  • 8:43 - 8:46
    Även de för lärare och poliser
    som jag pratat om,
  • 8:46 - 8:48
    byggdes av privata företag
  • 8:48 - 8:51
    och såldes till statliga myndigheter.
  • 8:51 - 8:52
    De kallar dem "hemliga recept" -
  • 8:52 - 8:55
    det är därför de inte kan berätta om dem.
  • 8:55 - 8:57
    Det är också privat makt.
  • 8:58 - 9:03
    De skor sig genom att utöva
    sin ogenomträngliga makt.
  • 9:05 - 9:08
    Nu kanske du tänker
    att eftersom allt det här är privat
  • 9:08 - 9:09
    och fri konkurrens råder,
  • 9:09 - 9:12
    kommer marknaden kanske lösa problemen.
  • 9:12 - 9:13
    Det gör den inte.
  • 9:13 - 9:16
    Det finns mycket pengar
    att tjäna på orättvisa.
  • 9:17 - 9:20
    Dessutom, är vi inte
    ekonomiskt rationella varelser.
  • 9:21 - 9:22
    Alla har vi fördomar.
  • 9:23 - 9:26
    Alla är vi rasister och bigotta på sätt
    som vi önskar att vi inte var,
  • 9:26 - 9:28
    på sätt vi inte ens vet att vi är.
  • 9:29 - 9:32
    Det här vet vi dock,
  • 9:32 - 9:36
    eftersom sociologer konsekvent visat det
  • 9:36 - 9:37
    genom olika expriment,
  • 9:37 - 9:40
    där de skickar jobbansökningar,
  • 9:40 - 9:42
    alla lika kvalificerade
    men några har "vita" namn
  • 9:43 - 9:44
    och några har "svarta" namn,
  • 9:44 - 9:47
    och resultaten är alltid
    en besvikelse - alltid.
  • 9:48 - 9:49
    Vi är alltså de som är fördomsfulla,
  • 9:49 - 9:53
    och vi lägger in fördomarna i algoritmerna
  • 9:53 - 9:55
    genom att välja datan vi samlar in,
  • 9:55 - 9:57
    så som jag valde
    att inte ta med japanska nudlar.
  • 9:57 - 9:59
    Jag bestämde att de var oviktiga.
  • 9:59 - 10:05
    Men genom att lita på data
    som bygger på tidigare erfarenheter
  • 10:05 - 10:07
    och välja definitionen av framgång,
  • 10:07 - 10:11
    hur kan vi då förvänta oss
    att algoritmerna är harmlösa?
  • 10:11 - 10:13
    Det kan vi inte. Vi måste kontrollera dem.
  • 10:14 - 10:16
    Vi måste kolla att de är rättvisa.
  • 10:16 - 10:19
    Den goda nyheten är
    att vi kan kolla rättvisan i dem.
  • 10:19 - 10:22
    Algoritmer kan ifrågasättas,
  • 10:22 - 10:24
    och de talar om sanningen varenda gång.
  • 10:24 - 10:27
    Vi kan rätta till dem.
    Vi kan förbättra dem.
  • 10:27 - 10:29
    Jag kallar det för
    revision av algoritmer,
  • 10:29 - 10:31
    och jag ska förklara.
  • 10:31 - 10:33
    Först, integritetskontroll av datat.
  • 10:34 - 10:37
    För algoritmen för återfallsrisk
    som jag pratade om,
  • 10:38 - 10:41
    skulle en integritetstest betyda
    att vi behöver ta tag i det faktum
  • 10:41 - 10:45
    att i USA, röker vita och svarta
    maruijana i samma utsträckning
  • 10:45 - 10:47
    men svarta löper större risk
    att arresteras -
  • 10:47 - 10:50
    fyra till fem gånger högre risk
    beroende på område.
  • 10:51 - 10:54
    Hur ser den fördomen ut
    i andra brottskategorier
  • 10:54 - 10:56
    och hur hanterar vi det?
  • 10:56 - 10:59
    Två, vi borde tänka över
    hur vi definierar framgång,
  • 10:59 - 11:01
    granska det.
  • 11:01 - 11:02
    Kommer ni ihåg -
  • 11:02 - 11:03
    anställningsalgoritmen vi pratade om?
  • 11:03 - 11:07
    Någon som stannar fyra år
    och befordras en gång?
  • 11:07 - 11:08
    Ja, det är en framgångsrik person,
  • 11:08 - 11:11
    men det är också någon
    som stöttas av företagskulturen.
  • 11:12 - 11:14
    Som sagt, även det kan vara partiskt.
  • 11:14 - 11:16
    Vi måste skilja på de här två sakerna.
  • 11:16 - 11:20
    Vi bör titta på blindrekrytering
    till orkestrar som ett exempel.
  • 11:20 - 11:23
    I en sådan är den sökande
    bakom en skärm.
  • 11:23 - 11:25
    Det jag vill framhålla är
  • 11:25 - 11:28
    att de som lyssnar
    har bestämt vad som är viktigt
  • 11:28 - 11:30
    och vad som är oviktigt
  • 11:30 - 11:32
    och de distraheras inte av det.
  • 11:33 - 11:36
    När den här typen
    av rekryteringar startade,
  • 11:36 - 11:39
    steg andelen kvinnor
    i orkestrarna femfalt.
  • 11:40 - 11:42
    Sen måste vi överväga tillförlitligheten.
  • 11:43 - 11:47
    Det är här mervärdesmodellen
    för lärare skulle misslyckas omedelbart.
  • 11:48 - 11:50
    Självklart är ingen algoritm perfekt,
  • 11:51 - 11:54
    så vi måste överväga felen
    i varje algoritm.
  • 11:55 - 11:59
    Hur ofta förekommer fel
    och för vem misslyckas modellen?
  • 12:00 - 12:02
    Vad är kostnaden för de felen?
  • 12:02 - 12:05
    Slutligen, måste vi överväga
  • 12:06 - 12:08
    de långsiktiga effekterna av algoritmerna,
  • 12:09 - 12:11
    och feedbacken som de medför.
  • 12:12 - 12:13
    Det låter abstrakt,
  • 12:13 - 12:16
    men tänk om Facebooks ingenjörer
    övervägt det här
  • 12:16 - 12:21
    innan de bestämde sig för att bara
    visa oss det våra vänner lagt upp.
  • 12:22 - 12:25
    Jag har ytterligare två budskap,
    ett för dataanalytikerna där ute.
  • 12:25 - 12:29
    Dataanalytiker: Vi bör inte vara
    sanningens skiljedomare.
  • 12:30 - 12:33
    Vi bör vara översättare
    av de etiska diskussioner som sker
  • 12:33 - 12:35
    i samhället i stort.
  • 12:36 - 12:38
    (Applåder)
  • 12:38 - 12:39
    Och ni andra,
  • 12:40 - 12:41
    som inte är dataanalytiker:
  • 12:41 - 12:43
    Det här är inte ett matteprov.
  • 12:44 - 12:46
    Det här är en politisk kamp.
  • 12:47 - 12:50
    Vi måste kräva ansvarsskyldighet
    från våra algoritmiska överherrar.
  • 12:52 - 12:54
    (Applåder)
  • 12:54 - 12:58
    Tiden när vi trodde blint
    på big data måste få ett slut.
  • 12:58 - 12:59
    Tack så mycket.
  • 12:59 - 13:02
    (Applåder)
Title:
Tiden när vi trodde blint på big data måste få ett slut
Speaker:
Cathy O'Neil
Description:

Algoritmer bestämmer vem som får ta ett lån, vem som kommer på jobbintervju, vem som kan teckna försäkring och mycket mer - men de gör inte automatiskt saker och ting rättvisa. Matematikern och dataanalytikern Cathy O'Neil har myntat ett begrepp för algoritmer som är hemliga, betydelsefulla och skadliga: "matte-förstörelsevapen". Lär dig mer om de dolda agendorna bakom formlerna.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18

Swedish subtitles

Revisions