Return to Video

Maskinintelligens behöver mänsklig etik och moral

  • 0:01 - 0:05
    Mitt första jobb var som dataprogrammerare
  • 0:05 - 0:07
    under mitt första år på högskolan -
  • 0:07 - 0:08
    jag var tonåring då.
  • 0:09 - 0:11
    Strax efter att jag börjat jobba,
  • 0:11 - 0:12
    med att utveckla programvara,
  • 0:13 - 0:16
    kom en chef på företaget ner där jag satt,
  • 0:16 - 0:18
    och viskade till mig,
  • 0:18 - 0:21
    "Kan han se om jag ljuger?"
  • 0:22 - 0:24
    Där fanns ingen annan i rummet.
  • 0:25 - 0:29
    "Kan vem se om du ljuger?
    Och varför viskar vi?"
  • 0:30 - 0:33
    Chefen pekade på datorn som stod i rummet.
  • 0:33 - 0:36
    "Kan han se om jag ljuger?"
  • 0:38 - 0:42
    Den här chefen hade en affär
    med receptionisten.
  • 0:42 - 0:43
    (Skratt)
  • 0:43 - 0:45
    Och jag var fortfarande tonåring.
  • 0:45 - 0:47
    Så jag visk-skrek tillbaka,
  • 0:47 - 0:51
    "Ja, datorn kan se om du ljuger."
  • 0:51 - 0:53
    (Skratt)
  • 0:53 - 0:56
    Jag skrattade, men egentligen
    är det jag som är skämtet.
  • 0:56 - 0:59
    Idag finns det beräkningssystem
  • 0:59 - 1:03
    som kan sortera ut känslor och även lögner
  • 1:03 - 1:05
    genom att processa data från ansikten.
  • 1:05 - 1:09
    Annonsörer och till och med regeringar
    är mycket intresserade.
  • 1:10 - 1:12
    Jag blev programmerare
  • 1:12 - 1:15
    för som barn var jag som tokig
    i matematik och vetenskap.
  • 1:16 - 1:19
    Men någonstans längs vägen
    fick jag vetskap om kärnvapen,
  • 1:19 - 1:22
    och blev mycket oroad
    över etiken i forskningen.
  • 1:22 - 1:23
    Jag var bekymrad.
  • 1:23 - 1:26
    Emellertid, på grund av
    familjeomständigheter,
  • 1:26 - 1:29
    var jag också tvungen
    att börja arbeta tidigt.
  • 1:29 - 1:33
    Jag tänkte för mig själv;
    jag väljer ett tekniskt område
  • 1:33 - 1:34
    där jag lätt kan få arbete och där
  • 1:34 - 1:38
    jag inte behöver bekymra mig om
    några svårlösta etiska frågor.
  • 1:39 - 1:41
    Så jag valde datorer.
  • 1:41 - 1:42
    (Skratt)
  • 1:42 - 1:45
    Ja, ha, ha, ha!
    Skratta gärna åt mig.
  • 1:45 - 1:48
    Idag bygger datorforskare plattformar
  • 1:48 - 1:52
    som kontrollerar vad som visas
    för miljarder människor varje dag.
  • 1:53 - 1:55
    De utvecklar bilar
  • 1:55 - 1:57
    som skulle kunna bestämma
    vem de ska köra över.
  • 1:58 - 2:01
    De bygger till och med maskiner, vapen,
  • 2:01 - 2:03
    som kan döda människor i krig.
  • 2:03 - 2:06
    Det handlar om etik i hela ledet.
  • 2:07 - 2:09
    De intelligenta maskinerna är här.
  • 2:10 - 2:13
    Idag använder vi beräkningssystem
    för alla sorters beslut,
  • 2:13 - 2:15
    men också för nya typer av beslut.
  • 2:15 - 2:20
    Vi ställer frågor till algoritmerna
    som inte har ett entydigt korrekt svar,
  • 2:20 - 2:22
    frågor som är subjektiva,
  • 2:22 - 2:24
    öppna och värdeladdade.
  • 2:24 - 2:26
    Vi ställer frågor som,
  • 2:26 - 2:27
    "Vem ska företaget anställa?"
  • 2:28 - 2:30
    "Vilken av dina vänners uppdateringar
  • 2:30 - 2:31
    ska du kunna se?"
  • 2:31 - 2:33
    "Vem återfaller troligast i brott?"
  • 2:34 - 2:37
    "Vilka nyheter eller filmer
    ska rekommenderas till folk?"
  • 2:37 - 2:40
    Visst, vi har använt datorer ett tag,
  • 2:40 - 2:42
    men det här är annorlunda.
  • 2:42 - 2:44
    Det är en historisk vridning,
  • 2:44 - 2:49
    för vi kan inte verifiera beräkningarna
    för sådana subjektiva beslut
  • 2:49 - 2:54
    på samma sätt som vi kan verifiera dem
    vi gör för flygplan, brokonstruktioner,
  • 2:54 - 2:56
    eller månfärder.
  • 2:56 - 3:00
    Är flygplan säkrare?
    Började bron självsvänga och rasa?
  • 3:00 - 3:04
    Där har vi kommit överens om
    ganska tydliga ramverk,
  • 3:04 - 3:06
    och vi har lagar som vägleder oss.
  • 3:07 - 3:10
    Såna ramverk eller normer finns inte
  • 3:10 - 3:14
    för beslut gällande
    krångliga mänskliga relationer.
  • 3:14 - 3:18
    För att göra det än mer komplicerat,
    blir vår mjukvara kraftfullare,
  • 3:18 - 3:22
    samtidigt som den blir
    både mindre transparent och mer komplex.
  • 3:23 - 3:25
    Under det senaste årtiondet,
  • 3:25 - 3:27
    har komplexa algoritmer
    gjort enorma framsteg.
  • 3:27 - 3:29
    De kan känna igen ansikten.
  • 3:30 - 3:32
    De kan tolka handskriven text.
  • 3:32 - 3:35
    De kan upptäcka kontokortsbedrägerier,
  • 3:35 - 3:36
    blockera spam
  • 3:36 - 3:38
    och de kan översätta språk.
  • 3:38 - 3:40
    De kan upptäcka tumörer
    genom medicinsk bildteknik.
  • 3:40 - 3:43
    De kan slå människor i schack och Go.
  • 3:43 - 3:48
    Många av de här framstegen härrör från
    en metod som kallas "maskininlärning."
  • 3:48 - 3:51
    Maskininlärning skiljer sig
    från traditionell programmering,
  • 3:51 - 3:55
    där du ger datorn detaljerade,
    exakta, noggranna instruktioner.
  • 3:55 - 4:00
    Det här är mer som att du
    matar systemet med en massa data,
  • 4:00 - 4:01
    inkluderat ostrukturerad data,
  • 4:01 - 4:04
    till exempel från våra digitala liv.
  • 4:04 - 4:06
    Systemet lär sig genom att
    bearbeta datamängderna.
  • 4:07 - 4:08
    Avgörande är också,
  • 4:08 - 4:13
    att systemen inte kommer fram till
    något entydigt svar.
  • 4:13 - 4:16
    Du får inte ett enkelt svar,
    utan en sannolikhetsbedömning;
  • 4:16 - 4:19
    "Det här är sannolikt det du letar efter."
  • 4:20 - 4:23
    Fördelen är att metoden är kraftfull.
  • 4:23 - 4:25
    Chefen för Googles AI-system kallade det
  • 4:25 - 4:28
    "datas orimliga effektivitet."
  • 4:28 - 4:29
    Nackdelen är
  • 4:30 - 4:33
    att vi inte förstår vad systemet lär sig.
  • 4:33 - 4:35
    Faktum är att det är dess makt.
  • 4:35 - 4:39
    Det är mindre av
    att ge en dator instruktioner,
  • 4:39 - 4:43
    och mer som att träna en Tamagotschi
  • 4:43 - 4:46
    som vi varken förstår eller kontrollerar.
  • 4:46 - 4:48
    Det är vårt stora problem.
  • 4:48 - 4:53
    Det är problematiskt när såna här system
    får saker och ting om bakfoten.
  • 4:53 - 4:56
    Det är också ett problem
    när de får till det rätt,
  • 4:56 - 5:00
    för vi vet inte vad som är vad,
    när frågeställningen är subjektiv.
  • 5:00 - 5:03
    Vi vet inte vad den här tingesten tänker.
  • 5:03 - 5:07
    Föreställ er en algoritm
    för anställning -
  • 5:08 - 5:12
    ett maskininlärningssystem
    som används för att anställa människor.
  • 5:13 - 5:17
    Ett sådant system har lärt sig
    av data över tidigare anställda
  • 5:17 - 5:19
    och instruerats att hitta och anställa
  • 5:19 - 5:22
    likadana högpresterare
    som redan är anställda i företaget.
  • 5:23 - 5:24
    Det låter ju bra.
  • 5:24 - 5:26
    Jag deltog en gång i en konferens
  • 5:26 - 5:29
    med personalchefer och chefer,
  • 5:29 - 5:30
    högt uppsatta människor,
  • 5:30 - 5:32
    som använder såna system.
  • 5:32 - 5:34
    De var otroligt entusiastiska.
  • 5:34 - 5:37
    De trodde att det här skulle göra
    anställningsprocessen objektiv,
  • 5:37 - 5:38
    och mindre fördomsfull,
  • 5:38 - 5:41
    och ge kvinnor och minoriteter
    en bättre chans
  • 5:41 - 5:44
    mot fördomsfulla, partiska
    personalchefer.
  • 5:44 - 5:47
    Men lyssna här -
    anställningar är fördomsfulla.
  • 5:47 - 5:48
    Jag vet.
  • 5:48 - 5:51
    Jag menar, under mitt första jobb
    som programmerare,
  • 5:51 - 5:55
    kom ibland min närmsta chef förbi
  • 5:55 - 5:59
    antingen väldigt tidigt på morgonen
    eller mycket sent på eftermiddagen,
  • 5:59 - 6:02
    och sade; "Zeynep, nu går vi på lunch!"
  • 6:03 - 6:05
    Jag var brydd av den märkliga tajmingen.
  • 6:05 - 6:07
    Klockan är fyra på eftermiddagen. Lunch?
  • 6:07 - 6:10
    Jag var pank, så gratis lunch.
    Jag följde alltid med.
  • 6:11 - 6:13
    Senare förstod jag vad som hände.
  • 6:13 - 6:17
    Min närmaste chef hade inte erkänt
    för de högre cheferna
  • 6:17 - 6:22
    att programmeraren de anställt
    var en tonårstjej
  • 6:22 - 6:25
    i jeans och gymnastikskor.
  • 6:25 - 6:27
    Jag gjorde ett bra jobb,
    jag såg bara fel ut
  • 6:27 - 6:29
    och var ung och kvinna.
  • 6:29 - 6:32
    Så att anställa utan att
    ta hänsyn till kön och ras
  • 6:32 - 6:34
    låter verkligen bra i mina öron.
  • 6:35 - 6:38
    Men med de här systemen
    blir det mer komplicerat;
  • 6:39 - 6:45
    Idag kan beräkningssystem
    dra alla möjliga slutsatser om dig
  • 6:45 - 6:47
    utifrån dina digitala avtryck,
  • 6:47 - 6:49
    även om du inte har avslöjat dem.
  • 6:50 - 6:52
    De kan dra slutsatser
    om din sexuella läggning,
  • 6:53 - 6:54
    dina karaktärsdrag,
  • 6:55 - 6:56
    dina politiska böjelser.
  • 6:57 - 7:01
    De kan prognostisera med hög noggrannhet.
  • 7:01 - 7:04
    Kom ihåg - kring saker du inte avslöjat.
  • 7:04 - 7:06
    Det är slutledningsförmåga.
  • 7:06 - 7:09
    Jag har en vän som utvecklat
    ett beräkningssystem
  • 7:09 - 7:13
    för att beräkna sannolikheten
    för klinisk- eller förlossningsdepression
  • 7:13 - 7:14
    utifrån digitala avtryck.
  • 7:15 - 7:16
    Resultaten är imponerande.
  • 7:16 - 7:20
    Hennes system kan beräkna
    sannolikheten för depression
  • 7:20 - 7:24
    månader innan symtomen visar sig -
  • 7:24 - 7:25
    månader i förväg.
  • 7:25 - 7:27
    Inga symtom, bara förutsägelse.
  • 7:27 - 7:31
    Hon hoppas att det ska användas
    för behandling i ett tidigt stadium.
  • 7:31 - 7:33
    Jättebra!
  • 7:33 - 7:36
    Men sätt in det
    i ett anställningssammanhang.
  • 7:36 - 7:39
    På den här personalchefskonferensen,
  • 7:39 - 7:44
    frågade jag en högt uppsatt chef
    i ett mycket stort företag,
  • 7:44 - 7:48
    "Du, tänk om, utan att du vet,
  • 7:48 - 7:51
    ert system gallrar ut
  • 7:51 - 7:55
    personer med hög sannolikhet
    att drabbas av depression?
  • 7:56 - 7:59
    De är inte deprimerade nu,
    men kanske blir någon gång i framtiden.
  • 8:00 - 8:04
    Tänk om det gallrar ut kvinnor
    som kan komma att bli gravida
  • 8:04 - 8:06
    inom ett till två år
    men som inte är gravida nu?
  • 8:07 - 8:13
    Tänk om aggressiva människor anställs för
    att det är en del av er företagskultur?"
  • 8:13 - 8:16
    Du kan inte bedöma det
    utifrån könsfördelningen.
  • 8:16 - 8:17
    De kan vara i balans.
  • 8:17 - 8:21
    Eftersom detta gäller maskininlärning,
    och inte traditionell kodning,
  • 8:21 - 8:26
    finns det ingen variabel som säger
    "högre risk för depression,"
  • 8:26 - 8:28
    "högre risk för graviditet,"
  • 8:28 - 8:30
    "macho-tendenser."
  • 8:30 - 8:32
    Du vet varken
  • 8:32 - 8:34
    vad ditt system selekterar på,
  • 8:34 - 8:36
    eller var du ska börja titta.
  • 8:36 - 8:37
    Det är en svart låda.
  • 8:37 - 8:40
    Det har en förutsägbar kraft,
    men du förstår inte det.
  • 8:40 - 8:43
    "Vilka garantier, frågade jag, har du
  • 8:43 - 8:47
    för att försäkra dig om
    att din svarta låda inte gör något skumt?"
  • 8:49 - 8:53
    Hon tittade på mig som om jag
    just trampat på hennes hund.
  • 8:53 - 8:54
    (Skratt)
  • 8:54 - 8:56
    Hon stirrade på mig och sade,
  • 8:56 - 9:01
    "Jag vill inte höra ett enda ord till."
  • 9:01 - 9:04
    Hon vände sig om och gick.
  • 9:04 - 9:06
    Kom ihåg - hon var inte oförskämd.
  • 9:06 - 9:12
    Det var tydligt: Det jag inte vet
    är inte mitt problem, stick iväg.
  • 9:12 - 9:13
    (Skratt)
  • 9:14 - 9:18
    Ett sånt system kan vara mindre subjektivt
  • 9:18 - 9:20
    än personalchefer på vissa sätt.
  • 9:20 - 9:22
    Och det kan vara ekonomiskt rimligt.
  • 9:23 - 9:25
    Men det kan också leda till
  • 9:25 - 9:29
    ett smygande utestängande
    från arbetsmarknaden
  • 9:29 - 9:31
    av människor med högre risk
    för psykisk ohälsa.
  • 9:32 - 9:34
    Vill vi bygga den sortens samhälle,
  • 9:34 - 9:37
    utan att ens märka att vi gör det,
  • 9:37 - 9:39
    för att vi låter maskiner ta besluten?
  • 9:39 - 9:41
    Maskiner som vi inte begriper oss på?
  • 9:41 - 9:43
    Ett annat problem är att
  • 9:43 - 9:48
    dessa system ofta reagerar på data
    som genererats av våra aktiviteter,
  • 9:48 - 9:50
    våra digitala avtryck.
  • 9:50 - 9:54
    De kan ju bara reflektera våra fördomar,
  • 9:54 - 9:58
    och dessa system
    kan plocka upp fördomarna,
  • 9:58 - 9:59
    förstärka dem
  • 9:59 - 10:00
    och återspegla dem för oss,
  • 10:00 - 10:02
    alltmedan vi intalar oss,
  • 10:02 - 10:05
    att "Vi gör bara objektiva
    neutrala beräkningar."
  • 10:06 - 10:09
    Forskare fann att på Google,
  • 10:10 - 10:15
    är det mindre troligt att kvinnor får se
    annonser för välbetalda jobb än män.
  • 10:16 - 10:19
    Söker man på afro-amerikanska namn
  • 10:19 - 10:24
    är det mer troligt att man får annonser
    som antyder kriminell bakgrund,
  • 10:24 - 10:26
    även när det inte finns någon koppling.
  • 10:27 - 10:30
    Sådana dolda fördomar
    och svarta lådor-algoritmer
  • 10:30 - 10:34
    som forskare ibland upptäcker,
    och ibland inte,
  • 10:34 - 10:37
    kan få livsavgörande konsekvenser.
  • 10:38 - 10:42
    I Wisconsin dömdes en åtalad
    till sex års fängelse
  • 10:42 - 10:44
    för att ha kört från polisen.
  • 10:45 - 10:46
    Du vet det kanske inte,
  • 10:46 - 10:50
    men algoritmer används mer och mer
    vid förelägganden och villkorliga straff.
  • 10:50 - 10:53
    Han ville veta:
    Hur beräknades straffsatsen?
  • 10:54 - 10:55
    Av en kommersiell svart låda.
  • 10:55 - 10:58
    Företaget vägrade
    att få sin algoritm bedömd
  • 10:59 - 11:00
    i en offentlig rättegång.
  • 11:00 - 11:06
    Men det granskande, icke-vinstdrivande
    företaget Pro-Publica, jämförde den
  • 11:06 - 11:08
    med den offentliga data
    de kunde hitta, och fann
  • 11:08 - 11:10
    att algoritmens utfall var partiskt
  • 11:10 - 11:14
    och dess kraftfulla beräkningar usla,
    knappt bättre än slumpen,
  • 11:14 - 11:18
    och att den felaktigt pekade ut
    svarta åtalade som presumtiva brottslingar
  • 11:18 - 11:23
    dubbelt så ofta som vita åtalade.
  • 11:24 - 11:25
    Så, tänk över det här fallet:
  • 11:26 - 11:30
    Den här kvinnan var sen
    när hon skulle hämta sitt gudbarn
  • 11:30 - 11:32
    på en skola i Broward County i Florida,
  • 11:33 - 11:35
    hon och hennes vänner sprang nerför gatan.
  • 11:35 - 11:39
    De fick syn på en olåst barncykel
    och en sparkcykel på en veranda
  • 11:39 - 11:41
    och tog dem dumt nog.
  • 11:41 - 11:44
    När de stack iväg,
    kom en kvinna ut och sade,
  • 11:44 - 11:46
    "Hallå! Det där är mitt barns prylar."
  • 11:46 - 11:49
    De släppte dem, gick därifrån,
    men blev anhållna.
  • 11:49 - 11:53
    Hon gjorde fel, hon betedde sig dumt,
    men hon var också bara arton år.
  • 11:53 - 11:55
    Hon hade några ungsdomsförseelser
  • 11:55 - 11:56
    sedan tidigare.
  • 11:56 - 12:01
    Samtidigt hade den här mannen
    blivit anhållen för snatteri i Home Depot,
  • 12:01 - 12:04
    prylar för 85 dollar,
    ett ganska litet brott.
  • 12:05 - 12:09
    Men han hade tidigare blivit dömd
    för två väpnade rån.
  • 12:10 - 12:14
    Men algoritmen bedömde henne
    som en högre risk än honom.
  • 12:15 - 12:19
    Två år senare fann ProPublica
    att hon inte återfallit i brott.
  • 12:19 - 12:21
    Hon hade bara svårt
    att få jobb med sin bakgrund.
  • 12:21 - 12:23
    Han, å andra sidan,
    återföll i brottslighet
  • 12:23 - 12:26
    och avtjänar nu
    ett åttaårigt fängelsestraff
  • 12:26 - 12:28
    för ett nytt brott.
  • 12:28 - 12:31
    Det är tydligt att vi måste revidera
    våra svarta lådor
  • 12:31 - 12:34
    och inte låta dem få
    sådan här okontrollerad makt.
  • 12:34 - 12:37
    (Applåder)
  • 12:38 - 12:42
    Kontroller är bra och viktiga,
    men de löser inte alla våra problem.
  • 12:42 - 12:45
    Ta Facebooks kraftfulla algoritm
    för vårt nyhetsflöde -
  • 12:45 - 12:50
    ni vet, den som rangordnar allt
    och bestämmer vad som ska visas för dig
  • 12:50 - 12:52
    från alla vänner och sidor du följer.
  • 12:53 - 12:55
    Ska du få se ännu en spädbarnsbild?
  • 12:55 - 12:56
    (Skratt)
  • 12:56 - 12:59
    En vresig kommentar från en bekant?
  • 12:59 - 13:01
    En viktig men svår nyhetsnotis?
  • 13:01 - 13:03
    Det finns inget rätt svar.
  • 13:03 - 13:05
    Facebook optimerar flödet
    för att få engagemang:
  • 13:06 - 13:07
    gilla, dela, kommentera.
  • 13:08 - 13:11
    I augusti 2014
  • 13:11 - 13:14
    bröt protester ut i Ferguson, Missouri,
  • 13:14 - 13:18
    efter att en vit polis dödat
    en afro-amerikansk tonåring,
  • 13:18 - 13:20
    under märkliga omständigheter.
  • 13:20 - 13:22
    Nyheten om protesterna fanns överallt
  • 13:22 - 13:25
    i mitt i stort sett
    algoritmfria Twitter-flöde,
  • 13:25 - 13:27
    men inte alls på min Facebook.
  • 13:27 - 13:29
    Berodde det på mina Facebook-vänner?
  • 13:29 - 13:31
    Jag inaktiverade Facebooks algoritm,
  • 13:31 - 13:34
    vilket är svårt för de vill ha dig
  • 13:34 - 13:36
    under algoritmens kontroll,
  • 13:36 - 13:39
    och såg att mina vänner
    pratade om händelsen.
  • 13:39 - 13:41
    Det var bara det att algoritmen
    inte visade det.
  • 13:41 - 13:45
    Jag undersökte saken och fann
    att det är ett vanligt problem.
  • 13:45 - 13:48
    Händelsen i Ferguson
    var inte algoritm-vänlig.
  • 13:48 - 13:49
    Den var inte "sympatisk."
  • 13:49 - 13:51
    Vem skulle klicka på "gilla?"
  • 13:52 - 13:54
    Den är inte ens lätt att kommentera.
  • 13:54 - 13:55
    Utan gillanden och kommentarer
  • 13:55 - 13:58
    skulle algoritmen troligen visa den
    för ännu färre människor,
  • 13:58 - 14:00
    så därför fick vi inte se den.
  • 14:01 - 14:02
    Istället, den veckan,
  • 14:02 - 14:04
    lyfte Facebooks algoritm fram det här,
  • 14:05 - 14:07
    ALS Ice Bucket Challenge.
  • 14:07 - 14:11
    Häll iskallt vatten över dig,
    och skänk pengar för ett gott syfte.
  • 14:11 - 14:13
    Den var superalgoritmvänlig.
  • 14:13 - 14:16
    Maskinen tog beslutet åt oss.
  • 14:16 - 14:19
    En mycket viktig men svår diskussion
  • 14:19 - 14:21
    skulle förmodligen kvävts
  • 14:21 - 14:24
    om Facebook hade varit
    den enda nyhetskällan.
  • 14:24 - 14:28
    Till sist, de här systemen
    kan också göra fel
  • 14:28 - 14:31
    på sätt som människor inte skulle göra.
  • 14:31 - 14:34
    Kommer ni ihåg Watson,
    IBMs intelligenta dator
  • 14:34 - 14:37
    som sopade mattan
    med deltagarna i Jeopardy?
  • 14:37 - 14:39
    Den var en duktig motståndare.
  • 14:39 - 14:42
    Men sen, som sista fråga i Jeopardy,
    fick Watson följande fråga:
  • 14:43 - 14:46
    "Största flygplatsen är döpt
    efter en hjälte i 2:a världskriget,
  • 14:46 - 14:48
    den andra största,
    från ett slag i samma krig."
  • 14:48 - 14:50
    (Nynnar Jeopardy-vinjetten)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:53
    De två människorna svarade rätt.
  • 14:53 - 14:57
    Watson, å sin sida, svarade "Toronto" -
  • 14:57 - 14:59
    i kategorin amerikanska städer!
  • 14:59 - 15:02
    Den imponerande maskinen
    gjorde också fel
  • 15:02 - 15:06
    som en människa aldrig skulle göra,
    en lågstadieelev aldrig skulle göra.
  • 15:07 - 15:10
    Våra intelligenta maskiner kan misslyckas
  • 15:10 - 15:13
    på sätt som inte följer
    mänskliga mönster,
  • 15:13 - 15:16
    på sätt som vi inte förväntar oss
    och är förberedda för.
  • 15:16 - 15:20
    Det är botten att inte få
    ett jobb man är kvalificerad för,
  • 15:20 - 15:23
    men det skulle suga om det
    berodde på minneshanteringen
  • 15:23 - 15:25
    i någon subrutin.
  • 15:25 - 15:27
    (Skratt)
  • 15:27 - 15:29
    I maj 2010
  • 15:29 - 15:33
    drabbades Wall Street av en "blixtkrasch"
    som förstärktes av en loop
  • 15:33 - 15:36
    i Wall Streets sälj-algoritm
  • 15:36 - 15:41
    som på 36 minuter
    raderade en miljard dollar.
  • 15:42 - 15:44
    Jag vill inte tänka på vad "error" betyder
  • 15:44 - 15:48
    i samband med automatiserade vapensystem.
  • 15:50 - 15:54
    Visst, människor har alltid
    gjort partiska antaganden.
  • 15:54 - 15:56
    Beslutsfattare och andra grindvakter,
  • 15:56 - 15:59
    i domstolar, i nyheter, i krig ...
  • 15:59 - 16:02
    de gör misstag;
    och det är det här jag menar.
  • 16:02 - 16:06
    Vi kan inte rymma från
    de här svåra frågeställningarna.
  • 16:07 - 16:08
    Vi kan inte
  • 16:08 - 16:10
    lämna över ansvaret till maskiner.
  • 16:11 - 16:14
    (Applåder)
  • 16:17 - 16:22
    Artificiell intelligens ger oss inte
    ett frikort när det gäller etik.
  • 16:23 - 16:26
    Dataanalytikern Fred Benenson
    kallar det för matematik-tvätt.
  • 16:26 - 16:28
    Vi behöver motsatsen.
  • 16:28 - 16:33
    Vi måste förfina algoritmerna,
    granska och kontrollera dem.
  • 16:33 - 16:37
    Vi måste se till att ha
    ansvarsfulla algoritmer,
  • 16:37 - 16:39
    revideringar och meningsfull transparens.
  • 16:39 - 16:43
    Vi måste förstå att användande av
    matematik och maskinberäkningar
  • 16:43 - 16:46
    i krångliga, värdeladdade
    mänskliga relationer
  • 16:46 - 16:48
    inte skapar objektivitet;
  • 16:48 - 16:52
    utan snarare, att komplexa handlingar
    påverkar algoritmerna.
  • 16:52 - 16:56
    Ja, vi kan och vi bör
    använda maskinberäkningar
  • 16:56 - 16:58
    som en hjälp för att ta bättre beslut.
  • 16:58 - 17:03
    Men vi måste ta vårt moraliska ansvar
    i beaktande i bedömningarna
  • 17:03 - 17:06
    och använda algoritmerna i det ramverket,
  • 17:06 - 17:11
    och inte som ett sätt att frånsäga oss
    eller outsourca vårt ansvar
  • 17:11 - 17:13
    till varandra som människa till människa.
  • 17:14 - 17:16
    Maskinintelligens är här för att stanna.
  • 17:16 - 17:20
    Det betyder att vi måste
    hålla ännu hårdare
  • 17:20 - 17:22
    i våra värderingar och vår etik.
  • 17:22 - 17:23
    Tack.
  • 17:23 - 17:26
    (Applåder)
Title:
Maskinintelligens behöver mänsklig etik och moral
Speaker:
Zeynep Tufekci
Description:

De intelligenta maskinerna är här, och vi använder dem redan för att ta subjektiva beslut. Men med det komplexa sätt som AI växer och förbättras på blir den svår att begripa och ännu svårare att kontrollera. I det här alarmerande föredraget förklarar teknologen och sociologen Zeynep Tufekci hur intelligenta maskiner kan misslyckas på sätt som inte stämmer med det mänskliga mönstret - och på sätt som vi varken förväntar oss eller är förberedda för. "Vi kan inte outsourca vårt ansvar till maskiner", menar hon. "Vi måste hålla oss ännu hårdare till våra värderingar och vår mänskliga etik."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Swedish subtitles

Revisions