Maskinintelligens behöver mänsklig etik och moral
-
0:01 - 0:05Mitt första jobb var som dataprogrammerare
-
0:05 - 0:07under mitt första år på högskolan -
-
0:07 - 0:08jag var tonåring då.
-
0:09 - 0:11Strax efter att jag börjat jobba,
-
0:11 - 0:12med att utveckla programvara,
-
0:13 - 0:16kom en chef på företaget ner där jag satt,
-
0:16 - 0:18och viskade till mig,
-
0:18 - 0:21"Kan han se om jag ljuger?"
-
0:22 - 0:24Där fanns ingen annan i rummet.
-
0:25 - 0:29"Kan vem se om du ljuger?
Och varför viskar vi?" -
0:30 - 0:33Chefen pekade på datorn som stod i rummet.
-
0:33 - 0:36"Kan han se om jag ljuger?"
-
0:38 - 0:42Den här chefen hade en affär
med receptionisten. -
0:42 - 0:43(Skratt)
-
0:43 - 0:45Och jag var fortfarande tonåring.
-
0:45 - 0:47Så jag visk-skrek tillbaka,
-
0:47 - 0:51"Ja, datorn kan se om du ljuger."
-
0:51 - 0:53(Skratt)
-
0:53 - 0:56Jag skrattade, men egentligen
är det jag som är skämtet. -
0:56 - 0:59Idag finns det beräkningssystem
-
0:59 - 1:03som kan sortera ut känslor och även lögner
-
1:03 - 1:05genom att processa data från ansikten.
-
1:05 - 1:09Annonsörer och till och med regeringar
är mycket intresserade. -
1:10 - 1:12Jag blev programmerare
-
1:12 - 1:15för som barn var jag som tokig
i matematik och vetenskap. -
1:16 - 1:19Men någonstans längs vägen
fick jag vetskap om kärnvapen, -
1:19 - 1:22och blev mycket oroad
över etiken i forskningen. -
1:22 - 1:23Jag var bekymrad.
-
1:23 - 1:26Emellertid, på grund av
familjeomständigheter, -
1:26 - 1:29var jag också tvungen
att börja arbeta tidigt. -
1:29 - 1:33Jag tänkte för mig själv;
jag väljer ett tekniskt område -
1:33 - 1:34där jag lätt kan få arbete och där
-
1:34 - 1:38jag inte behöver bekymra mig om
några svårlösta etiska frågor. -
1:39 - 1:41Så jag valde datorer.
-
1:41 - 1:42(Skratt)
-
1:42 - 1:45Ja, ha, ha, ha!
Skratta gärna åt mig. -
1:45 - 1:48Idag bygger datorforskare plattformar
-
1:48 - 1:52som kontrollerar vad som visas
för miljarder människor varje dag. -
1:53 - 1:55De utvecklar bilar
-
1:55 - 1:57som skulle kunna bestämma
vem de ska köra över. -
1:58 - 2:01De bygger till och med maskiner, vapen,
-
2:01 - 2:03som kan döda människor i krig.
-
2:03 - 2:06Det handlar om etik i hela ledet.
-
2:07 - 2:09De intelligenta maskinerna är här.
-
2:10 - 2:13Idag använder vi beräkningssystem
för alla sorters beslut, -
2:13 - 2:15men också för nya typer av beslut.
-
2:15 - 2:20Vi ställer frågor till algoritmerna
som inte har ett entydigt korrekt svar, -
2:20 - 2:22frågor som är subjektiva,
-
2:22 - 2:24öppna och värdeladdade.
-
2:24 - 2:26Vi ställer frågor som,
-
2:26 - 2:27"Vem ska företaget anställa?"
-
2:28 - 2:30"Vilken av dina vänners uppdateringar
-
2:30 - 2:31ska du kunna se?"
-
2:31 - 2:33"Vem återfaller troligast i brott?"
-
2:34 - 2:37"Vilka nyheter eller filmer
ska rekommenderas till folk?" -
2:37 - 2:40Visst, vi har använt datorer ett tag,
-
2:40 - 2:42men det här är annorlunda.
-
2:42 - 2:44Det är en historisk vridning,
-
2:44 - 2:49för vi kan inte verifiera beräkningarna
för sådana subjektiva beslut -
2:49 - 2:54på samma sätt som vi kan verifiera dem
vi gör för flygplan, brokonstruktioner, -
2:54 - 2:56eller månfärder.
-
2:56 - 3:00Är flygplan säkrare?
Började bron självsvänga och rasa? -
3:00 - 3:04Där har vi kommit överens om
ganska tydliga ramverk, -
3:04 - 3:06och vi har lagar som vägleder oss.
-
3:07 - 3:10Såna ramverk eller normer finns inte
-
3:10 - 3:14för beslut gällande
krångliga mänskliga relationer. -
3:14 - 3:18För att göra det än mer komplicerat,
blir vår mjukvara kraftfullare, -
3:18 - 3:22samtidigt som den blir
både mindre transparent och mer komplex. -
3:23 - 3:25Under det senaste årtiondet,
-
3:25 - 3:27har komplexa algoritmer
gjort enorma framsteg. -
3:27 - 3:29De kan känna igen ansikten.
-
3:30 - 3:32De kan tolka handskriven text.
-
3:32 - 3:35De kan upptäcka kontokortsbedrägerier,
-
3:35 - 3:36blockera spam
-
3:36 - 3:38och de kan översätta språk.
-
3:38 - 3:40De kan upptäcka tumörer
genom medicinsk bildteknik. -
3:40 - 3:43De kan slå människor i schack och Go.
-
3:43 - 3:48Många av de här framstegen härrör från
en metod som kallas "maskininlärning." -
3:48 - 3:51Maskininlärning skiljer sig
från traditionell programmering, -
3:51 - 3:55där du ger datorn detaljerade,
exakta, noggranna instruktioner. -
3:55 - 4:00Det här är mer som att du
matar systemet med en massa data, -
4:00 - 4:01inkluderat ostrukturerad data,
-
4:01 - 4:04till exempel från våra digitala liv.
-
4:04 - 4:06Systemet lär sig genom att
bearbeta datamängderna. -
4:07 - 4:08Avgörande är också,
-
4:08 - 4:13att systemen inte kommer fram till
något entydigt svar. -
4:13 - 4:16Du får inte ett enkelt svar,
utan en sannolikhetsbedömning; -
4:16 - 4:19"Det här är sannolikt det du letar efter."
-
4:20 - 4:23Fördelen är att metoden är kraftfull.
-
4:23 - 4:25Chefen för Googles AI-system kallade det
-
4:25 - 4:28"datas orimliga effektivitet."
-
4:28 - 4:29Nackdelen är
-
4:30 - 4:33att vi inte förstår vad systemet lär sig.
-
4:33 - 4:35Faktum är att det är dess makt.
-
4:35 - 4:39Det är mindre av
att ge en dator instruktioner, -
4:39 - 4:43och mer som att träna en Tamagotschi
-
4:43 - 4:46som vi varken förstår eller kontrollerar.
-
4:46 - 4:48Det är vårt stora problem.
-
4:48 - 4:53Det är problematiskt när såna här system
får saker och ting om bakfoten. -
4:53 - 4:56Det är också ett problem
när de får till det rätt, -
4:56 - 5:00för vi vet inte vad som är vad,
när frågeställningen är subjektiv. -
5:00 - 5:03Vi vet inte vad den här tingesten tänker.
-
5:03 - 5:07Föreställ er en algoritm
för anställning - -
5:08 - 5:12ett maskininlärningssystem
som används för att anställa människor. -
5:13 - 5:17Ett sådant system har lärt sig
av data över tidigare anställda -
5:17 - 5:19och instruerats att hitta och anställa
-
5:19 - 5:22likadana högpresterare
som redan är anställda i företaget. -
5:23 - 5:24Det låter ju bra.
-
5:24 - 5:26Jag deltog en gång i en konferens
-
5:26 - 5:29med personalchefer och chefer,
-
5:29 - 5:30högt uppsatta människor,
-
5:30 - 5:32som använder såna system.
-
5:32 - 5:34De var otroligt entusiastiska.
-
5:34 - 5:37De trodde att det här skulle göra
anställningsprocessen objektiv, -
5:37 - 5:38och mindre fördomsfull,
-
5:38 - 5:41och ge kvinnor och minoriteter
en bättre chans -
5:41 - 5:44mot fördomsfulla, partiska
personalchefer. -
5:44 - 5:47Men lyssna här -
anställningar är fördomsfulla. -
5:47 - 5:48Jag vet.
-
5:48 - 5:51Jag menar, under mitt första jobb
som programmerare, -
5:51 - 5:55kom ibland min närmsta chef förbi
-
5:55 - 5:59antingen väldigt tidigt på morgonen
eller mycket sent på eftermiddagen, -
5:59 - 6:02och sade; "Zeynep, nu går vi på lunch!"
-
6:03 - 6:05Jag var brydd av den märkliga tajmingen.
-
6:05 - 6:07Klockan är fyra på eftermiddagen. Lunch?
-
6:07 - 6:10Jag var pank, så gratis lunch.
Jag följde alltid med. -
6:11 - 6:13Senare förstod jag vad som hände.
-
6:13 - 6:17Min närmaste chef hade inte erkänt
för de högre cheferna -
6:17 - 6:22att programmeraren de anställt
var en tonårstjej -
6:22 - 6:25i jeans och gymnastikskor.
-
6:25 - 6:27Jag gjorde ett bra jobb,
jag såg bara fel ut -
6:27 - 6:29och var ung och kvinna.
-
6:29 - 6:32Så att anställa utan att
ta hänsyn till kön och ras -
6:32 - 6:34låter verkligen bra i mina öron.
-
6:35 - 6:38Men med de här systemen
blir det mer komplicerat; -
6:39 - 6:45Idag kan beräkningssystem
dra alla möjliga slutsatser om dig -
6:45 - 6:47utifrån dina digitala avtryck,
-
6:47 - 6:49även om du inte har avslöjat dem.
-
6:50 - 6:52De kan dra slutsatser
om din sexuella läggning, -
6:53 - 6:54dina karaktärsdrag,
-
6:55 - 6:56dina politiska böjelser.
-
6:57 - 7:01De kan prognostisera med hög noggrannhet.
-
7:01 - 7:04Kom ihåg - kring saker du inte avslöjat.
-
7:04 - 7:06Det är slutledningsförmåga.
-
7:06 - 7:09Jag har en vän som utvecklat
ett beräkningssystem -
7:09 - 7:13för att beräkna sannolikheten
för klinisk- eller förlossningsdepression -
7:13 - 7:14utifrån digitala avtryck.
-
7:15 - 7:16Resultaten är imponerande.
-
7:16 - 7:20Hennes system kan beräkna
sannolikheten för depression -
7:20 - 7:24månader innan symtomen visar sig -
-
7:24 - 7:25månader i förväg.
-
7:25 - 7:27Inga symtom, bara förutsägelse.
-
7:27 - 7:31Hon hoppas att det ska användas
för behandling i ett tidigt stadium. -
7:31 - 7:33Jättebra!
-
7:33 - 7:36Men sätt in det
i ett anställningssammanhang. -
7:36 - 7:39På den här personalchefskonferensen,
-
7:39 - 7:44frågade jag en högt uppsatt chef
i ett mycket stort företag, -
7:44 - 7:48"Du, tänk om, utan att du vet,
-
7:48 - 7:51ert system gallrar ut
-
7:51 - 7:55personer med hög sannolikhet
att drabbas av depression? -
7:56 - 7:59De är inte deprimerade nu,
men kanske blir någon gång i framtiden. -
8:00 - 8:04Tänk om det gallrar ut kvinnor
som kan komma att bli gravida -
8:04 - 8:06inom ett till två år
men som inte är gravida nu? -
8:07 - 8:13Tänk om aggressiva människor anställs för
att det är en del av er företagskultur?" -
8:13 - 8:16Du kan inte bedöma det
utifrån könsfördelningen. -
8:16 - 8:17De kan vara i balans.
-
8:17 - 8:21Eftersom detta gäller maskininlärning,
och inte traditionell kodning, -
8:21 - 8:26finns det ingen variabel som säger
"högre risk för depression," -
8:26 - 8:28"högre risk för graviditet,"
-
8:28 - 8:30"macho-tendenser."
-
8:30 - 8:32Du vet varken
-
8:32 - 8:34vad ditt system selekterar på,
-
8:34 - 8:36eller var du ska börja titta.
-
8:36 - 8:37Det är en svart låda.
-
8:37 - 8:40Det har en förutsägbar kraft,
men du förstår inte det. -
8:40 - 8:43"Vilka garantier, frågade jag, har du
-
8:43 - 8:47för att försäkra dig om
att din svarta låda inte gör något skumt?" -
8:49 - 8:53Hon tittade på mig som om jag
just trampat på hennes hund. -
8:53 - 8:54(Skratt)
-
8:54 - 8:56Hon stirrade på mig och sade,
-
8:56 - 9:01"Jag vill inte höra ett enda ord till."
-
9:01 - 9:04Hon vände sig om och gick.
-
9:04 - 9:06Kom ihåg - hon var inte oförskämd.
-
9:06 - 9:12Det var tydligt: Det jag inte vet
är inte mitt problem, stick iväg. -
9:12 - 9:13(Skratt)
-
9:14 - 9:18Ett sånt system kan vara mindre subjektivt
-
9:18 - 9:20än personalchefer på vissa sätt.
-
9:20 - 9:22Och det kan vara ekonomiskt rimligt.
-
9:23 - 9:25Men det kan också leda till
-
9:25 - 9:29ett smygande utestängande
från arbetsmarknaden -
9:29 - 9:31av människor med högre risk
för psykisk ohälsa. -
9:32 - 9:34Vill vi bygga den sortens samhälle,
-
9:34 - 9:37utan att ens märka att vi gör det,
-
9:37 - 9:39för att vi låter maskiner ta besluten?
-
9:39 - 9:41Maskiner som vi inte begriper oss på?
-
9:41 - 9:43Ett annat problem är att
-
9:43 - 9:48dessa system ofta reagerar på data
som genererats av våra aktiviteter, -
9:48 - 9:50våra digitala avtryck.
-
9:50 - 9:54De kan ju bara reflektera våra fördomar,
-
9:54 - 9:58och dessa system
kan plocka upp fördomarna, -
9:58 - 9:59förstärka dem
-
9:59 - 10:00och återspegla dem för oss,
-
10:00 - 10:02alltmedan vi intalar oss,
-
10:02 - 10:05att "Vi gör bara objektiva
neutrala beräkningar." -
10:06 - 10:09Forskare fann att på Google,
-
10:10 - 10:15är det mindre troligt att kvinnor får se
annonser för välbetalda jobb än män. -
10:16 - 10:19Söker man på afro-amerikanska namn
-
10:19 - 10:24är det mer troligt att man får annonser
som antyder kriminell bakgrund, -
10:24 - 10:26även när det inte finns någon koppling.
-
10:27 - 10:30Sådana dolda fördomar
och svarta lådor-algoritmer -
10:30 - 10:34som forskare ibland upptäcker,
och ibland inte, -
10:34 - 10:37kan få livsavgörande konsekvenser.
-
10:38 - 10:42I Wisconsin dömdes en åtalad
till sex års fängelse -
10:42 - 10:44för att ha kört från polisen.
-
10:45 - 10:46Du vet det kanske inte,
-
10:46 - 10:50men algoritmer används mer och mer
vid förelägganden och villkorliga straff. -
10:50 - 10:53Han ville veta:
Hur beräknades straffsatsen? -
10:54 - 10:55Av en kommersiell svart låda.
-
10:55 - 10:58Företaget vägrade
att få sin algoritm bedömd -
10:59 - 11:00i en offentlig rättegång.
-
11:00 - 11:06Men det granskande, icke-vinstdrivande
företaget Pro-Publica, jämförde den -
11:06 - 11:08med den offentliga data
de kunde hitta, och fann -
11:08 - 11:10att algoritmens utfall var partiskt
-
11:10 - 11:14och dess kraftfulla beräkningar usla,
knappt bättre än slumpen, -
11:14 - 11:18och att den felaktigt pekade ut
svarta åtalade som presumtiva brottslingar -
11:18 - 11:23dubbelt så ofta som vita åtalade.
-
11:24 - 11:25Så, tänk över det här fallet:
-
11:26 - 11:30Den här kvinnan var sen
när hon skulle hämta sitt gudbarn -
11:30 - 11:32på en skola i Broward County i Florida,
-
11:33 - 11:35hon och hennes vänner sprang nerför gatan.
-
11:35 - 11:39De fick syn på en olåst barncykel
och en sparkcykel på en veranda -
11:39 - 11:41och tog dem dumt nog.
-
11:41 - 11:44När de stack iväg,
kom en kvinna ut och sade, -
11:44 - 11:46"Hallå! Det där är mitt barns prylar."
-
11:46 - 11:49De släppte dem, gick därifrån,
men blev anhållna. -
11:49 - 11:53Hon gjorde fel, hon betedde sig dumt,
men hon var också bara arton år. -
11:53 - 11:55Hon hade några ungsdomsförseelser
-
11:55 - 11:56sedan tidigare.
-
11:56 - 12:01Samtidigt hade den här mannen
blivit anhållen för snatteri i Home Depot, -
12:01 - 12:04prylar för 85 dollar,
ett ganska litet brott. -
12:05 - 12:09Men han hade tidigare blivit dömd
för två väpnade rån. -
12:10 - 12:14Men algoritmen bedömde henne
som en högre risk än honom. -
12:15 - 12:19Två år senare fann ProPublica
att hon inte återfallit i brott. -
12:19 - 12:21Hon hade bara svårt
att få jobb med sin bakgrund. -
12:21 - 12:23Han, å andra sidan,
återföll i brottslighet -
12:23 - 12:26och avtjänar nu
ett åttaårigt fängelsestraff -
12:26 - 12:28för ett nytt brott.
-
12:28 - 12:31Det är tydligt att vi måste revidera
våra svarta lådor -
12:31 - 12:34och inte låta dem få
sådan här okontrollerad makt. -
12:34 - 12:37(Applåder)
-
12:38 - 12:42Kontroller är bra och viktiga,
men de löser inte alla våra problem. -
12:42 - 12:45Ta Facebooks kraftfulla algoritm
för vårt nyhetsflöde - -
12:45 - 12:50ni vet, den som rangordnar allt
och bestämmer vad som ska visas för dig -
12:50 - 12:52från alla vänner och sidor du följer.
-
12:53 - 12:55Ska du få se ännu en spädbarnsbild?
-
12:55 - 12:56(Skratt)
-
12:56 - 12:59En vresig kommentar från en bekant?
-
12:59 - 13:01En viktig men svår nyhetsnotis?
-
13:01 - 13:03Det finns inget rätt svar.
-
13:03 - 13:05Facebook optimerar flödet
för att få engagemang: -
13:06 - 13:07gilla, dela, kommentera.
-
13:08 - 13:11I augusti 2014
-
13:11 - 13:14bröt protester ut i Ferguson, Missouri,
-
13:14 - 13:18efter att en vit polis dödat
en afro-amerikansk tonåring, -
13:18 - 13:20under märkliga omständigheter.
-
13:20 - 13:22Nyheten om protesterna fanns överallt
-
13:22 - 13:25i mitt i stort sett
algoritmfria Twitter-flöde, -
13:25 - 13:27men inte alls på min Facebook.
-
13:27 - 13:29Berodde det på mina Facebook-vänner?
-
13:29 - 13:31Jag inaktiverade Facebooks algoritm,
-
13:31 - 13:34vilket är svårt för de vill ha dig
-
13:34 - 13:36under algoritmens kontroll,
-
13:36 - 13:39och såg att mina vänner
pratade om händelsen. -
13:39 - 13:41Det var bara det att algoritmen
inte visade det. -
13:41 - 13:45Jag undersökte saken och fann
att det är ett vanligt problem. -
13:45 - 13:48Händelsen i Ferguson
var inte algoritm-vänlig. -
13:48 - 13:49Den var inte "sympatisk."
-
13:49 - 13:51Vem skulle klicka på "gilla?"
-
13:52 - 13:54Den är inte ens lätt att kommentera.
-
13:54 - 13:55Utan gillanden och kommentarer
-
13:55 - 13:58skulle algoritmen troligen visa den
för ännu färre människor, -
13:58 - 14:00så därför fick vi inte se den.
-
14:01 - 14:02Istället, den veckan,
-
14:02 - 14:04lyfte Facebooks algoritm fram det här,
-
14:05 - 14:07ALS Ice Bucket Challenge.
-
14:07 - 14:11Häll iskallt vatten över dig,
och skänk pengar för ett gott syfte. -
14:11 - 14:13Den var superalgoritmvänlig.
-
14:13 - 14:16Maskinen tog beslutet åt oss.
-
14:16 - 14:19En mycket viktig men svår diskussion
-
14:19 - 14:21skulle förmodligen kvävts
-
14:21 - 14:24om Facebook hade varit
den enda nyhetskällan. -
14:24 - 14:28Till sist, de här systemen
kan också göra fel -
14:28 - 14:31på sätt som människor inte skulle göra.
-
14:31 - 14:34Kommer ni ihåg Watson,
IBMs intelligenta dator -
14:34 - 14:37som sopade mattan
med deltagarna i Jeopardy? -
14:37 - 14:39Den var en duktig motståndare.
-
14:39 - 14:42Men sen, som sista fråga i Jeopardy,
fick Watson följande fråga: -
14:43 - 14:46"Största flygplatsen är döpt
efter en hjälte i 2:a världskriget, -
14:46 - 14:48den andra största,
från ett slag i samma krig." -
14:48 - 14:50(Nynnar Jeopardy-vinjetten)
-
14:50 - 14:51Chicago.
-
14:51 - 14:53De två människorna svarade rätt.
-
14:53 - 14:57Watson, å sin sida, svarade "Toronto" -
-
14:57 - 14:59i kategorin amerikanska städer!
-
14:59 - 15:02Den imponerande maskinen
gjorde också fel -
15:02 - 15:06som en människa aldrig skulle göra,
en lågstadieelev aldrig skulle göra. -
15:07 - 15:10Våra intelligenta maskiner kan misslyckas
-
15:10 - 15:13på sätt som inte följer
mänskliga mönster, -
15:13 - 15:16på sätt som vi inte förväntar oss
och är förberedda för. -
15:16 - 15:20Det är botten att inte få
ett jobb man är kvalificerad för, -
15:20 - 15:23men det skulle suga om det
berodde på minneshanteringen -
15:23 - 15:25i någon subrutin.
-
15:25 - 15:27(Skratt)
-
15:27 - 15:29I maj 2010
-
15:29 - 15:33drabbades Wall Street av en "blixtkrasch"
som förstärktes av en loop -
15:33 - 15:36i Wall Streets sälj-algoritm
-
15:36 - 15:41som på 36 minuter
raderade en miljard dollar. -
15:42 - 15:44Jag vill inte tänka på vad "error" betyder
-
15:44 - 15:48i samband med automatiserade vapensystem.
-
15:50 - 15:54Visst, människor har alltid
gjort partiska antaganden. -
15:54 - 15:56Beslutsfattare och andra grindvakter,
-
15:56 - 15:59i domstolar, i nyheter, i krig ...
-
15:59 - 16:02de gör misstag;
och det är det här jag menar. -
16:02 - 16:06Vi kan inte rymma från
de här svåra frågeställningarna. -
16:07 - 16:08Vi kan inte
-
16:08 - 16:10lämna över ansvaret till maskiner.
-
16:11 - 16:14(Applåder)
-
16:17 - 16:22Artificiell intelligens ger oss inte
ett frikort när det gäller etik. -
16:23 - 16:26Dataanalytikern Fred Benenson
kallar det för matematik-tvätt. -
16:26 - 16:28Vi behöver motsatsen.
-
16:28 - 16:33Vi måste förfina algoritmerna,
granska och kontrollera dem. -
16:33 - 16:37Vi måste se till att ha
ansvarsfulla algoritmer, -
16:37 - 16:39revideringar och meningsfull transparens.
-
16:39 - 16:43Vi måste förstå att användande av
matematik och maskinberäkningar -
16:43 - 16:46i krångliga, värdeladdade
mänskliga relationer -
16:46 - 16:48inte skapar objektivitet;
-
16:48 - 16:52utan snarare, att komplexa handlingar
påverkar algoritmerna. -
16:52 - 16:56Ja, vi kan och vi bör
använda maskinberäkningar -
16:56 - 16:58som en hjälp för att ta bättre beslut.
-
16:58 - 17:03Men vi måste ta vårt moraliska ansvar
i beaktande i bedömningarna -
17:03 - 17:06och använda algoritmerna i det ramverket,
-
17:06 - 17:11och inte som ett sätt att frånsäga oss
eller outsourca vårt ansvar -
17:11 - 17:13till varandra som människa till människa.
-
17:14 - 17:16Maskinintelligens är här för att stanna.
-
17:16 - 17:20Det betyder att vi måste
hålla ännu hårdare -
17:20 - 17:22i våra värderingar och vår etik.
-
17:22 - 17:23Tack.
-
17:23 - 17:26(Applåder)
- Title:
- Maskinintelligens behöver mänsklig etik och moral
- Speaker:
- Zeynep Tufekci
- Description:
-
De intelligenta maskinerna är här, och vi använder dem redan för att ta subjektiva beslut. Men med det komplexa sätt som AI växer och förbättras på blir den svår att begripa och ännu svårare att kontrollera. I det här alarmerande föredraget förklarar teknologen och sociologen Zeynep Tufekci hur intelligenta maskiner kan misslyckas på sätt som inte stämmer med det mänskliga mönstret - och på sätt som vi varken förväntar oss eller är förberedda för. "Vi kan inte outsourca vårt ansvar till maskiner", menar hon. "Vi måste hålla oss ännu hårdare till våra värderingar och vår mänskliga etik."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Annika Bidner approved Swedish subtitles for Machine intelligence makes human morals more important | ||
Annika Bidner edited Swedish subtitles for Machine intelligence makes human morals more important | ||
Annika Bidner accepted Swedish subtitles for Machine intelligence makes human morals more important | ||
Annika Bidner edited Swedish subtitles for Machine intelligence makes human morals more important | ||
Annika Bidner edited Swedish subtitles for Machine intelligence makes human morals more important | ||
Annika Bidner edited Swedish subtitles for Machine intelligence makes human morals more important | ||
Annika Bidner edited Swedish subtitles for Machine intelligence makes human morals more important | ||
Annika Bidner edited Swedish subtitles for Machine intelligence makes human morals more important |