Kan vi utveckla artificiell intelligens utan att tappa kontrollen över den?
-
0:01 - 0:03Jag ska prata om en intuitionsbrist
-
0:03 - 0:05som många av oss lider av.
-
0:05 - 0:09Det är ett misslyckande att
upptäcka en viss typ av fara. -
0:09 - 0:11Jag ska beskriva ett scenario
-
0:11 - 0:14som jag tycker är både skrämmande
-
0:14 - 0:16och förmodligen kommer att ske,
-
0:17 - 0:18och det är en dålig kombination,
-
0:19 - 0:20som det visar sig.
-
0:20 - 0:23Istället för att bli rädda,
kommer många tycka -
0:23 - 0:25att det jag pratar om är ganska häftigt.
-
0:25 - 0:28Jag ska beskriva hur de framsteg vi gör
-
0:28 - 0:30inom artificiell intelligens
-
0:30 - 0:32till slut kan förgöra oss.
-
0:32 - 0:35Faktum är, jag tror det är svårt
att se att de inte gör det -
0:35 - 0:37eller får oss att förgöra oss själva.
-
0:37 - 0:39Och om du tänker det minsta likt mig,
-
0:39 - 0:42tycker du att det här är
spännande att tänka på. -
0:42 - 0:45Den inställningen är en del av problemet.
-
0:45 - 0:47OK? Den inställningen borde oroa dig.
-
0:48 - 0:51Om jag i det här föredraget
skulle övertyga dig om -
0:51 - 0:54att vi kan drabbas av en
global svältkatastrof, -
0:54 - 0:57på grund av klimatförändringar
eller någon annan katastrof, -
0:57 - 1:01och att dina barnbarn,
eller deras barnbarn, -
1:01 - 1:02sannolikt skulle leva så här,
-
1:03 - 1:04då skulle du inte tänka,
-
1:05 - 1:07"Intressant.
-
1:07 - 1:08Jag gillar föredraget."
-
1:09 - 1:11Svält är inte roligt.
-
1:12 - 1:15Död i science fiction,
å andra sidan, är roligt, -
1:15 - 1:19och en av de saker som för närvarande
oroar mig mest i utvecklingen av AI -
1:19 - 1:23är att vi tycks oförmögna att förespråka
ett passande emotionellt gensvar -
1:23 - 1:26inför de risker som ligger framför oss.
-
1:26 - 1:29Jag kan inte förespråka ett gensvar,
och jag håller det här talet. -
1:30 - 1:33Det är som att vi står framför två dörrar.
-
1:33 - 1:34Väljer vi dörr ett,
-
1:34 - 1:37slutar vi göra framsteg i utvecklandet
av intelligenta maskiner. -
1:37 - 1:41Av någon anledning blir vår
hård- och mjukvara inte bättre. -
1:41 - 1:44Fundera lite på varför
det skulle kunna hända. -
1:45 - 1:49Jag menar, givet värdet av
intelligens och automation, -
1:49 - 1:52kommer vi fortsätta utveckla
tekniken, om vi kan. -
1:53 - 1:55Vad skulle kunna stoppa oss?
-
1:56 - 1:58Ett fullskaligt kärnvapenkrig?
-
1:59 - 2:01En global pandemi?
-
2:02 - 2:04Ett asteroidnedslag?
-
2:06 - 2:08Justin Bieber blir USAs president?
-
2:08 - 2:11(Skratt)
-
2:13 - 2:17Poängen är att, något måste förgöra
civilisationen så som vi känner den. -
2:17 - 2:22Ni måste föreställa er
hur illa det måste vara -
2:22 - 2:25för att hindra oss att göra
framsteg inom tekniken -
2:25 - 2:26permanent,
-
2:26 - 2:28generation efter generation.
-
2:28 - 2:30Nästan per definition, är detta det värsta
-
2:30 - 2:32som någonsin inträffat genom historien.
-
2:33 - 2:34Så det enda alternativet,
-
2:34 - 2:36är det som finns bakom den andra dörren,
-
2:36 - 2:39att vi fortsätter att utveckla
våra intelligenta maskiner -
2:39 - 2:41år efter år efter år.
-
2:42 - 2:45Vid en viss punkt, kommer vi att bygga
maskiner som är smartare än vi, -
2:46 - 2:49och när vi väl har dessa smarta maskiner,
-
2:49 - 2:51kommer de att förbättra sig själva.
-
2:51 - 2:53Då riskerar vi
det matematikern IJ Good kallade, -
2:53 - 2:55en "intelligensexplosion",
-
2:55 - 2:57dvs att processen går oss ur händerna.
-
2:58 - 3:01Detta skojas ofta bort, som här,
-
3:01 - 3:04som en rädsla för att en
armé av ondsinta robotar -
3:04 - 3:05kommer att attackera oss.
-
3:05 - 3:08Men det är inte det troligaste scenariot.
-
3:08 - 3:13Våra maskiner kommer inte
att bli spontant illvilliga. -
3:13 - 3:16Bekymret är att vi kommer
att bygga maskiner -
3:16 - 3:18som är så mycket mer kompetenta än vi
-
3:18 - 3:22att den minsta lilla skillnad
mellan deras mål och våra -
3:22 - 3:23skulle kunna förgöra oss.
-
3:24 - 3:26Tänk bara på vår inställning till myror.
-
3:27 - 3:28Vi hatar inte dem.
-
3:28 - 3:30Vi skadar inte dem medvetet.
-
3:30 - 3:33Ibland anstränger vi oss
för att inte skada dem. -
3:33 - 3:35Vi kliver över dem på trottoaren.
-
3:35 - 3:37Men så fort deras närvaro
-
3:37 - 3:39kommer i allvarlig konflikt med våra mål,
-
3:39 - 3:42som till exempel vid husbyggnationer,
-
3:42 - 3:44förintar vi dem utan pardon.
-
3:44 - 3:47Bekymret är att vi en dag
kommer att bygga maskiner -
3:47 - 3:50som, oavsett om de är medvetna eller ej,
-
3:50 - 3:52skulle kunna behandla oss
med samma förakt. -
3:54 - 3:57Jag misstänker att det verkar
långsökt för många av er. -
3:57 - 4:04Jag slår vad om att en del av er tvivlar
på att superintelligent AI är möjlig, -
4:04 - 4:05än mindre nödvändig.
-
4:05 - 4:09Men då måste ni finna felen med
några av följande antaganden. -
4:09 - 4:11Det finns bara tre.
-
4:12 - 4:17Intelligens handlar om processandet
av information i fysiska system. -
4:17 - 4:20Det är egentligen mer
än bara ett antagande. -
4:20 - 4:23Vi använder redan maskininlärning
i många maskiner, -
4:23 - 4:25och många av dessa maskiner presterar
-
4:25 - 4:28redan på nivåer långt över
mänsklig intelligens. -
4:29 - 4:31Och vi vet att materia
-
4:31 - 4:34kan skapa det som
kallas "generell intelligens" -
4:34 - 4:38en förmåga att tänka flexibelt
över flera dimensioner, -
4:38 - 4:41eftersom våra hjärnor
har klarat det. Eller hur? -
4:41 - 4:45Jag menar, det är ju bara atomer här inne,
-
4:45 - 4:49och så länge vi fortsätter att
bygga system av atomer -
4:49 - 4:52som uppvisar mer och mer intelligens,
-
4:52 - 4:55kommer vi till slut,
om vi inte blir avbrutna, -
4:55 - 4:58ha byggt in generell intelligens
-
4:58 - 4:59i våra maskiner.
-
4:59 - 5:03Det är viktigt att inse att
utvecklingstakten inte spelar någon roll, -
5:03 - 5:06eftersom minsta framsteg
räcker för att nå slutstationen. -
5:06 - 5:10Vi behöver inte Moores lag. Utvecklingen
behöver inte vara exponentiell. -
5:10 - 5:12Vi behöver bara fortsätta framåt.
-
5:13 - 5:16Det andra antagandet är
att vi kommer fortsätta. -
5:17 - 5:20Vi fortsätter utvecklingen
av de intelligenta maskinerna. -
5:21 - 5:25Och givet värdet på intelligens -
-
5:25 - 5:29jag menar, intelligens är antingen
summan av allt vi sätter värde på -
5:29 - 5:32eller som vi behöver för att
skydda det vi värdesätter. -
5:32 - 5:34Det är vår värdefullaste resurs.
-
5:34 - 5:36Så vi vill göra det här.
-
5:36 - 5:39Vi har problem som vi desperat måste lösa.
-
5:39 - 5:42Vi vill bota sjukdomar som
Alzheimers och cancer. -
5:43 - 5:47Vi vill förstå de ekonomiska systemen.
Vi vill utveckla klimatforskningen. -
5:47 - 5:49Så vi kommer att göra det, om vi kan.
-
5:49 - 5:52Tåget har redan lämnat stationen,
och det finns ingen broms. -
5:54 - 5:59Slutligen, vi har inte
nått intelligensens topp, -
5:59 - 6:01vi är troligen inte ens i närheten.
-
6:02 - 6:04Det är den riktigt kritiska insikten.
-
6:04 - 6:06Det är det här som gör
vår situation så vansklig, -
6:06 - 6:10och det gör också våra
riskantaganden så opålitliga. -
6:11 - 6:14Fundera på den smartaste person
som någonsin levt. -
6:15 - 6:18En som finns på nästan allas lista
är John von Neumann. -
6:18 - 6:21Jag menar, de intryck som Neumann
gjorde på folk runt honom, -
6:21 - 6:25inkluderat de främsta matematikerna
och fysikerna under hans levnad, -
6:26 - 6:27är ganska väldokumenterade.
-
6:27 - 6:31Om bara hälften av berättelserna
om honom är halvsanna, -
6:31 - 6:33råder det ingen tvekan om
-
6:33 - 6:35att han är en av de smartaste någonsin.
-
6:35 - 6:38Så fundera på vidden av intelligens.
-
6:38 - 6:40Här har vi John von Neumann.
-
6:42 - 6:43Så har vi dig och mig.
-
6:44 - 6:45Så har vi kycklingar.
-
6:45 - 6:47(Skratt)
-
6:47 - 6:49Ursäkta, en kyckling.
-
6:49 - 6:50(Skratt)
-
6:50 - 6:54Det finns inga skäl att göra föredraget
mer deprimerande än det redan är. -
6:54 - 6:55(Skratt)
-
6:56 - 7:00Det verkar dock mycket troligt,
att spektrat av intelligens, -
7:00 - 7:03sträcker sig mycket längre
än vi kan föreställa oss idag, -
7:04 - 7:07och om vi bygger maskiner
som är intelligentare än vi, -
7:07 - 7:09kommer de troligtvis
utforska detta spektrum -
7:09 - 7:11på sätt som vi inte kan föreställa oss,
-
7:11 - 7:14och överträffa oss på
sätt som vi inte kan förstå. -
7:15 - 7:19Det är viktigt att se att det här är sant
genom hastigheten det sker med. -
7:19 - 7:24Ok? Föreställ er att vi
byggt en superintelligent AI -
7:24 - 7:28som inte är smartare än din
genomsnittliga forskargrupp -
7:28 - 7:30på Stanford eller MIT.
-
7:30 - 7:33Elektroniska kretsar är ungefär
en miljon gånger snabbare -
7:33 - 7:34än biokemiska,
-
7:35 - 7:38så maskinen skulle tänka ungefär
en miljon gånger snabbare -
7:38 - 7:39än hjärnorna som byggt den.
-
7:40 - 7:41Ni låter den köra i en vecka,
-
7:41 - 7:46och den kommer att processa
20 000 år av mänskligt tänkande, -
7:46 - 7:48vecka ut och vecka in.
-
7:50 - 7:53Hur kan vi ens förstå, än mindre begränsa
-
7:53 - 7:55en kraft som gör sådana framsteg?
-
7:57 - 7:59Det andra som är uppriktigt oroande,
-
7:59 - 8:04är, föreställ dig ett bästa scenario.
-
8:04 - 8:08Föreställ dig att vi designar
en superintelligent AI -
8:08 - 8:10utan säkerhetsproblem.
-
8:10 - 8:13Vi har den perfekta designen från början.
-
8:13 - 8:15Det är som att vi skulle få ett orakel
-
8:15 - 8:17som beter sig exakt som vi avsett.
-
8:17 - 8:21Den här maskinen skulle vara
den perfekta "jobbspararen". -
8:22 - 8:24Den kan designa maskinen
som kan bygga maskinen -
8:24 - 8:26som kan utföra allt fysiskt arbete,
-
8:26 - 8:27och drivs av solenergi,
-
8:27 - 8:30mer eller mindre till
kostnaden för råmaterialet. -
8:30 - 8:33Då pratar vi om slutet
av mänsklighetens slit. -
8:33 - 8:36Och även om slutet för mycket
av intellektuellt arbete. -
8:37 - 8:40Så vad ska apor som vi göra
under sådana omständigheter? -
8:40 - 8:44Ja, vi får tid över att kasta frisbee
och ge varandra massage. -
8:46 - 8:49Lägg till lite LSD och några
underliga klädesplagg, -
8:49 - 8:51och hela världen kan bli som Burning Man.
-
8:51 - 8:53(Skratt)
-
8:54 - 8:56Ok, det kan låta ganska trevligt,
-
8:57 - 9:00men ställ dig frågan vad som skulle ske
-
9:00 - 9:02under våra nuvarande
ekonomiska och politiska system? -
9:02 - 9:05Det verkar troligt att vi skulle bevittna
-
9:05 - 9:09enorma skillnader i välfärd
och tillgång till arbete -
9:09 - 9:11som vi aldrig tidigare upplevt.
-
9:11 - 9:13Saknas en vilja att
låta detta nya välstånd -
9:13 - 9:15tjäna hela mänskligheten,
-
9:16 - 9:19kommer några triljonärer att pryda
omslagen på våra affärstidningar -
9:19 - 9:22medan resten av världen kan få svälta.
-
9:22 - 9:25Vad skulle ryssarna eller kineserna göra
-
9:25 - 9:27om de hörde att ett
företag i Silicon Valley -
9:27 - 9:30höll på att sjösätta en
superintelligent AI? -
9:30 - 9:33Den maskinen skulle vara
kapabel att föra krig, -
9:33 - 9:35antingen på land eller i cyberrymden,
-
9:35 - 9:37med aldrig tidigare skådad kraft.
-
9:38 - 9:40Det är ett vinnaren-tar-allt scenario.
-
9:40 - 9:43Att ligga sex månader före i den tävlingen
-
9:43 - 9:46är att vara 500 000 år före,
-
9:46 - 9:47minst.
-
9:47 - 9:52Det ser ut som att blott rykten
kring denna typ av genombrott -
9:52 - 9:55kan leda till att vår art går bärsärk.
-
9:55 - 9:58En av de mest skrämmande sakerna,
-
9:58 - 10:00enligt min mening, i dag,
-
10:00 - 10:05är det som forskare inom AI säger
-
10:05 - 10:06när de vill lugna oss.
-
10:07 - 10:11Det vanligaste argumentet för att
vi inte ska oroa oss handlar om tid. -
10:11 - 10:13Det här ligger långt fram, vet du väl.
-
10:13 - 10:15Det här är säkert 50 eller 100 år bort.
-
10:16 - 10:17En forskare har sagt,
-
10:17 - 10:19"Att oroa sig för AI-säkerhet är
-
10:19 - 10:21som att oroa sig för
ett överbefolkat Mars." -
10:22 - 10:24Det är Silicon Valley-versionen av
-
10:24 - 10:26"oroa inte ditt söta lilla huvud."
-
10:26 - 10:27(Skratt)
-
10:28 - 10:29Ingen verkar uppmärksamma att,
-
10:29 - 10:32att referera till tidsaspekten
-
10:32 - 10:35är ett "Goddag yxskaft"-svar.
-
10:35 - 10:38Om intelligens bara handlar
om att processa information, -
10:38 - 10:41och vi fortsätter att
utveckla våra maskiner, -
10:41 - 10:44kommer vi till slut skapa
någon form av superintelligens. -
10:44 - 10:48Vi har ingen aning om
hur lång tid det kommer att ta -
10:48 - 10:50att skapa villkoren för
att göra det riskfritt. -
10:52 - 10:53Jag tar det en gång till.
-
10:54 - 10:57Vi vet inte hur lång tid det kommer att ta
-
10:57 - 11:00för att skapa de säkra villkoren.
-
11:01 - 11:05Du har kanske inte noterat det,
men 50 år är inte vad det brukade vara. -
11:05 - 11:07Det här är 50 år i månader.
-
11:07 - 11:09Så här länge har vi haft iPhone.
-
11:09 - 11:12Så här länge har "Simpsons" visats på TV.
-
11:13 - 11:1550 år är inte så lång tid
-
11:15 - 11:18att möta den största utmaningen
mänskligheten någonsin skådat. -
11:20 - 11:24Än en gång, vi verkar inte kunna uppbåda
ett passande emetionellt gensvar -
11:24 - 11:26för den framtid vi har all
anledning att tro kommer. -
11:26 - 11:30Datorforskaren Stuart Russell
drar en intressant parallell. -
11:30 - 11:35Han sade, föreställ er att vi fick ett
meddelande från en främmande civilisation, -
11:35 - 11:37som sade:
-
11:37 - 11:39"Människor på Jorden,
-
11:39 - 11:41vi kommer att landa
på er planet om 50 år. -
11:42 - 11:43Gör er redo."
-
11:43 - 11:48Och nu räknar vi bara ner månaderna
tills moderskeppet landar? -
11:48 - 11:51Vi borde förstå att det
brådskar mer än vad vi gör. -
11:53 - 11:55Vi hör att vi inte behöver oroa oss
-
11:55 - 11:58för maskinerna kommer
att dela våra värderingar -
11:58 - 12:00eftersom de kommer att
vara en förlängning av oss. -
12:00 - 12:02De kommer att ympas in i våra hjärnor,
-
12:02 - 12:04och vi kommer att vara
deras limbiska system. -
12:05 - 12:07Reflektera nu över
-
12:07 - 12:10att den tryggaste och
förståndigaste vägen framåt, -
12:10 - 12:11som förespråkas,
-
12:11 - 12:14är att operera in tekniken
direkt i våra hjärnor. -
12:15 - 12:18Det kanske är den tryggaste
och smartaste vägen att ta, -
12:18 - 12:21men vanligtvis måste
säkerhetsriskerna med en teknik -
12:21 - 12:25vara ordentligt utredda innan
man stoppar in den i hjärnan. -
12:25 - 12:27(Skratt)
-
12:27 - 12:32Det djupare problemet är att
utveckla en fristående superintelligent AI -
12:32 - 12:34förmodligen är enklare
-
12:34 - 12:36än att utveckla superintelligent AI
-
12:36 - 12:38och ha koll på neurovetenskapen
-
12:38 - 12:40som låter oss sömlöst
integrera våra sinnen med den. -
12:41 - 12:44Givet att företag och
stater som står för vetenskapen -
12:44 - 12:48sannolikt kommer att uppfatta sig
vara i kamp med alla andra, -
12:48 - 12:51givet att genom att vinna kapplöpningen
vinner man världen, -
12:51 - 12:53förutsatt att de inte
förstör den i nästa steg, -
12:53 - 12:56då verkar det troligt att
allt som är enklare att göra -
12:56 - 12:57kommer att göras först.
-
12:59 - 13:01Tyvärr har jag ingen lösning
på det här problemet, -
13:01 - 13:04mer än att fler av oss
måste fundera på det. -
13:04 - 13:06Jag tror vi behöver ett Manhattan-projekt
-
13:06 - 13:08på temat artificiell intelligens.
-
13:09 - 13:12Inte för att bygga den,
det tror jag oundvikligen vi gör, -
13:12 - 13:15men för att förstå hur vi ska
undvika en kapprustning -
13:15 - 13:18och för att utveckla den i linje
med våra egna intressen. -
13:18 - 13:20När man pratar om superintelligent AI
-
13:20 - 13:23som kan förändra sig själv,
-
13:23 - 13:27verkar det som att vi bara har
en chans att få det rätt från början, -
13:27 - 13:29och även då måste vi sätta oss in i
-
13:29 - 13:32och lösa de ekonomiska och
politiska konsekvenserna. -
13:34 - 13:36Men i den stund vi tillstår
-
13:36 - 13:40att informationsbearbetning
är källan till intelligens, -
13:41 - 13:46att något datorstyrt beräkningsprogram
är basen för intelligens, -
13:46 - 13:50och att vi kommer att förbättra
dessa system kontinuerligt, -
13:51 - 13:56och vi erkänner att
kognitionshorisonten vida överstiger -
13:56 - 13:57vad vi vet idag,
-
13:58 - 13:59då måste vi också erkänna
-
13:59 - 14:02att vi är i färd med att
skapa någon form av gud. -
14:03 - 14:05Nu borde vara ett bra tillfälle att
-
14:05 - 14:07se till att det är en gud vi vill ha.
-
14:08 - 14:10Tack så mycket.
-
14:10 - 14:13(Applåder)
- Title:
- Kan vi utveckla artificiell intelligens utan att tappa kontrollen över den?
- Speaker:
- Sam Harris
- Description:
-
Rädd för superintelligent AI? Det borde du vara, säger neuroforskaren och filosofen Sam Harris, och inte bara på ett teoretiskt plan. Vi kommer att bygga supermänskliga maskiner, säger Harris, men vi har ännu inte börjat brottas med de problem som följer med skapandet av någonting som kan komma att behandla oss på samma sätt som vi behandlar myror.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
Lisbeth Pekkari edited Swedish subtitles for Can we build AI without losing control over it? | ||
Lisbeth Pekkari approved Swedish subtitles for Can we build AI without losing control over it? | ||
Lisbeth Pekkari accepted Swedish subtitles for Can we build AI without losing control over it? | ||
Lisbeth Pekkari edited Swedish subtitles for Can we build AI without losing control over it? | ||
Lisbeth Pekkari edited Swedish subtitles for Can we build AI without losing control over it? | ||
Anette Smedberg edited Swedish subtitles for Can we build AI without losing control over it? | ||
Anette Smedberg edited Swedish subtitles for Can we build AI without losing control over it? | ||
Anette Smedberg edited Swedish subtitles for Can we build AI without losing control over it? |