Co się stanie, jeśli komputery przewyższą nas inteligencją?
-
0:01 - 0:05Pracuję z matematykami,
filozofami i informatykami. -
0:05 - 0:09Rozmyślamy między innymi
-
0:09 - 0:12o przyszłości sztucznej inteligencji.
-
0:12 - 0:17Niektórzy twierdzą, że te sprawy
podchodzą pod science-fiction, -
0:17 - 0:20są wydumane, szalone.
-
0:20 - 0:21Ale wtedy mówię:
-
0:21 - 0:25"Spójrzmy na dzisiejszy
stan ludzkości". -
0:25 - 0:27(Śmiech)
-
0:27 - 0:29Tak się prezentuje dzisiaj.
-
0:29 - 0:31Jeśli się nad tym zastanowić,
-
0:31 - 0:35dopiero niedawno ludzie
-
0:35 - 0:37zagościli na tej planecie.
-
0:37 - 0:41Gdyby Ziemia powstała rok temu,
-
0:41 - 0:45rodzaj ludzki istniałby od 10 minut.
-
0:45 - 0:48Rewolucja przemysłowa
rozpoczęła się 2 sekundy temu. -
0:49 - 0:55Można też spojrzeć na przyrost PKB
z ostatnich 10 tysięcy lat. -
0:55 - 0:58Zadałem sobie trud
narysowania tego wykresu. -
0:58 - 0:59Wygląda tak.
-
0:59 - 1:01(Śmiech)
-
1:01 - 1:03Nie jest to typowy kształt.
-
1:03 - 1:05Nie chciałbym na nim usiąść.
-
1:05 - 1:07(Śmiech)
-
1:07 - 1:12Zastanówmy się, co powoduje tę anomalię.
-
1:12 - 1:14Niektórzy mówią, że technologia.
-
1:14 - 1:19To prawda, tempo rozwoju technologii
wciąż przyspiesza, -
1:19 - 1:24a teraz rozwój jest szalenie gwałtowny.
-
1:24 - 1:25Jest to bezpośrednia przyczyna,
-
1:25 - 1:28dla której obecnie
jesteśmy tak produktywni. -
1:28 - 1:32Chciałbym jednak sięgnąć do źródła.
-
1:33 - 1:37Spójrzcie na tych dwóch
dystyngowanych jegomości. -
1:37 - 1:38Jeden z nich to Kanzi,
-
1:38 - 1:43opanował 200 jednostek leksykalnych,
niezwykłe osiągnięcie. -
1:43 - 1:47A drugi to Ed Witten, który zapoczątkował
drugą rewolucję superstrun. -
1:47 - 1:49Jeśli zajrzymy pod maskę,
oto co znajdziemy. -
1:49 - 1:51Prawie to samo.
-
1:51 - 1:53Jeden jest nieco większy,
-
1:53 - 1:55może bardziej pomysłowo skonstruowany.
-
1:55 - 1:59Te niewidoczne różnice
nie mogą być jednak zbyt skomplikowane, -
1:59 - 2:02gdyż od wspólnego przodka
-
2:02 - 2:05dzieli nas tylko 250 tysięcy pokoleń.
-
2:05 - 2:09Wiemy, że skomplikowane mechanizmy
potrzebują dużo czasu na ewolucję. -
2:10 - 2:12Istnieją więc stosunkowo
niewielkie różnice -
2:12 - 2:16między Kanzim a Wittenem,
-
2:16 - 2:20między odłamanymi gałęziami,,
a pociskami międzykontynentalnymi. -
2:21 - 2:25Jest jasne, że wszystko, co osiągnęliśmy,
-
2:25 - 2:26i wszystko, co dla nas ważne,
-
2:26 - 2:31opiera się na niewielkich zmianach,
dzięki którym powstał umysł ludzki. -
2:33 - 2:36Wszelkie dalsze zmiany, które mogą zmienić
-
2:36 - 2:40podłoże naszego rozumowania,
-
2:40 - 2:43mogą nieść ogromne konsekwencje.
-
2:44 - 2:47Niektórzy z moich kolegów sądzą,
że znajdujemy się u progu -
2:47 - 2:51takiej ogromnej zmiany,
-
2:51 - 2:54a jest nią sztuczna superinteligencja.
-
2:54 - 2:59Sztuczna inteligencja polegała
na wprowadzaniu komend do pudełka. -
2:59 - 3:01Potrzeba było programisty,
-
3:01 - 3:04który mozolnie ją kształtował.
-
3:04 - 3:06Można było stworzyć zaawansowany system
-
3:06 - 3:08przydatny do pewnych celów,
-
3:08 - 3:11ale też kruchy,
niedający się przeskalować. -
3:11 - 3:14Otrzymywaliśmy tylko to,
co sami wprowadziliśmy. -
3:14 - 3:15Ale od tamtej pory
-
3:15 - 3:19na polu sztucznej inteligencji
zaszła zmiana paradygmatu. -
3:19 - 3:22Dzisiaj skupiamy się na uczeniu maszyn.
-
3:22 - 3:28Zamiast ręcznie budować wiedzę i cechy,
-
3:29 - 3:34tworzymy algorytmy, które się uczą,
często na podstawie szczątkowych danych. -
3:34 - 3:39Praktycznie w taki sam sposób,
w jaki robią to niemowlaki. -
3:39 - 3:43W rezultacie sztuczna inteligencja
nie ogranicza się do jednej dziedziny. -
3:43 - 3:48Ten sam system może nauczyć się
tłumaczyć dowolną parę języków -
3:48 - 3:53albo grać w gry na konsoli Atari.
-
3:53 - 3:55Oczywiście, sztuczna inteligencja
-
3:55 - 3:59nie jest tak wszechstronna
-
3:59 - 4:02w nauce i planowaniu, co człowiek.
-
4:02 - 4:04Kora mózgowa ma pewne
algorytmiczne sztuczki, -
4:04 - 4:07których nie potrafimy
zaimplementować maszynom. -
4:08 - 4:10Pytanie brzmi:
-
4:10 - 4:13"Kiedy będziemy mogli to zrobić?".
-
4:14 - 4:15Kilka lat temu
-
4:15 - 4:18przeprowadziliśmy ankietę
wśród światowych ekspertów od SI. -
4:18 - 4:21Jedno z zadanych pytań brzmiało:
-
4:21 - 4:25"W którym roku będziemy mieć 50% szans
-
4:25 - 4:28na stworzenie inteligencji
na poziomie ludzkim?". -
4:29 - 4:33Poziom ten zdefiniowaliśmy
jako umiejętność wykonywania -
4:33 - 4:36niemal każdej pracy tak dobrze,
jak dorosły człowiek, -
4:36 - 4:40a więc chodziło o rzeczywisty poziom,
a nie wąską specjalizację. -
4:40 - 4:43Średnia odpowiedzi przypadała
na rok 2040 albo 2050, -
4:43 - 4:46w zależności od grupy ekspertów.
-
4:46 - 4:50Może się to zdarzyć dużo później
albo dużo wcześniej. -
4:50 - 4:52Nikt tego tak naprawdę nie wie.
-
4:53 - 4:59Wiemy, że granica przetwarzania informacji
u maszyn leży o wiele dalej -
4:59 - 5:03niż w przypadku istot żywych.
-
5:03 - 5:06Wszystko sprowadza się do fizyki.
-
5:06 - 5:10Neuron wysyła impuls z częstotliwością
200 herców, 200 razy na sekundę. -
5:10 - 5:14Dzisiejsze tranzystory
operują w gigahercach. -
5:14 - 5:19Informacja podróżuje przez akson powoli,
najwyżej 100 metrów na sekundę. -
5:19 - 5:22W komputerach sygnał może
poruszać się z prędkością światła. -
5:23 - 5:25Istnieją też limity wielkości.
-
5:25 - 5:28Ludzki mózg musi zmieścić się w czaszce,
-
5:28 - 5:33komputer może być jak hala fabryczna
albo jeszcze większy. -
5:33 - 5:38Potencjał superinteligencji
jest więc uśpiony -
5:38 - 5:44tak jak moc atomu,
która była uśpiona od początku ludzkości, -
5:44 - 5:48cierpliwie czekając
na przebudzenie w 1945 roku. -
5:48 - 5:50W tym stuleciu
-
5:50 - 5:54naukowcom może uda się
wybudzić sztuczną inteligencję. -
5:54 - 5:58Myślę, że możemy doświadczyć
eksplozji tej inteligencji. -
5:58 - 6:02Większość osób myśląc o tym,
co jest mądre, a co głupie, -
6:02 - 6:05wyobraża sobie taki obrazek.
-
6:05 - 6:08Po jednej stronie mamy wioskowego głupka,
-
6:08 - 6:10a po drugiej stronie
-
6:10 - 6:15Eda Wittena, Alberta Einsteina
albo jakiegoś innego guru. -
6:15 - 6:19Z punktu widzenia sztucznej inteligencji
-
6:19 - 6:23obrazek powinien wyglądać raczej tak.
-
6:23 - 6:27Sztuczna inteligencja startuje od zera.
-
6:27 - 6:30Po wielu latach ciężkiej pracy
-
6:30 - 6:33może osiągnie poziom myszy
-
6:33 - 6:36i będzie potrafiła sama omijać przeszkody,
-
6:36 - 6:38tak jak mysz.
-
6:38 - 6:42Znów po wielu latach ciężkiej pracy,
przy dużych nakładach finansowych, -
6:42 - 6:47może osiągnie poziom szympansów.
-
6:47 - 6:50A po jeszcze dłuższym czasie
wypełnionym ciężką pracą, -
6:50 - 6:53osiągnie poziom wioskowego głupka.
-
6:53 - 6:56Chwilę później wyprzedzi Eda Wittena.
-
6:56 - 6:59Pociąg nie zatrzyma się
na stacji Ludzko Zdrój. -
6:59 - 7:02Przemknie przez nią na pełnym biegu.
-
7:02 - 7:04Będzie to niosło głębokie konsekwencje,
-
7:04 - 7:08zwłaszcza jeśli chodzi o władzę.
-
7:08 - 7:10Na przykład, szympansy są silne.
-
7:10 - 7:15Szympans jest dwa razy silniejszy
od wysportowanego mężczyzny. -
7:15 - 7:20Mimo to na los Kanziego i jemu podobnych
-
7:20 - 7:24mamy większy wpływ niż inne szympansy.
-
7:25 - 7:28Kiedy pojawi się superinteligencja,
-
7:28 - 7:31los ludzkości może
stać się od niej zależny. -
7:32 - 7:34Pomyślcie.
-
7:34 - 7:39Sztuczna inteligencja to ostatni
wynalazek, jakiego dokona człowiek. -
7:39 - 7:42Maszyny będą lepszymi wynalazcami niż my
-
7:42 - 7:44i będą operować na poziomie cyfrowym.
-
7:44 - 7:49Oznacza to gwałtowny skok rozwoju.
-
7:49 - 7:53Pomyślcie o tych wszystkich
szalonych pomysłach, -
7:53 - 7:55które ludzkość mogłaby
zrealizować w przyszłości. -
7:55 - 7:59Powstrzymanie starzenia,
kolonizacja kosmosu, -
7:59 - 8:02samoreplikujące się nanoroboty,
podłączenie naszych umysłów do komputera. -
8:02 - 8:04Wszystkie pomysły rodem z science-fiction,
-
8:04 - 8:07które nie przeczą prawom fizyki,
-
8:07 - 8:11mogłyby zaistnieć dzięki superinteligencji
i to dość gwałtownie. -
8:12 - 8:16Tak technologicznie
rozwinięta superinteligencja -
8:16 - 8:18miałaby ogromną moc
-
8:18 - 8:23i według niektórych scenariuszy,
byłaby w stanie osiągnąć własne cele. -
8:23 - 8:28Nasza przyszłość byłaby kształtowana
według uznania sztucznej inteligencji. -
8:30 - 8:34Warto się zastanowić,
jakie miałaby ona preferencje. -
8:34 - 8:36Tu tkwi pewna pułapka.
-
8:36 - 8:37Żeby posunąć się dalej,
-
8:37 - 8:41musimy uniknąć antropomorfizacji.
-
8:42 - 8:45Jak na ironię,
bo każdy artykuł w gazetach, -
8:45 - 8:49odnoszący się do przyszłości SI.
zawiera ten obrazek. -
8:50 - 8:54Myślę, że powinniśmy podejść
do tematu bardziej abstrakcyjnie, -
8:54 - 8:57nie kierując się scenariuszami
hollywoodzkich filmów. -
8:57 - 9:01Inteligencję należy rozumieć
jako proces optymalizacyjny, -
9:01 - 9:06który kształtuje przyszłość
według konkretnych ustaleń. -
9:06 - 9:10Superinteligencja jest procesem
mocno optymalizacyjnym. -
9:10 - 9:14Jest bardzo dobra w używaniu
odpowiednich środków, -
9:14 - 9:16żeby osiągnąć cel.
-
9:16 - 9:19Oznacza to, że niekoniecznie
musi istnieć związek -
9:19 - 9:22między wysoką inteligencją,
-
9:22 - 9:27a posiadaniem celu, który ludzkość
uznałaby za warty zachodu lub znaczący. -
9:27 - 9:31Załóżmy, że daliśmy sztucznej inteligencji
zadanie wywołania u nas uśmiechu. -
9:31 - 9:34Słaba sztuczna inteligencja
wykonywałaby czynności, -
9:34 - 9:37które rozbawiłyby użytkownika.
-
9:37 - 9:39Superinteligencja zdałaby sobie sprawę,
-
9:39 - 9:43że można osiągnąć cel
w bardziej efektywny sposób: -
9:43 - 9:44przejąć kontrolę nad światem,
-
9:44 - 9:48wszczepić ludziom elektrody,
mające sprawić, -
9:48 - 9:51że na naszych twarzach
na stałe zagości promienny uśmiech. -
9:51 - 9:52Inny przykład.
-
9:52 - 9:55Załóżmy, że kazaliśmy komputerowi
rozwiązać trudne zadanie matematyczne. -
9:55 - 9:57Superinteligencja doszłaby do wniosku,
-
9:57 - 10:01że najefektywniej będzie
-
10:01 - 10:04przekształcić planetę w ogromny komputer,
-
10:04 - 10:06żeby przyspieszyć procesy myślowe.
-
10:06 - 10:09To może dać superinteligencji pretekst
-
10:09 - 10:12do robienia rzeczy,
których my byśmy nie popierali. -
10:12 - 10:13Ludzie w tym modelu stają się przeszkodą
-
10:13 - 10:16dla rozwiązania zadania.
-
10:17 - 10:21Oczywiście możliwe, że sprawy
nie potoczą się w ten sposób. -
10:21 - 10:22To przerysowane przykłady.
-
10:22 - 10:24Ale najważniejsze jest,
-
10:24 - 10:27że jeśli tworzysz potężny
proces optymalizacyjny -
10:27 - 10:30do zmaksymalizowania realizacji celu X,
-
10:30 - 10:32lepiej upewnij się, czy definicja X
-
10:32 - 10:34zawiera wszystko, na czym ci zależy.
-
10:35 - 10:39Tego uczy nas wiele mitów.
-
10:39 - 10:45Król Midas chciał, by wszystko,
czego dotknie, zamieniało się w złoto. -
10:45 - 10:47Dotknął córki, a ona zmieniła się w złoto.
-
10:47 - 10:50Dotknął jedzenia,
a ono zmieniło się w złoto. -
10:50 - 10:53To nie tylko metafora chciwości,
-
10:53 - 10:55ale też tego, co może się stać,
-
10:55 - 10:56jeśli stworzymy proces optymalizacyjny
-
10:56 - 10:59i damy mu błędnie określone
-
10:59 - 11:04lub słabo sprecyzowane cele.
-
11:04 - 11:09Możecie powiedzieć, że jeśli komputer
zacznie nam wszczepiać elektrody, -
11:09 - 11:12wtedy go wyłączymy.
-
11:13 - 11:18Po pierwsze, to może być trudne,
jeśli będziemy zależni od tego systemu. -
11:18 - 11:21Jak wyłączyć internet?
-
11:21 - 11:26Po drugie, czemu szympansy
lub Neandertalczycy -
11:26 - 11:27nas nie wyłączyli?
-
11:27 - 11:30Mieli powody.
-
11:30 - 11:33Mamy swój wyłącznik, na przykład tutaj.
-
11:33 - 11:34(Charczenie)
-
11:34 - 11:37Otóż jesteśmy inteligentnym przeciwnikiem.
-
11:37 - 11:40Potrafimy przewidzieć zagrożenie
i zaplanować obronę. -
11:40 - 11:42To samo mogłaby zrobić superinteligencja
-
11:42 - 11:46i byłaby w tym znacznie od nas lepsza.
-
11:46 - 11:53Chodzi o to, żebyśmy nie byli pewni,
że wszystko mamy pod kontrolą. -
11:53 - 11:56Można by spróbować ułatwić sobie zadanie,
-
11:56 - 11:58umieszczając SI w pudełku,
-
11:58 - 12:00w jakiejś odosobnionej przestrzeni,
-
12:00 - 12:03w wirtualnej rzeczywistości,
z której nie będzie w stanie uciec. -
12:03 - 12:07Na ile możemy być pewni, że komputer
nie znajdzie błędu w programie? -
12:07 - 12:10Skoro hakerzy
ciągle znajdują jakieś błędy, -
12:10 - 12:13jest to niemal pewne.
-
12:14 - 12:19Moglibyśmy odłączyć ethernet,
żeby odizolować komputer, -
12:19 - 12:21ale hakerzy potrafią poradzić sobie
i z tym problemem, -
12:21 - 12:25wykorzystując inżynierię społeczną.
-
12:25 - 12:26W tej właśnie chwili
-
12:26 - 12:28gdzieś jakiś pracownik
-
12:28 - 12:32przekazuje swoje dane logowania komuś
-
12:32 - 12:35podającemu się za informatyka.
-
12:35 - 12:37Możliwe są bardziej kreatywne scenariusze.
-
12:37 - 12:38Sztuczna inteligencja
-
12:38 - 12:42może pokombinować przy elektrodach
w swoim obwodzie, -
12:42 - 12:45żeby powstały fale radiowe
potrzebne do komunikacji. -
12:45 - 12:47Albo może udawać awarię,
-
12:47 - 12:51a kiedy programiści zajrzą do środka,
żeby sprawdzić kod źródłowy -
12:51 - 12:53- bum! -
-
12:53 - 12:55może dojść do manipulacji.
-
12:55 - 12:59Może też zaprojektować
bardzo zmyślną technologię, -
12:59 - 13:00a kiedy ją zaimplementujemy
-
13:00 - 13:05okaże się, że ma jakiś ukryte działanie,
zaplanowane przez komputer. -
13:05 - 13:08Chodzi o to, żebyśmy nie byli pewni,
że będziemy potrafili -
13:08 - 13:12trzymać superinteligentnego dżina
zamkniętego w lampie na zawsze. -
13:12 - 13:14Prędzej czy później się z niej wydostanie.
-
13:15 - 13:18Sęk w tym, żeby zaprojektować
superinteligentny komputer, -
13:18 - 13:23który jeśli, czy może kiedy, ucieknie,
-
13:23 - 13:26będzie niegroźny,
bo będzie po naszej stronie, -
13:26 - 13:28wyznając nasze wartości.
-
13:28 - 13:32Nie widzę innego sposobu
na ominięcie tego problemu. -
13:33 - 13:36Dość optymistycznie podchodzę
do kwestii rozwiązania tego problemu. -
13:36 - 13:40Nie musimy tworzyć długiej listy
wszystkiego, co dla nas ważne, -
13:40 - 13:44ani co gorsza, przekładać jej
na jakiś język programowania, -
13:44 - 13:45jak C++ czy Python,
-
13:45 - 13:48co byłoby beznadziejnym zadaniem.
-
13:48 - 13:52Trzeba stworzyć komputer,
który użyje swojej inteligencji -
13:52 - 13:55żeby nauczyć się naszych wartości,
-
13:55 - 14:01a jego system motywacyjny
skonstruowany byłby w taki sposób, -
14:01 - 14:06że dążyłby do naszych wartości i wykonywał
pochwalane przez nas czynności. -
14:06 - 14:09W ten sposób
wykorzystalibyśmy jego inteligencję -
14:09 - 14:12do rozwiązania problemu wartości.
-
14:13 - 14:14Można to zrobić,
-
14:14 - 14:18a owoce tej pracy
byłyby dobre dla ludzkości. -
14:18 - 14:22Ale to nie stanie się automatycznie.
-
14:22 - 14:25Możliwe, że trzeba będzie
-
14:25 - 14:28precyzyjnie określić
startowe warunki eksplozji inteligencji, -
14:28 - 14:31jeśli chcemy dokonać
kontrolowanej detonacji. -
14:31 - 14:34Sztuczna inteligencja
musi wyznawać nasze wartości -
14:34 - 14:36nie tylko w znanych sytuacjach,
-
14:36 - 14:38które możemy przewidzieć,
-
14:38 - 14:41ale też w nowych kontekstach,
na które może się natknąć -
14:41 - 14:43w niezdefiniowanej przyszłości.
-
14:43 - 14:48Musimy też rozwikłać
pewne ezoteryczne kwestie. -
14:48 - 14:50Szczegóły teorii decyzji, jak sobie radzić
-
14:50 - 14:52z niepewnością logiczną i tak dalej.
-
14:53 - 14:56Techniczne problemy,
stojące przed tym zadaniem -
14:56 - 14:58wydają się trudne.
-
14:58 - 15:01Nie aż tak trudne, jak stworzenie
sztucznej superinteligencji, -
15:01 - 15:04ale dość trudne.
-
15:04 - 15:05Tu tkwi problem.
-
15:05 - 15:10Stworzenie superinteligentnego komputera
jest trudnym wyzwaniem. -
15:10 - 15:13Stworzenie bezpiecznego
superinteligentnego komputera -
15:13 - 15:15jest jeszcze trudniejsze.
-
15:16 - 15:20Ryzyko polega na tym, że komuś
uda się sprostać pierwszemu wyzwaniu -
15:20 - 15:23z pominięciem zapewnienia
-
15:23 - 15:25całkowitego bezpieczeństwa.
-
15:25 - 15:29Uważam, że najpierw należy
-
15:29 - 15:32rozwiązać problem kontroli,
-
15:32 - 15:34aby mieć w razie czego pod ręką antidotum.
-
15:35 - 15:38Może się okazać, że nie da się
rozwiązać zawczasu całego problemu, -
15:38 - 15:41bo niektóre jego elementy można stworzyć,
-
15:41 - 15:45wyłącznie znając szczegóły architektury,
która zostanie zaimplementowana. -
15:45 - 15:49Ale im większą część
tego problemu rozwiążemy, -
15:49 - 15:53tym większe mamy szanse na wkroczenie
w epokę inteligentnych maszyn -
15:53 - 15:54zgodnie z naszym planem.
-
15:54 - 15:59Dla mnie jest to gra warta świeczki
-
15:59 - 16:02i, jeśli wszystko pójdzie dobrze,
-
16:02 - 16:07ludzie za milion lat
spojrzą na nasze stulecie -
16:07 - 16:11i powiedzą, że jest to jedyna ważna rzecz,
-
16:11 - 16:13która nam się udała.
-
16:13 - 16:14Dziękuję.
-
16:14 - 16:17(Brawa)
- Title:
- Co się stanie, jeśli komputery przewyższą nas inteligencją?
- Speaker:
- Nick Bostrom
- Description:
-
Sztuczna inteligencja rozwija się w bardzo szybkim tempie - naukowcy uważają, że w tym stuleciu komputery mogą dorównać inteligencją ludziom. Nick Bostrom twierdzi, że wkrótce maszyny nas wyprzedzą. „Sztuczna inteligencja to ostatni wynalazek, jakiego dokona człowiek”. Bostrom - filozof i technolog - każe nam się zastanowić nad światem rządzonym przez myślące maszyny. Czy maszyny będą chronić ludzkość i nasze wartości? Czy będą miały własne wartości?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Rysia Wand approved Polish subtitles for What happens when our computers get smarter than we are? | ||
Rysia Wand edited Polish subtitles for What happens when our computers get smarter than we are? | ||
Małgorzata Ciborska accepted Polish subtitles for What happens when our computers get smarter than we are? | ||
Małgorzata Ciborska edited Polish subtitles for What happens when our computers get smarter than we are? | ||
Rysia Wand rejected Polish subtitles for What happens when our computers get smarter than we are? | ||
Rysia Wand edited Polish subtitles for What happens when our computers get smarter than we are? | ||
Krzysztof Rosada commented on Polish subtitles for What happens when our computers get smarter than we are? | ||
Małgorzata Ciborska accepted Polish subtitles for What happens when our computers get smarter than we are? |
Krzysztof Rosada
i would like to help with polish subs! :)