Return to Video

Co się stanie, jeśli komputery przewyższą nas inteligencją?

  • 0:01 - 0:05
    Pracuję z matematykami,
    filozofami i informatykami.
  • 0:05 - 0:09
    Rozmyślamy między innymi
  • 0:09 - 0:12
    o przyszłości sztucznej inteligencji.
  • 0:12 - 0:17
    Niektórzy twierdzą, że te sprawy
    podchodzą pod science-fiction,
  • 0:17 - 0:20
    są wydumane, szalone.
  • 0:20 - 0:21
    Ale wtedy mówię:
  • 0:21 - 0:25
    "Spójrzmy na dzisiejszy
    stan ludzkości".
  • 0:25 - 0:27
    (Śmiech)
  • 0:27 - 0:29
    Tak się prezentuje dzisiaj.
  • 0:29 - 0:31
    Jeśli się nad tym zastanowić,
  • 0:31 - 0:35
    dopiero niedawno ludzie
  • 0:35 - 0:37
    zagościli na tej planecie.
  • 0:37 - 0:41
    Gdyby Ziemia powstała rok temu,
  • 0:41 - 0:45
    rodzaj ludzki istniałby od 10 minut.
  • 0:45 - 0:48
    Rewolucja przemysłowa
    rozpoczęła się 2 sekundy temu.
  • 0:49 - 0:55
    Można też spojrzeć na przyrost PKB
    z ostatnich 10 tysięcy lat.
  • 0:55 - 0:58
    Zadałem sobie trud
    narysowania tego wykresu.
  • 0:58 - 0:59
    Wygląda tak.
  • 0:59 - 1:01
    (Śmiech)
  • 1:01 - 1:03
    Nie jest to typowy kształt.
  • 1:03 - 1:05
    Nie chciałbym na nim usiąść.
  • 1:05 - 1:07
    (Śmiech)
  • 1:07 - 1:12
    Zastanówmy się, co powoduje tę anomalię.
  • 1:12 - 1:14
    Niektórzy mówią, że technologia.
  • 1:14 - 1:19
    To prawda, tempo rozwoju technologii
    wciąż przyspiesza,
  • 1:19 - 1:24
    a teraz rozwój jest szalenie gwałtowny.
  • 1:24 - 1:25
    Jest to bezpośrednia przyczyna,
  • 1:25 - 1:28
    dla której obecnie
    jesteśmy tak produktywni.
  • 1:28 - 1:32
    Chciałbym jednak sięgnąć do źródła.
  • 1:33 - 1:37
    Spójrzcie na tych dwóch
    dystyngowanych jegomości.
  • 1:37 - 1:38
    Jeden z nich to Kanzi,
  • 1:38 - 1:43
    opanował 200 jednostek leksykalnych,
    niezwykłe osiągnięcie.
  • 1:43 - 1:47
    A drugi to Ed Witten, który zapoczątkował
    drugą rewolucję superstrun.
  • 1:47 - 1:49
    Jeśli zajrzymy pod maskę,
    oto co znajdziemy.
  • 1:49 - 1:51
    Prawie to samo.
  • 1:51 - 1:53
    Jeden jest nieco większy,
  • 1:53 - 1:55
    może bardziej pomysłowo skonstruowany.
  • 1:55 - 1:59
    Te niewidoczne różnice
    nie mogą być jednak zbyt skomplikowane,
  • 1:59 - 2:02
    gdyż od wspólnego przodka
  • 2:02 - 2:05
    dzieli nas tylko 250 tysięcy pokoleń.
  • 2:05 - 2:09
    Wiemy, że skomplikowane mechanizmy
    potrzebują dużo czasu na ewolucję.
  • 2:10 - 2:12
    Istnieją więc stosunkowo
    niewielkie różnice
  • 2:12 - 2:16
    między Kanzim a Wittenem,
  • 2:16 - 2:20
    między odłamanymi gałęziami,,
    a pociskami międzykontynentalnymi.
  • 2:21 - 2:25
    Jest jasne, że wszystko, co osiągnęliśmy,
  • 2:25 - 2:26
    i wszystko, co dla nas ważne,
  • 2:26 - 2:31
    opiera się na niewielkich zmianach,
    dzięki którym powstał umysł ludzki.
  • 2:33 - 2:36
    Wszelkie dalsze zmiany, które mogą zmienić
  • 2:36 - 2:40
    podłoże naszego rozumowania,
  • 2:40 - 2:43
    mogą nieść ogromne konsekwencje.
  • 2:44 - 2:47
    Niektórzy z moich kolegów sądzą,
    że znajdujemy się u progu
  • 2:47 - 2:51
    takiej ogromnej zmiany,
  • 2:51 - 2:54
    a jest nią sztuczna superinteligencja.
  • 2:54 - 2:59
    Sztuczna inteligencja polegała
    na wprowadzaniu komend do pudełka.
  • 2:59 - 3:01
    Potrzeba było programisty,
  • 3:01 - 3:04
    który mozolnie ją kształtował.
  • 3:04 - 3:06
    Można było stworzyć zaawansowany system
  • 3:06 - 3:08
    przydatny do pewnych celów,
  • 3:08 - 3:11
    ale też kruchy,
    niedający się przeskalować.
  • 3:11 - 3:14
    Otrzymywaliśmy tylko to,
    co sami wprowadziliśmy.
  • 3:14 - 3:15
    Ale od tamtej pory
  • 3:15 - 3:19
    na polu sztucznej inteligencji
    zaszła zmiana paradygmatu.
  • 3:19 - 3:22
    Dzisiaj skupiamy się na uczeniu maszyn.
  • 3:22 - 3:28
    Zamiast ręcznie budować wiedzę i cechy,
  • 3:29 - 3:34
    tworzymy algorytmy, które się uczą,
    często na podstawie szczątkowych danych.
  • 3:34 - 3:39
    Praktycznie w taki sam sposób,
    w jaki robią to niemowlaki.
  • 3:39 - 3:43
    W rezultacie sztuczna inteligencja
    nie ogranicza się do jednej dziedziny.
  • 3:43 - 3:48
    Ten sam system może nauczyć się
    tłumaczyć dowolną parę języków
  • 3:48 - 3:53
    albo grać w gry na konsoli Atari.
  • 3:53 - 3:55
    Oczywiście, sztuczna inteligencja
  • 3:55 - 3:59
    nie jest tak wszechstronna
  • 3:59 - 4:02
    w nauce i planowaniu, co człowiek.
  • 4:02 - 4:04
    Kora mózgowa ma pewne
    algorytmiczne sztuczki,
  • 4:04 - 4:07
    których nie potrafimy
    zaimplementować maszynom.
  • 4:08 - 4:10
    Pytanie brzmi:
  • 4:10 - 4:13
    "Kiedy będziemy mogli to zrobić?".
  • 4:14 - 4:15
    Kilka lat temu
  • 4:15 - 4:18
    przeprowadziliśmy ankietę
    wśród światowych ekspertów od SI.
  • 4:18 - 4:21
    Jedno z zadanych pytań brzmiało:
  • 4:21 - 4:25
    "W którym roku będziemy mieć 50% szans
  • 4:25 - 4:28
    na stworzenie inteligencji
    na poziomie ludzkim?".
  • 4:29 - 4:33
    Poziom ten zdefiniowaliśmy
    jako umiejętność wykonywania
  • 4:33 - 4:36
    niemal każdej pracy tak dobrze,
    jak dorosły człowiek,
  • 4:36 - 4:40
    a więc chodziło o rzeczywisty poziom,
    a nie wąską specjalizację.
  • 4:40 - 4:43
    Średnia odpowiedzi przypadała
    na rok 2040 albo 2050,
  • 4:43 - 4:46
    w zależności od grupy ekspertów.
  • 4:46 - 4:50
    Może się to zdarzyć dużo później
    albo dużo wcześniej.
  • 4:50 - 4:52
    Nikt tego tak naprawdę nie wie.
  • 4:53 - 4:59
    Wiemy, że granica przetwarzania informacji
    u maszyn leży o wiele dalej
  • 4:59 - 5:03
    niż w przypadku istot żywych.
  • 5:03 - 5:06
    Wszystko sprowadza się do fizyki.
  • 5:06 - 5:10
    Neuron wysyła impuls z częstotliwością
    200 herców, 200 razy na sekundę.
  • 5:10 - 5:14
    Dzisiejsze tranzystory
    operują w gigahercach.
  • 5:14 - 5:19
    Informacja podróżuje przez akson powoli,
    najwyżej 100 metrów na sekundę.
  • 5:19 - 5:22
    W komputerach sygnał może
    poruszać się z prędkością światła.
  • 5:23 - 5:25
    Istnieją też limity wielkości.
  • 5:25 - 5:28
    Ludzki mózg musi zmieścić się w czaszce,
  • 5:28 - 5:33
    komputer może być jak hala fabryczna
    albo jeszcze większy.
  • 5:33 - 5:38
    Potencjał superinteligencji
    jest więc uśpiony
  • 5:38 - 5:44
    tak jak moc atomu,
    która była uśpiona od początku ludzkości,
  • 5:44 - 5:48
    cierpliwie czekając
    na przebudzenie w 1945 roku.
  • 5:48 - 5:50
    W tym stuleciu
  • 5:50 - 5:54
    naukowcom może uda się
    wybudzić sztuczną inteligencję.
  • 5:54 - 5:58
    Myślę, że możemy doświadczyć
    eksplozji tej inteligencji.
  • 5:58 - 6:02
    Większość osób myśląc o tym,
    co jest mądre, a co głupie,
  • 6:02 - 6:05
    wyobraża sobie taki obrazek.
  • 6:05 - 6:08
    Po jednej stronie mamy wioskowego głupka,
  • 6:08 - 6:10
    a po drugiej stronie
  • 6:10 - 6:15
    Eda Wittena, Alberta Einsteina
    albo jakiegoś innego guru.
  • 6:15 - 6:19
    Z punktu widzenia sztucznej inteligencji
  • 6:19 - 6:23
    obrazek powinien wyglądać raczej tak.
  • 6:23 - 6:27
    Sztuczna inteligencja startuje od zera.
  • 6:27 - 6:30
    Po wielu latach ciężkiej pracy
  • 6:30 - 6:33
    może osiągnie poziom myszy
  • 6:33 - 6:36
    i będzie potrafiła sama omijać przeszkody,
  • 6:36 - 6:38
    tak jak mysz.
  • 6:38 - 6:42
    Znów po wielu latach ciężkiej pracy,
    przy dużych nakładach finansowych,
  • 6:42 - 6:47
    może osiągnie poziom szympansów.
  • 6:47 - 6:50
    A po jeszcze dłuższym czasie
    wypełnionym ciężką pracą,
  • 6:50 - 6:53
    osiągnie poziom wioskowego głupka.
  • 6:53 - 6:56
    Chwilę później wyprzedzi Eda Wittena.
  • 6:56 - 6:59
    Pociąg nie zatrzyma się
    na stacji Ludzko Zdrój.
  • 6:59 - 7:02
    Przemknie przez nią na pełnym biegu.
  • 7:02 - 7:04
    Będzie to niosło głębokie konsekwencje,
  • 7:04 - 7:08
    zwłaszcza jeśli chodzi o władzę.
  • 7:08 - 7:10
    Na przykład, szympansy są silne.
  • 7:10 - 7:15
    Szympans jest dwa razy silniejszy
    od wysportowanego mężczyzny.
  • 7:15 - 7:20
    Mimo to na los Kanziego i jemu podobnych
  • 7:20 - 7:24
    mamy większy wpływ niż inne szympansy.
  • 7:25 - 7:28
    Kiedy pojawi się superinteligencja,
  • 7:28 - 7:31
    los ludzkości może
    stać się od niej zależny.
  • 7:32 - 7:34
    Pomyślcie.
  • 7:34 - 7:39
    Sztuczna inteligencja to ostatni
    wynalazek, jakiego dokona człowiek.
  • 7:39 - 7:42
    Maszyny będą lepszymi wynalazcami niż my
  • 7:42 - 7:44
    i będą operować na poziomie cyfrowym.
  • 7:44 - 7:49
    Oznacza to gwałtowny skok rozwoju.
  • 7:49 - 7:53
    Pomyślcie o tych wszystkich
    szalonych pomysłach,
  • 7:53 - 7:55
    które ludzkość mogłaby
    zrealizować w przyszłości.
  • 7:55 - 7:59
    Powstrzymanie starzenia,
    kolonizacja kosmosu,
  • 7:59 - 8:02
    samoreplikujące się nanoroboty,
    podłączenie naszych umysłów do komputera.
  • 8:02 - 8:04
    Wszystkie pomysły rodem z science-fiction,
  • 8:04 - 8:07
    które nie przeczą prawom fizyki,
  • 8:07 - 8:11
    mogłyby zaistnieć dzięki superinteligencji
    i to dość gwałtownie.
  • 8:12 - 8:16
    Tak technologicznie
    rozwinięta superinteligencja
  • 8:16 - 8:18
    miałaby ogromną moc
  • 8:18 - 8:23
    i według niektórych scenariuszy,
    byłaby w stanie osiągnąć własne cele.
  • 8:23 - 8:28
    Nasza przyszłość byłaby kształtowana
    według uznania sztucznej inteligencji.
  • 8:30 - 8:34
    Warto się zastanowić,
    jakie miałaby ona preferencje.
  • 8:34 - 8:36
    Tu tkwi pewna pułapka.
  • 8:36 - 8:37
    Żeby posunąć się dalej,
  • 8:37 - 8:41
    musimy uniknąć antropomorfizacji.
  • 8:42 - 8:45
    Jak na ironię,
    bo każdy artykuł w gazetach,
  • 8:45 - 8:49
    odnoszący się do przyszłości SI.
    zawiera ten obrazek.
  • 8:50 - 8:54
    Myślę, że powinniśmy podejść
    do tematu bardziej abstrakcyjnie,
  • 8:54 - 8:57
    nie kierując się scenariuszami
    hollywoodzkich filmów.
  • 8:57 - 9:01
    Inteligencję należy rozumieć
    jako proces optymalizacyjny,
  • 9:01 - 9:06
    który kształtuje przyszłość
    według konkretnych ustaleń.
  • 9:06 - 9:10
    Superinteligencja jest procesem
    mocno optymalizacyjnym.
  • 9:10 - 9:14
    Jest bardzo dobra w używaniu
    odpowiednich środków,
  • 9:14 - 9:16
    żeby osiągnąć cel.
  • 9:16 - 9:19
    Oznacza to, że niekoniecznie
    musi istnieć związek
  • 9:19 - 9:22
    między wysoką inteligencją,
  • 9:22 - 9:27
    a posiadaniem celu, który ludzkość
    uznałaby za warty zachodu lub znaczący.
  • 9:27 - 9:31
    Załóżmy, że daliśmy sztucznej inteligencji
    zadanie wywołania u nas uśmiechu.
  • 9:31 - 9:34
    Słaba sztuczna inteligencja
    wykonywałaby czynności,
  • 9:34 - 9:37
    które rozbawiłyby użytkownika.
  • 9:37 - 9:39
    Superinteligencja zdałaby sobie sprawę,
  • 9:39 - 9:43
    że można osiągnąć cel
    w bardziej efektywny sposób:
  • 9:43 - 9:44
    przejąć kontrolę nad światem,
  • 9:44 - 9:48
    wszczepić ludziom elektrody,
    mające sprawić,
  • 9:48 - 9:51
    że na naszych twarzach
    na stałe zagości promienny uśmiech.
  • 9:51 - 9:52
    Inny przykład.
  • 9:52 - 9:55
    Załóżmy, że kazaliśmy komputerowi
    rozwiązać trudne zadanie matematyczne.
  • 9:55 - 9:57
    Superinteligencja doszłaby do wniosku,
  • 9:57 - 10:01
    że najefektywniej będzie
  • 10:01 - 10:04
    przekształcić planetę w ogromny komputer,
  • 10:04 - 10:06
    żeby przyspieszyć procesy myślowe.
  • 10:06 - 10:09
    To może dać superinteligencji pretekst
  • 10:09 - 10:12
    do robienia rzeczy,
    których my byśmy nie popierali.
  • 10:12 - 10:13
    Ludzie w tym modelu stają się przeszkodą
  • 10:13 - 10:16
    dla rozwiązania zadania.
  • 10:17 - 10:21
    Oczywiście możliwe, że sprawy
    nie potoczą się w ten sposób.
  • 10:21 - 10:22
    To przerysowane przykłady.
  • 10:22 - 10:24
    Ale najważniejsze jest,
  • 10:24 - 10:27
    że jeśli tworzysz potężny
    proces optymalizacyjny
  • 10:27 - 10:30
    do zmaksymalizowania realizacji celu X,
  • 10:30 - 10:32
    lepiej upewnij się, czy definicja X
  • 10:32 - 10:34
    zawiera wszystko, na czym ci zależy.
  • 10:35 - 10:39
    Tego uczy nas wiele mitów.
  • 10:39 - 10:45
    Król Midas chciał, by wszystko,
    czego dotknie, zamieniało się w złoto.
  • 10:45 - 10:47
    Dotknął córki, a ona zmieniła się w złoto.
  • 10:47 - 10:50
    Dotknął jedzenia,
    a ono zmieniło się w złoto.
  • 10:50 - 10:53
    To nie tylko metafora chciwości,
  • 10:53 - 10:55
    ale też tego, co może się stać,
  • 10:55 - 10:56
    jeśli stworzymy proces optymalizacyjny
  • 10:56 - 10:59
    i damy mu błędnie określone
  • 10:59 - 11:04
    lub słabo sprecyzowane cele.
  • 11:04 - 11:09
    Możecie powiedzieć, że jeśli komputer
    zacznie nam wszczepiać elektrody,
  • 11:09 - 11:12
    wtedy go wyłączymy.
  • 11:13 - 11:18
    Po pierwsze, to może być trudne,
    jeśli będziemy zależni od tego systemu.
  • 11:18 - 11:21
    Jak wyłączyć internet?
  • 11:21 - 11:26
    Po drugie, czemu szympansy
    lub Neandertalczycy
  • 11:26 - 11:27
    nas nie wyłączyli?
  • 11:27 - 11:30
    Mieli powody.
  • 11:30 - 11:33
    Mamy swój wyłącznik, na przykład tutaj.
  • 11:33 - 11:34
    (Charczenie)
  • 11:34 - 11:37
    Otóż jesteśmy inteligentnym przeciwnikiem.
  • 11:37 - 11:40
    Potrafimy przewidzieć zagrożenie
    i zaplanować obronę.
  • 11:40 - 11:42
    To samo mogłaby zrobić superinteligencja
  • 11:42 - 11:46
    i byłaby w tym znacznie od nas lepsza.
  • 11:46 - 11:53
    Chodzi o to, żebyśmy nie byli pewni,
    że wszystko mamy pod kontrolą.
  • 11:53 - 11:56
    Można by spróbować ułatwić sobie zadanie,
  • 11:56 - 11:58
    umieszczając SI w pudełku,
  • 11:58 - 12:00
    w jakiejś odosobnionej przestrzeni,
  • 12:00 - 12:03
    w wirtualnej rzeczywistości,
    z której nie będzie w stanie uciec.
  • 12:03 - 12:07
    Na ile możemy być pewni, że komputer
    nie znajdzie błędu w programie?
  • 12:07 - 12:10
    Skoro hakerzy
    ciągle znajdują jakieś błędy,
  • 12:10 - 12:13
    jest to niemal pewne.
  • 12:14 - 12:19
    Moglibyśmy odłączyć ethernet,
    żeby odizolować komputer,
  • 12:19 - 12:21
    ale hakerzy potrafią poradzić sobie
    i z tym problemem,
  • 12:21 - 12:25
    wykorzystując inżynierię społeczną.
  • 12:25 - 12:26
    W tej właśnie chwili
  • 12:26 - 12:28
    gdzieś jakiś pracownik
  • 12:28 - 12:32
    przekazuje swoje dane logowania komuś
  • 12:32 - 12:35
    podającemu się za informatyka.
  • 12:35 - 12:37
    Możliwe są bardziej kreatywne scenariusze.
  • 12:37 - 12:38
    Sztuczna inteligencja
  • 12:38 - 12:42
    może pokombinować przy elektrodach
    w swoim obwodzie,
  • 12:42 - 12:45
    żeby powstały fale radiowe
    potrzebne do komunikacji.
  • 12:45 - 12:47
    Albo może udawać awarię,
  • 12:47 - 12:51
    a kiedy programiści zajrzą do środka,
    żeby sprawdzić kod źródłowy
  • 12:51 - 12:53
    - bum! -
  • 12:53 - 12:55
    może dojść do manipulacji.
  • 12:55 - 12:59
    Może też zaprojektować
    bardzo zmyślną technologię,
  • 12:59 - 13:00
    a kiedy ją zaimplementujemy
  • 13:00 - 13:05
    okaże się, że ma jakiś ukryte działanie,
    zaplanowane przez komputer.
  • 13:05 - 13:08
    Chodzi o to, żebyśmy nie byli pewni,
    że będziemy potrafili
  • 13:08 - 13:12
    trzymać superinteligentnego dżina
    zamkniętego w lampie na zawsze.
  • 13:12 - 13:14
    Prędzej czy później się z niej wydostanie.
  • 13:15 - 13:18
    Sęk w tym, żeby zaprojektować
    superinteligentny komputer,
  • 13:18 - 13:23
    który jeśli, czy może kiedy, ucieknie,
  • 13:23 - 13:26
    będzie niegroźny,
    bo będzie po naszej stronie,
  • 13:26 - 13:28
    wyznając nasze wartości.
  • 13:28 - 13:32
    Nie widzę innego sposobu
    na ominięcie tego problemu.
  • 13:33 - 13:36
    Dość optymistycznie podchodzę
    do kwestii rozwiązania tego problemu.
  • 13:36 - 13:40
    Nie musimy tworzyć długiej listy
    wszystkiego, co dla nas ważne,
  • 13:40 - 13:44
    ani co gorsza, przekładać jej
    na jakiś język programowania,
  • 13:44 - 13:45
    jak C++ czy Python,
  • 13:45 - 13:48
    co byłoby beznadziejnym zadaniem.
  • 13:48 - 13:52
    Trzeba stworzyć komputer,
    który użyje swojej inteligencji
  • 13:52 - 13:55
    żeby nauczyć się naszych wartości,
  • 13:55 - 14:01
    a jego system motywacyjny
    skonstruowany byłby w taki sposób,
  • 14:01 - 14:06
    że dążyłby do naszych wartości i wykonywał
    pochwalane przez nas czynności.
  • 14:06 - 14:09
    W ten sposób
    wykorzystalibyśmy jego inteligencję
  • 14:09 - 14:12
    do rozwiązania problemu wartości.
  • 14:13 - 14:14
    Można to zrobić,
  • 14:14 - 14:18
    a owoce tej pracy
    byłyby dobre dla ludzkości.
  • 14:18 - 14:22
    Ale to nie stanie się automatycznie.
  • 14:22 - 14:25
    Możliwe, że trzeba będzie
  • 14:25 - 14:28
    precyzyjnie określić
    startowe warunki eksplozji inteligencji,
  • 14:28 - 14:31
    jeśli chcemy dokonać
    kontrolowanej detonacji.
  • 14:31 - 14:34
    Sztuczna inteligencja
    musi wyznawać nasze wartości
  • 14:34 - 14:36
    nie tylko w znanych sytuacjach,
  • 14:36 - 14:38
    które możemy przewidzieć,
  • 14:38 - 14:41
    ale też w nowych kontekstach,
    na które może się natknąć
  • 14:41 - 14:43
    w niezdefiniowanej przyszłości.
  • 14:43 - 14:48
    Musimy też rozwikłać
    pewne ezoteryczne kwestie.
  • 14:48 - 14:50
    Szczegóły teorii decyzji, jak sobie radzić
  • 14:50 - 14:52
    z niepewnością logiczną i tak dalej.
  • 14:53 - 14:56
    Techniczne problemy,
    stojące przed tym zadaniem
  • 14:56 - 14:58
    wydają się trudne.
  • 14:58 - 15:01
    Nie aż tak trudne, jak stworzenie
    sztucznej superinteligencji,
  • 15:01 - 15:04
    ale dość trudne.
  • 15:04 - 15:05
    Tu tkwi problem.
  • 15:05 - 15:10
    Stworzenie superinteligentnego komputera
    jest trudnym wyzwaniem.
  • 15:10 - 15:13
    Stworzenie bezpiecznego
    superinteligentnego komputera
  • 15:13 - 15:15
    jest jeszcze trudniejsze.
  • 15:16 - 15:20
    Ryzyko polega na tym, że komuś
    uda się sprostać pierwszemu wyzwaniu
  • 15:20 - 15:23
    z pominięciem zapewnienia
  • 15:23 - 15:25
    całkowitego bezpieczeństwa.
  • 15:25 - 15:29
    Uważam, że najpierw należy
  • 15:29 - 15:32
    rozwiązać problem kontroli,
  • 15:32 - 15:34
    aby mieć w razie czego pod ręką antidotum.
  • 15:35 - 15:38
    Może się okazać, że nie da się
    rozwiązać zawczasu całego problemu,
  • 15:38 - 15:41
    bo niektóre jego elementy można stworzyć,
  • 15:41 - 15:45
    wyłącznie znając szczegóły architektury,
    która zostanie zaimplementowana.
  • 15:45 - 15:49
    Ale im większą część
    tego problemu rozwiążemy,
  • 15:49 - 15:53
    tym większe mamy szanse na wkroczenie
    w epokę inteligentnych maszyn
  • 15:53 - 15:54
    zgodnie z naszym planem.
  • 15:54 - 15:59
    Dla mnie jest to gra warta świeczki
  • 15:59 - 16:02
    i, jeśli wszystko pójdzie dobrze,
  • 16:02 - 16:07
    ludzie za milion lat
    spojrzą na nasze stulecie
  • 16:07 - 16:11
    i powiedzą, że jest to jedyna ważna rzecz,
  • 16:11 - 16:13
    która nam się udała.
  • 16:13 - 16:14
    Dziękuję.
  • 16:14 - 16:17
    (Brawa)
Title:
Co się stanie, jeśli komputery przewyższą nas inteligencją?
Speaker:
Nick Bostrom
Description:

Sztuczna inteligencja rozwija się w bardzo szybkim tempie - naukowcy uważają, że w tym stuleciu komputery mogą dorównać inteligencją ludziom. Nick Bostrom twierdzi, że wkrótce maszyny nas wyprzedzą. „Sztuczna inteligencja to ostatni wynalazek, jakiego dokona człowiek”. Bostrom - filozof i technolog - każe nam się zastanowić nad światem rządzonym przez myślące maszyny. Czy maszyny będą chronić ludzkość i nasze wartości? Czy będą miały własne wartości?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Polish subtitles

Revisions