Return to Video

Jak uczymy komputery rozumienia obrazów

  • 0:02 - 0:05
    Pokażę wam coś.
  • 0:05 - 0:10
    (Wideo) Dziewczynka: To jest kot
    siedzący na łóżku.
  • 0:10 - 0:14
    Chłopiec głaszcze słonia.
  • 0:14 - 0:19
    To są ludzie idący do samolotu.
  • 0:19 - 0:21
    Samolot jest duży.
  • 0:21 - 0:24
    Fei-Fei Li: Tak trzyletnie dziecko
  • 0:24 - 0:27
    opisuje, co widzi na zdjęciach.
  • 0:27 - 0:30
    Wielu rzeczy musi się jeszcze nauczyć,
  • 0:30 - 0:35
    ale w jednej dziedzinie
    jest już ekspertem:
  • 0:35 - 0:38
    rozumie, co widzi.
  • 0:38 - 0:42
    Technicznie nasze społeczeństwo jest
    zaawansowane bardziej niż kiedykolwiek.
  • 0:42 - 0:46
    Wysyłamy ludzi na Księżyc,
    tworzymy telefony, które rozmawiają z nami
  • 0:46 - 0:51
    i potrafimy sprawić, żeby stacja radiowa,
    grała tylko naszą ulubioną muzykę.
  • 0:51 - 0:55
    A jednak nawet najbardziej
    zaawansowane komputery
  • 0:55 - 0:58
    ciągle nie mogą sobie poradzić
    z tym zadaniem.
  • 0:58 - 1:01
    Dzisiaj chciałabym opowiedzieć
  • 1:01 - 1:05
    o ostatnich osiągnięciach w dziedzinie
    widzenia komputerowego,
  • 1:05 - 1:10
    jednej z najbardziej pionierskich
    i potencjalnie rewolucyjnych
  • 1:10 - 1:12
    technologii w informatyce.
  • 1:12 - 1:17
    Istnieje już prototyp samochodu,
    który jeździ sam,
  • 1:17 - 1:20
    ale bez umiejętności rozpoznawania obrazu
  • 1:20 - 1:22
    nie umie odróżnić
  • 1:22 - 1:25
    zmiętej papierowej torby,
    po której można przejechać,
  • 1:25 - 1:29
    od podobnej wielkości kamienia,
    który trzeba ominąć.
  • 1:29 - 1:33
    Istnieją aparaty fotograficzne
    o bardzo dużej rozdzielczości,
  • 1:33 - 1:36
    ale nadal nie wiadomo,
    jak przywrócić wzrok niewidomym.
  • 1:36 - 1:40
    Drony mogą latać na dużych przestrzeniach,
  • 1:40 - 1:42
    ale nadal nie istnieje technologia,
  • 1:42 - 1:45
    która pomogłaby śledzić zmiany
    w lasach deszczowych.
  • 1:45 - 1:48
    Kamery przemysłowe są wszędzie,
  • 1:48 - 1:53
    ale nie potrafią nas ostrzec,
    jeśli dziecko topi się w basenie.
  • 1:54 - 2:00
    Zdjęcia i filmy video stały się
    integralną częścią naszego życia.
  • 2:00 - 2:04
    Ilość materiału, który powstaje,
    przekracza możliwości odbiorcze
  • 2:04 - 2:07
    pojedynczego człowieka,
    a nawet grupy ludzi.
  • 2:07 - 2:11
    Podczas TED dokładamy
    do tego swoją cegiełkę.
  • 2:11 - 2:16
    Najbardziej zaawansowane oprogramowanie
    nadal nie umie sobie poradzić
  • 2:16 - 2:20
    ze zrozumieniem i zarządzaniem
    tak ogromną ilością danych.
  • 2:20 - 2:25
    Innymi słowy jako społeczeństwo
  • 2:25 - 2:27
    jesteśmy niewidomi,
  • 2:27 - 2:30
    bo nasze najmądrzejsze maszyny
    wciąż nie widzą.
  • 2:32 - 2:34
    "Co w tym trudnego?" moglibyście zapytać.
  • 2:34 - 2:37
    Aparaty potrafią zrobić zdjęcie,
  • 2:37 - 2:41
    przekształcając światło
    w dwuwymiarowy szereg liczb,
  • 2:41 - 2:43
    czyli w piksele.
  • 2:43 - 2:45
    Ale są to tylko liczby.
  • 2:45 - 2:48
    Nie niosą ze sobą znaczenia.
  • 2:48 - 2:52
    Słyszeć, to nie to samo co słuchać,
  • 2:52 - 2:57
    a robić zdjęcia,
    to nie to samo co widzieć.
  • 2:57 - 3:00
    Mówiąc o widzeniu,
    mam na myśli rozumienie.
  • 3:01 - 3:06
    Zrealizowanie tego zadania
    zajęło Matce Naturze
  • 3:06 - 3:09
    540 milionów lat ciężkiej pracy,
  • 3:09 - 3:11
    a większość tego wysiłku włożyła
  • 3:11 - 3:17
    w rozwój części mózgu odpowiedzialnej
    za przetwarzanie wizualne,
  • 3:17 - 3:19
    a nie w rozwój oczu.
  • 3:19 - 3:22
    Widzenie rozpoczyna się w oczach,
  • 3:22 - 3:26
    ale tak naprawdę odbywa się w mózgu.
  • 3:26 - 3:31
    Od 15 lat, zaczynając
    od doktoratu w Caltech,
  • 3:31 - 3:34
    przez prowadzenie Stanford Vision Lab,
  • 3:34 - 3:39
    pracowałam z moimi mentorami,
    współpracownikami i studentami
  • 3:39 - 3:42
    nad nauczeniem komputerów widzenia.
  • 3:43 - 3:46
    Pole naszych badań to widzenie
    komputerowe i systemy uczące się.
  • 3:46 - 3:50
    Jest to część sztucznej inteligencji.
  • 3:51 - 3:56
    Chcemy, żeby maszyny widziały tak, jak my,
  • 3:56 - 4:02
    potrafiły nazwać rzeczy, rozpoznać ludzi,
    wskazać ich położenie w przestrzeni,
  • 4:02 - 4:08
    żeby rozumiały relacje, emocje,
    działania i intencje.
  • 4:08 - 4:14
    Potrafimy opowiedzieć historię
    o ludziach, miejscach czy rzeczach
  • 4:14 - 4:16
    w momencie, kiedy na nie spojrzymy.
  • 4:17 - 4:23
    Żeby osiągnąć ten cel, trzeba nauczyć
    komputer widzenia rzeczy,
  • 4:23 - 4:26
    klocków, z których składa się świat.
  • 4:26 - 4:30
    Wyobraźcie sobie ten proces uczenia
  • 4:30 - 4:33
    jako pokazywanie komputerom
  • 4:33 - 4:37
    zdjęć konkretnych obiektów,
    na przykład kotów,
  • 4:37 - 4:41
    i tworzenie modelu
    na podstawie tych obrazów.
  • 4:41 - 4:43
    Czy to takie trudne?
  • 4:43 - 4:47
    W końcu kot to tylko zbiór
    kształtów i kolorów.
  • 4:47 - 4:52
    Tak właśnie traktowaliśmy obrazy
    na początku modelowania obiektowego.
  • 4:52 - 4:55
    Używając języka matematyki,
    mówiliśmy algorytmowi komputerowemu,
  • 4:55 - 4:59
    że kot ma okrągłą głowę, puchate ciało,
  • 4:59 - 5:01
    szpiczaste uszy i długi ogon,
  • 5:01 - 5:02
    i to brzmiało całkiem dobrze.
  • 5:03 - 5:05
    Ale co zrobić z takim kotem?
  • 5:05 - 5:06
    (Śmiech)
  • 5:06 - 5:08
    On jest cały poskręcany.
  • 5:08 - 5:12
    Teraz trzeba by dodać nowy kształt
    i punkt widzenia do modelu obiektu.
  • 5:12 - 5:14
    A jeśli koty będą schowane?
  • 5:15 - 5:17
    Co zrobić z takimi kotami?
  • 5:19 - 5:22
    Teraz rozumiecie.
  • 5:22 - 5:25
    Nawet coś tak banalnego,
    jak zwierzę domowe
  • 5:25 - 5:29
    może dostarczyć nieskończenie wielu
    wersji modelowi obiektu,
  • 5:29 - 5:32
    a to nadal tylko jeden obiekt.
  • 5:33 - 5:35
    Osiem lat temu
  • 5:35 - 5:40
    proste spostrzeżenie zmieniło
    mój sposób myślenia.
  • 5:41 - 5:44
    Nikt nie mówi dziecku, jak ma widzieć,
  • 5:44 - 5:46
    szczególnie we wczesnym dzieciństwie.
  • 5:46 - 5:51
    Dzieci uczą się tego przez
    doświadczanie świata.
  • 5:51 - 5:54
    Jeśli potraktować dziecięce oczy
  • 5:54 - 5:57
    jako parę biologicznych aparatów,
  • 5:57 - 6:01
    to robią one zdjęcie co 200 milisekund,
  • 6:01 - 6:04
    co jest średnim czasem ruchu oka.
  • 6:04 - 6:08
    Zanim skończy 3 lata,
    dziecko może zobaczyć
  • 6:08 - 6:11
    setki milionów obrazów realnego świata.
  • 6:11 - 6:14
    To bardzo dużo przykładów.
  • 6:14 - 6:20
    Zamiast skupiać się wyłącznie
    na ulepszaniu algorytmów,
  • 6:20 - 6:26
    wolałam podać im dane treningowe
    podobne do tych,
  • 6:26 - 6:29
    które otrzymuje małe dziecko
    poznające świat,
  • 6:29 - 6:33
    zarówno pod względem ilościowym,
    jak i jakościowym.
  • 6:33 - 6:35
    Kiedy się na to zdecydowaliśmy,
  • 6:35 - 6:38
    wiedzieliśmy, że musimy zebrać
  • 6:38 - 6:42
    dużo więcej zdjęć, niż mieliśmy dotąd,
  • 6:42 - 6:45
    może nawet tysiące razy więcej.
  • 6:45 - 6:49
    W związku z tym razem z profesorem Kai Li
    z uniwersytetu Princeton
  • 6:49 - 6:54
    w 2007 r. uruchomiliśmy projekt ImageNet.
  • 6:54 - 6:57
    Na szczęście nie musieliśmy
    montować aparatu na głowie
  • 6:57 - 6:59
    i czekać wiele lat.
  • 6:59 - 7:01
    Skorzystaliśmy z Internetu,
  • 7:01 - 7:05
    największej skarbnicy zdjęć,
    jaką człowiek kiedykolwiek stworzył.
  • 7:05 - 7:08
    Pobraliśmy blisko miliard zdjęć
  • 7:08 - 7:14
    i użyliśmy crowdsourcingowej platformy
    Amazon Mechanical Turk,
  • 7:14 - 7:16
    żeby je opisać.
  • 7:16 - 7:21
    W szczytowym okresie ImageNet zatrudniał
    najwięcej pracowników
  • 7:21 - 7:24
    na Amazon Mechanical Turk:
  • 7:24 - 7:28
    razem prawie 50 000 osób
  • 7:28 - 7:32
    ze 167 krajów
  • 7:32 - 7:36
    pomagało nam posegregować i opisać
  • 7:36 - 7:40
    prawie miliard zdjęć.
  • 7:41 - 7:43
    Tak wiele wysiłku kosztowało
  • 7:43 - 7:47
    uchwycenie zaledwie ułamka zbioru obrazów,
  • 7:47 - 7:51
    które dziecięcy mózg przyswaja
    we wczesnych latach rozwoju.
  • 7:52 - 7:56
    Pomysł użycia dużej ilości danych
  • 7:56 - 8:01
    do uczenia algorytmu komputerowego,
    może wydawać się teraz oczywisty,
  • 8:01 - 8:05
    ale w 2007 roku taki nie był.
  • 8:05 - 8:09
    Przez dłuższy czas
    byliśmy w tej podróży sami.
  • 8:09 - 8:14
    Kilku kolegów radziło mi nawet,
    żebym zrobiła coś bardziej użytecznego
  • 8:14 - 8:18
    i ciągle zmagaliśmy się
    z brakiem funduszy.
  • 8:18 - 8:20
    Zdarzyło mi się nawet żartować
    z moimi studentami,
  • 8:20 - 8:24
    że otworzę znowu pralnię,
    żeby sfinansować ImageNet.
  • 8:24 - 8:29
    Jakby nie było, tak właśnie
    sfinansowałam swoje studia.
  • 8:29 - 8:31
    Kontynuowaliśmy.
  • 8:31 - 8:35
    W 2009 roku ImageNet miał już bazę
  • 8:35 - 8:39
    15 milionów zdjęć
  • 8:39 - 8:44
    skategoryzowanych w 22 000 klas
    obiektów i rzeczy
  • 8:44 - 8:47
    oznaczonych angielskimi słowami.
  • 8:47 - 8:50
    Zarówno pod względem ilości, jak i jakości
  • 8:50 - 8:53
    ta baza była unikalna.
  • 8:53 - 8:56
    Na przykład
  • 8:56 - 8:59
    mieliśmy ponad 62 000 zdjęć kotów
  • 8:59 - 9:03
    wszystkich rodzajów, w różnych pozach
  • 9:03 - 9:08
    kotów domowych i dzikich,
    z najróżniejszych gatunków.
  • 9:08 - 9:12
    Byliśmy tak podekscytowani
    stworzeniem ImageNet,
  • 9:12 - 9:16
    że chcieliśmy, aby cały naukowy świat
    mógł z tego projektu korzystać,
  • 9:16 - 9:20
    więc, podobnie jak TED,
    udostępniliśmy wszystkie dane
  • 9:20 - 9:23
    za darmo.
  • 9:25 - 9:29
    (Brawa)
  • 9:29 - 9:34
    Mając dane do zasilenia
    komputerowego mózgu,
  • 9:34 - 9:38
    byliśmy gotowi wrócić do algorytmów.
  • 9:38 - 9:43
    Jak się okazało, bogactwo informacji
    dostarczonych przez ImageNet
  • 9:43 - 9:48
    doskonale odpowiadało konkretnej klasie
    algorytmów systemów uczących się,
  • 9:48 - 9:50
    a konkretnie sieciom neuronowym
  • 9:50 - 9:55
    zapoczątkowanym przez Kunihiko Fukushimę,
    Geoffa Hintona oraz Yanna LeCuna
  • 9:55 - 9:59
    w latach 70. i 80.
  • 9:59 - 10:05
    Podobnie jak mózg składa się z miliardów
    połączonych ze sobą komórek nerwowych,
  • 10:05 - 10:08
    podstawową jednostką operacyjną
    w sieci neuronowej
  • 10:08 - 10:11
    jest węzeł przypominający taki neuron.
  • 10:11 - 10:13
    Pobiera on dane wejściowe z innych węzłów
  • 10:13 - 10:16
    i przekazuje innym dane wyjściowe.
  • 10:16 - 10:21
    Co więcej te miliony węzłów
  • 10:21 - 10:24
    są zorganizowane w hierarchiczne warstwy,
  • 10:24 - 10:27
    podobnie jak mózg.
  • 10:27 - 10:31
    W sieci neuronowej, której użyliśmy
  • 10:31 - 10:35
    były 24 miliony węzłów,
  • 10:35 - 10:38
    140 milionów parametrów,
  • 10:38 - 10:41
    i 15 miliardów połączeń.
  • 10:41 - 10:43
    To jest olbrzymi model.
  • 10:43 - 10:47
    Zasilona wielką ilością danych z ImageNet,
  • 10:47 - 10:52
    działająca dzięki nowoczesnym
    procesorom CPU i GPU
  • 10:52 - 10:55
    sieć neuronowa rozwinęła się w sposób,
  • 10:55 - 10:58
    którego nikt się nie spodziewał.
  • 10:58 - 11:01
    Stała się najlepszą architekturą
  • 11:01 - 11:06
    do osiągnięcia fascynujących rezultatów
    w dziedzinie rozpoznawania obrazów.
  • 11:06 - 11:09
    Ten komputer mówi,
  • 11:09 - 11:11
    że na obrazku jest kot,
  • 11:11 - 11:13
    i gdzie ten kot się znajduje.
  • 11:13 - 11:15
    Oczywiście koty to nie wszystko,
  • 11:15 - 11:18
    więc tutaj komputer mówi,
  • 11:18 - 11:21
    że zdjęcie pokazuje chłopca
    i pluszowego misia;
  • 11:21 - 11:25
    psa, osobę i mały latawiec w tle;
  • 11:25 - 11:28
    albo zdjęcie pełne obiektów
  • 11:28 - 11:33
    takich jak mężczyzna,
    deskorolka, poręcz, latarnia.
  • 11:33 - 11:38
    Czasami, jeśli komputer
    nie jest pewien tego, co widzi,
  • 11:39 - 11:42
    nauczyliśmy go udzielać
  • 11:42 - 11:46
    wymijających odpowiedzi,
  • 11:46 - 11:48
    takich, jakich udzieliłby człowiek.
  • 11:48 - 11:53
    Ale są też przypadki, kiedy algorytm
    potrafi nad wyraz precyzyjnie określić,
  • 11:53 - 11:55
    jakie obiekty znajdują się na zdjęciu,
  • 11:55 - 11:59
    podając markę, model
    i rok produkcji samochodu.
  • 11:59 - 12:04
    Zastosowaliśmy ten algorytm
    do milionów zdjęć z Google Street View
  • 12:04 - 12:07
    powstałych w setkach amerykańskich miast
  • 12:07 - 12:10
    i odkryliśmy coś interesującego.
  • 12:10 - 12:14
    Po pierwsze potwierdził się
    popularny pogląd
  • 12:14 - 12:17
    dotyczący relacji cen samochodów
  • 12:17 - 12:19
    i dochodu gospodarstw domowych.
  • 12:19 - 12:24
    Co zaskakujące, okazało się,
    że ceny samochodów wiążą się też
  • 12:24 - 12:26
    ze skalą przestępczości w miastach,
  • 12:27 - 12:31
    czy schematami głosowania.
  • 12:32 - 12:34
    Ale zaraz, czy to już wszystko?
  • 12:34 - 12:37
    Czy komputer dorównał właśnie
    ludzkim możliwościom,
  • 12:37 - 12:39
    a może nawet je przekroczył?
  • 12:39 - 12:42
    Nie tak szybko.
  • 12:42 - 12:46
    Na razie komputer nauczył się
    widzieć przedmioty.
  • 12:46 - 12:51
    Można go porównać do małego dziecka,
    które nauczyło się pierwszych słów.
  • 12:51 - 12:54
    To niesamowite osiągnięcie,
  • 12:54 - 12:56
    ale to tylko pierwszy krok.
  • 12:56 - 13:00
    Wkrótce kolejny milowy krok
  • 13:00 - 13:03
    i dziecko nauczy się tworzyć zdania.
  • 13:03 - 13:08
    Dziewczyna z początku prelekcji
    nie mówi, że na zdjęciu jest kot,
  • 13:08 - 13:13
    tylko że kot leży na łóżku.
  • 13:13 - 13:18
    Żeby nauczyć komputer
    patrzenia na zdjęcia i tworzenia zdań,
  • 13:18 - 13:22
    połączenie danych
    i algorytmu systemów uczących się
  • 13:22 - 13:25
    musi posunąć się dalej.
  • 13:25 - 13:29
    Teraz komputer musi uczyć się
    zarówno ze zdjęć,
  • 13:29 - 13:32
    jak i ze zdań
  • 13:32 - 13:35
    tworzonych przez ludzi.
  • 13:35 - 13:39
    Tak, jak mózg łączy wizję i język,
  • 13:39 - 13:44
    rozwinęliśmy model,
    który łączy fragmenty rzeczy,
  • 13:44 - 13:46
    jak elementy wizualne,
  • 13:46 - 13:50
    z wyrazami i określeniami w zdaniach.
  • 13:50 - 13:53
    Cztery miesiące temu
  • 13:53 - 13:56
    w końcu połączyliśmy to wszystko razem
  • 13:56 - 13:59
    i stworzyliśmy jeden z pierwszych modeli
    widzenia komputerowego,
  • 13:59 - 14:03
    który umie tworzyć zdania
  • 14:03 - 14:07
    na temat pierwszy raz widzianego zdjęcia.
  • 14:07 - 14:12
    Pokażę wam, co komputer powiedział,
  • 14:12 - 14:14
    kiedy zobaczył zdjęcia,
  • 14:14 - 14:17
    które widziała dziewczynka
    z początku tej prelekcji.
  • 14:20 - 14:23
    (Wideo) Komputer:
    Człowiek stoi obok słonia.
  • 14:24 - 14:28
    Duży samolot na pasie startowym.
  • 14:29 - 14:33
    FFL: Oczywiście ciągle pracujemy
    nad poprawieniem naszych algorytmów
  • 14:33 - 14:36
    i one muszą się jeszcze sporo nauczyć.
  • 14:36 - 14:38
    (Brawa)
  • 14:40 - 14:43
    Komputer nadal popełnia błędy.
  • 14:43 - 14:46
    (Wideo) Komputer:
    Kot na łóżku zawinięty w koc.
  • 14:46 - 14:49
    FFL: Jeśli widział zbyt wiele kotów,
  • 14:49 - 14:52
    wszystko zaczyna mu przypominać kota.
  • 14:53 - 14:56
    (Wideo) Komputer:
    Chłopczyk trzyma kij baseballowy.
  • 14:56 - 14:58
    (Śmiech)
  • 14:58 - 15:02
    FFL: Jeśli nie widział
    szczoteczki do zębów,
  • 15:02 - 15:03
    myli ją z kijem baseballowym.
  • 15:03 - 15:07
    (Wideo) Komputer: Mężczyzna jadący
    konno po ulicy obok budynku.
  • 15:07 - 15:09
    (Śmiech)
  • 15:09 - 15:12
    FFL: Nie nauczyliśmy jeszcze
    komputera podstaw sztuki.
  • 15:14 - 15:17
    (Wideo) Komputer: Zebra na pastwisku.
  • 15:17 - 15:20
    FFL: Nie umie też doceniać piękna natury,
  • 15:20 - 15:22
    jak my.
  • 15:22 - 15:25
    To była długa droga.
  • 15:25 - 15:30
    Przejście od wieku zero
    do 3 lat było trudne.
  • 15:30 - 15:35
    Ale prawdziwym wyzwaniem jest
    przejście od 3 lat do 13 i dalej.
  • 15:35 - 15:39
    Pozwólcie, że przypomnę wam
    zdjęcie chłopca z tortem.
  • 15:39 - 15:44
    Dotąd uczyliśmy komputer
    dostrzegać przedmioty,
  • 15:44 - 15:48
    a nawet opowiedzieć krótką historię
    na podstawie zdjęcia.
  • 15:48 - 15:52
    (Wideo) Komputer:
    Osoba przy stole z tortem
  • 15:52 - 15:54
    FFL: Ale na tym zdjęciu widać dużo więcej,
  • 15:54 - 15:56
    niż tylko osobę i tort.
  • 15:56 - 16:01
    Komputer nie widzi,
    że ten tort to włoski przysmak,
  • 16:01 - 16:04
    serwowany tylko na Wielkanoc.
  • 16:04 - 16:07
    Chłopiec ma na sobie ulubioną koszulkę,
  • 16:07 - 16:11
    którą dziadek przywiózł mu z Sydney.
  • 16:11 - 16:15
    Widać, jak bardzo jest
    w tym momencie szczęśliwy
  • 16:15 - 16:18
    i co mu właśnie chodzi po głowie.
  • 16:19 - 16:22
    To mój syn, Leo.
  • 16:22 - 16:25
    Podczas zmagań z wizualną inteligencją
  • 16:25 - 16:27
    myślę bez przerwy o Leo
  • 16:27 - 16:30
    i o przyszłym świecie,
    w którym będzie żył.
  • 16:30 - 16:32
    W którym maszyny będą umiały widzieć,
  • 16:32 - 16:37
    lekarze i pielęgniarki będą mieli
    dodatkową parę niezmęczonych oczu,
  • 16:37 - 16:41
    które będą pomagać w leczeniu pacjentów.
  • 16:41 - 16:45
    Samochody będą bezpieczniejsze.
  • 16:45 - 16:48
    Roboty, nie tylko ludzie,
  • 16:48 - 16:53
    będą pomagać w poszukiwaniu rannych
    na obszarach dotkniętych przez katastrofy.
  • 16:54 - 16:58
    Odkryjemy nowe gatunki, lepsze materiały
  • 16:58 - 17:02
    i przekroczymy nieznane dotąd granice
    dzięki pomocy maszyn.
  • 17:03 - 17:07
    Powoli dajemy wzrok maszynom.
  • 17:07 - 17:10
    Najpierw uczymy je widzieć.
  • 17:10 - 17:13
    Potem one pomogą nam lepiej widzieć.
  • 17:13 - 17:17
    Po raz pierwszy ludzkie oczy
    nie będą jedynymi,
  • 17:17 - 17:20
    które odkrywają świat.
  • 17:20 - 17:23
    Będziemy używać maszyn
    nie tylko dla ich inteligencji.
  • 17:23 - 17:30
    Naszą współpracę z nimi
    trudno sobie teraz wyobrazić.
  • 17:30 - 17:32
    To moje zadanie:
  • 17:32 - 17:34
    dać komputerom wizualną inteligencję
  • 17:34 - 17:40
    i stworzyć lepszą przyszłość
    dla Leo i dla świata.
  • 17:40 - 17:41
    Dziękuję.
  • 17:41 - 17:45
    (Brawa)
Title:
Jak uczymy komputery rozumienia obrazów
Speaker:
Fei-Fei Li
Description:

Kiedy małe dziecko patrzy na zdjęcie, potrafi wskazać proste elementy: "kot", "książka", "krzesło". Obecnie komputery też potrafią to zrobić. Ale co dalej? W porywającej prelekcji Fei-Fei Li, specjalistka w dziedzinie widzenia komputerowego, zdaje relację z obecnego stanu techniki - opisując m.in bazę 15 milionów zdjęć zbudowaną przez jej zespół w celu nauczenia komputerów rozumienia obrazu - i wskazuje kluczowe kwestie, które stoją jeszcze przed nami.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:58
  • Finished review.

    Bardzo fajne tłumaczenie!
    Teraz możemy omówić zmiany, a może sama jeszcze coś spostrzeżesz.

    Zmieniam matkę naturę na Matkę Naturę, ale nie udało mi się znaleźć dobrego wytłumaczenia, więc jeśli masz jakieś na pisanie z małej litery - to dam się przekonać :-)

    4:58
    Z uszami lepiej od "dwa uszy" brzmi mi "dwoje uszu", ale krakowskim targiem po prostu wyrzuciłam "dwa".

    ====
    Okoliczniki czasu i miejsca wydzielone przecinkiem.

    Okoliczniki czasu i miejsca na początku zdania nie są w języku polskim oddzielane przecinkiem, inaczej niż w angielskim. Przykład: "Today, the basis for scientific time" = "Dzisiaj, podłożem mierzenia czasu" --> "Dzisiaj podłożem mierzenia czasu".
    ===
    Poskracałam, gdzie się dało. Zmieniłam łamanie linijek tam, gdzie było nieproporcjonalne.

Polish subtitles

Revisions