Jak uczymy komputery rozumienia obrazów
-
0:02 - 0:05Pokażę wam coś.
-
0:05 - 0:10(Wideo) Dziewczynka: To jest kot
siedzący na łóżku. -
0:10 - 0:14Chłopiec głaszcze słonia.
-
0:14 - 0:19To są ludzie idący do samolotu.
-
0:19 - 0:21Samolot jest duży.
-
0:21 - 0:24Fei-Fei Li: Tak trzyletnie dziecko
-
0:24 - 0:27opisuje, co widzi na zdjęciach.
-
0:27 - 0:30Wielu rzeczy musi się jeszcze nauczyć,
-
0:30 - 0:35ale w jednej dziedzinie
jest już ekspertem: -
0:35 - 0:38rozumie, co widzi.
-
0:38 - 0:42Technicznie nasze społeczeństwo jest
zaawansowane bardziej niż kiedykolwiek. -
0:42 - 0:46Wysyłamy ludzi na Księżyc,
tworzymy telefony, które rozmawiają z nami -
0:46 - 0:51i potrafimy sprawić, żeby stacja radiowa,
grała tylko naszą ulubioną muzykę. -
0:51 - 0:55A jednak nawet najbardziej
zaawansowane komputery -
0:55 - 0:58ciągle nie mogą sobie poradzić
z tym zadaniem. -
0:58 - 1:01Dzisiaj chciałabym opowiedzieć
-
1:01 - 1:05o ostatnich osiągnięciach w dziedzinie
widzenia komputerowego, -
1:05 - 1:10jednej z najbardziej pionierskich
i potencjalnie rewolucyjnych -
1:10 - 1:12technologii w informatyce.
-
1:12 - 1:17Istnieje już prototyp samochodu,
który jeździ sam, -
1:17 - 1:20ale bez umiejętności rozpoznawania obrazu
-
1:20 - 1:22nie umie odróżnić
-
1:22 - 1:25zmiętej papierowej torby,
po której można przejechać, -
1:25 - 1:29od podobnej wielkości kamienia,
który trzeba ominąć. -
1:29 - 1:33Istnieją aparaty fotograficzne
o bardzo dużej rozdzielczości, -
1:33 - 1:36ale nadal nie wiadomo,
jak przywrócić wzrok niewidomym. -
1:36 - 1:40Drony mogą latać na dużych przestrzeniach,
-
1:40 - 1:42ale nadal nie istnieje technologia,
-
1:42 - 1:45która pomogłaby śledzić zmiany
w lasach deszczowych. -
1:45 - 1:48Kamery przemysłowe są wszędzie,
-
1:48 - 1:53ale nie potrafią nas ostrzec,
jeśli dziecko topi się w basenie. -
1:54 - 2:00Zdjęcia i filmy video stały się
integralną częścią naszego życia. -
2:00 - 2:04Ilość materiału, który powstaje,
przekracza możliwości odbiorcze -
2:04 - 2:07pojedynczego człowieka,
a nawet grupy ludzi. -
2:07 - 2:11Podczas TED dokładamy
do tego swoją cegiełkę. -
2:11 - 2:16Najbardziej zaawansowane oprogramowanie
nadal nie umie sobie poradzić -
2:16 - 2:20ze zrozumieniem i zarządzaniem
tak ogromną ilością danych. -
2:20 - 2:25Innymi słowy jako społeczeństwo
-
2:25 - 2:27jesteśmy niewidomi,
-
2:27 - 2:30bo nasze najmądrzejsze maszyny
wciąż nie widzą. -
2:32 - 2:34"Co w tym trudnego?" moglibyście zapytać.
-
2:34 - 2:37Aparaty potrafią zrobić zdjęcie,
-
2:37 - 2:41przekształcając światło
w dwuwymiarowy szereg liczb, -
2:41 - 2:43czyli w piksele.
-
2:43 - 2:45Ale są to tylko liczby.
-
2:45 - 2:48Nie niosą ze sobą znaczenia.
-
2:48 - 2:52Słyszeć, to nie to samo co słuchać,
-
2:52 - 2:57a robić zdjęcia,
to nie to samo co widzieć. -
2:57 - 3:00Mówiąc o widzeniu,
mam na myśli rozumienie. -
3:01 - 3:06Zrealizowanie tego zadania
zajęło Matce Naturze -
3:06 - 3:09540 milionów lat ciężkiej pracy,
-
3:09 - 3:11a większość tego wysiłku włożyła
-
3:11 - 3:17w rozwój części mózgu odpowiedzialnej
za przetwarzanie wizualne, -
3:17 - 3:19a nie w rozwój oczu.
-
3:19 - 3:22Widzenie rozpoczyna się w oczach,
-
3:22 - 3:26ale tak naprawdę odbywa się w mózgu.
-
3:26 - 3:31Od 15 lat, zaczynając
od doktoratu w Caltech, -
3:31 - 3:34przez prowadzenie Stanford Vision Lab,
-
3:34 - 3:39pracowałam z moimi mentorami,
współpracownikami i studentami -
3:39 - 3:42nad nauczeniem komputerów widzenia.
-
3:43 - 3:46Pole naszych badań to widzenie
komputerowe i systemy uczące się. -
3:46 - 3:50Jest to część sztucznej inteligencji.
-
3:51 - 3:56Chcemy, żeby maszyny widziały tak, jak my,
-
3:56 - 4:02potrafiły nazwać rzeczy, rozpoznać ludzi,
wskazać ich położenie w przestrzeni, -
4:02 - 4:08żeby rozumiały relacje, emocje,
działania i intencje. -
4:08 - 4:14Potrafimy opowiedzieć historię
o ludziach, miejscach czy rzeczach -
4:14 - 4:16w momencie, kiedy na nie spojrzymy.
-
4:17 - 4:23Żeby osiągnąć ten cel, trzeba nauczyć
komputer widzenia rzeczy, -
4:23 - 4:26klocków, z których składa się świat.
-
4:26 - 4:30Wyobraźcie sobie ten proces uczenia
-
4:30 - 4:33jako pokazywanie komputerom
-
4:33 - 4:37zdjęć konkretnych obiektów,
na przykład kotów, -
4:37 - 4:41i tworzenie modelu
na podstawie tych obrazów. -
4:41 - 4:43Czy to takie trudne?
-
4:43 - 4:47W końcu kot to tylko zbiór
kształtów i kolorów. -
4:47 - 4:52Tak właśnie traktowaliśmy obrazy
na początku modelowania obiektowego. -
4:52 - 4:55Używając języka matematyki,
mówiliśmy algorytmowi komputerowemu, -
4:55 - 4:59że kot ma okrągłą głowę, puchate ciało,
-
4:59 - 5:01szpiczaste uszy i długi ogon,
-
5:01 - 5:02i to brzmiało całkiem dobrze.
-
5:03 - 5:05Ale co zrobić z takim kotem?
-
5:05 - 5:06(Śmiech)
-
5:06 - 5:08On jest cały poskręcany.
-
5:08 - 5:12Teraz trzeba by dodać nowy kształt
i punkt widzenia do modelu obiektu. -
5:12 - 5:14A jeśli koty będą schowane?
-
5:15 - 5:17Co zrobić z takimi kotami?
-
5:19 - 5:22Teraz rozumiecie.
-
5:22 - 5:25Nawet coś tak banalnego,
jak zwierzę domowe -
5:25 - 5:29może dostarczyć nieskończenie wielu
wersji modelowi obiektu, -
5:29 - 5:32a to nadal tylko jeden obiekt.
-
5:33 - 5:35Osiem lat temu
-
5:35 - 5:40proste spostrzeżenie zmieniło
mój sposób myślenia. -
5:41 - 5:44Nikt nie mówi dziecku, jak ma widzieć,
-
5:44 - 5:46szczególnie we wczesnym dzieciństwie.
-
5:46 - 5:51Dzieci uczą się tego przez
doświadczanie świata. -
5:51 - 5:54Jeśli potraktować dziecięce oczy
-
5:54 - 5:57jako parę biologicznych aparatów,
-
5:57 - 6:01to robią one zdjęcie co 200 milisekund,
-
6:01 - 6:04co jest średnim czasem ruchu oka.
-
6:04 - 6:08Zanim skończy 3 lata,
dziecko może zobaczyć -
6:08 - 6:11setki milionów obrazów realnego świata.
-
6:11 - 6:14To bardzo dużo przykładów.
-
6:14 - 6:20Zamiast skupiać się wyłącznie
na ulepszaniu algorytmów, -
6:20 - 6:26wolałam podać im dane treningowe
podobne do tych, -
6:26 - 6:29które otrzymuje małe dziecko
poznające świat, -
6:29 - 6:33zarówno pod względem ilościowym,
jak i jakościowym. -
6:33 - 6:35Kiedy się na to zdecydowaliśmy,
-
6:35 - 6:38wiedzieliśmy, że musimy zebrać
-
6:38 - 6:42dużo więcej zdjęć, niż mieliśmy dotąd,
-
6:42 - 6:45może nawet tysiące razy więcej.
-
6:45 - 6:49W związku z tym razem z profesorem Kai Li
z uniwersytetu Princeton -
6:49 - 6:54w 2007 r. uruchomiliśmy projekt ImageNet.
-
6:54 - 6:57Na szczęście nie musieliśmy
montować aparatu na głowie -
6:57 - 6:59i czekać wiele lat.
-
6:59 - 7:01Skorzystaliśmy z Internetu,
-
7:01 - 7:05największej skarbnicy zdjęć,
jaką człowiek kiedykolwiek stworzył. -
7:05 - 7:08Pobraliśmy blisko miliard zdjęć
-
7:08 - 7:14i użyliśmy crowdsourcingowej platformy
Amazon Mechanical Turk, -
7:14 - 7:16żeby je opisać.
-
7:16 - 7:21W szczytowym okresie ImageNet zatrudniał
najwięcej pracowników -
7:21 - 7:24na Amazon Mechanical Turk:
-
7:24 - 7:28razem prawie 50 000 osób
-
7:28 - 7:32ze 167 krajów
-
7:32 - 7:36pomagało nam posegregować i opisać
-
7:36 - 7:40prawie miliard zdjęć.
-
7:41 - 7:43Tak wiele wysiłku kosztowało
-
7:43 - 7:47uchwycenie zaledwie ułamka zbioru obrazów,
-
7:47 - 7:51które dziecięcy mózg przyswaja
we wczesnych latach rozwoju. -
7:52 - 7:56Pomysł użycia dużej ilości danych
-
7:56 - 8:01do uczenia algorytmu komputerowego,
może wydawać się teraz oczywisty, -
8:01 - 8:05ale w 2007 roku taki nie był.
-
8:05 - 8:09Przez dłuższy czas
byliśmy w tej podróży sami. -
8:09 - 8:14Kilku kolegów radziło mi nawet,
żebym zrobiła coś bardziej użytecznego -
8:14 - 8:18i ciągle zmagaliśmy się
z brakiem funduszy. -
8:18 - 8:20Zdarzyło mi się nawet żartować
z moimi studentami, -
8:20 - 8:24że otworzę znowu pralnię,
żeby sfinansować ImageNet. -
8:24 - 8:29Jakby nie było, tak właśnie
sfinansowałam swoje studia. -
8:29 - 8:31Kontynuowaliśmy.
-
8:31 - 8:35W 2009 roku ImageNet miał już bazę
-
8:35 - 8:3915 milionów zdjęć
-
8:39 - 8:44skategoryzowanych w 22 000 klas
obiektów i rzeczy -
8:44 - 8:47oznaczonych angielskimi słowami.
-
8:47 - 8:50Zarówno pod względem ilości, jak i jakości
-
8:50 - 8:53ta baza była unikalna.
-
8:53 - 8:56Na przykład
-
8:56 - 8:59mieliśmy ponad 62 000 zdjęć kotów
-
8:59 - 9:03wszystkich rodzajów, w różnych pozach
-
9:03 - 9:08kotów domowych i dzikich,
z najróżniejszych gatunków. -
9:08 - 9:12Byliśmy tak podekscytowani
stworzeniem ImageNet, -
9:12 - 9:16że chcieliśmy, aby cały naukowy świat
mógł z tego projektu korzystać, -
9:16 - 9:20więc, podobnie jak TED,
udostępniliśmy wszystkie dane -
9:20 - 9:23za darmo.
-
9:25 - 9:29(Brawa)
-
9:29 - 9:34Mając dane do zasilenia
komputerowego mózgu, -
9:34 - 9:38byliśmy gotowi wrócić do algorytmów.
-
9:38 - 9:43Jak się okazało, bogactwo informacji
dostarczonych przez ImageNet -
9:43 - 9:48doskonale odpowiadało konkretnej klasie
algorytmów systemów uczących się, -
9:48 - 9:50a konkretnie sieciom neuronowym
-
9:50 - 9:55zapoczątkowanym przez Kunihiko Fukushimę,
Geoffa Hintona oraz Yanna LeCuna -
9:55 - 9:59w latach 70. i 80.
-
9:59 - 10:05Podobnie jak mózg składa się z miliardów
połączonych ze sobą komórek nerwowych, -
10:05 - 10:08podstawową jednostką operacyjną
w sieci neuronowej -
10:08 - 10:11jest węzeł przypominający taki neuron.
-
10:11 - 10:13Pobiera on dane wejściowe z innych węzłów
-
10:13 - 10:16i przekazuje innym dane wyjściowe.
-
10:16 - 10:21Co więcej te miliony węzłów
-
10:21 - 10:24są zorganizowane w hierarchiczne warstwy,
-
10:24 - 10:27podobnie jak mózg.
-
10:27 - 10:31W sieci neuronowej, której użyliśmy
-
10:31 - 10:35były 24 miliony węzłów,
-
10:35 - 10:38140 milionów parametrów,
-
10:38 - 10:41i 15 miliardów połączeń.
-
10:41 - 10:43To jest olbrzymi model.
-
10:43 - 10:47Zasilona wielką ilością danych z ImageNet,
-
10:47 - 10:52działająca dzięki nowoczesnym
procesorom CPU i GPU -
10:52 - 10:55sieć neuronowa rozwinęła się w sposób,
-
10:55 - 10:58którego nikt się nie spodziewał.
-
10:58 - 11:01Stała się najlepszą architekturą
-
11:01 - 11:06do osiągnięcia fascynujących rezultatów
w dziedzinie rozpoznawania obrazów. -
11:06 - 11:09Ten komputer mówi,
-
11:09 - 11:11że na obrazku jest kot,
-
11:11 - 11:13i gdzie ten kot się znajduje.
-
11:13 - 11:15Oczywiście koty to nie wszystko,
-
11:15 - 11:18więc tutaj komputer mówi,
-
11:18 - 11:21że zdjęcie pokazuje chłopca
i pluszowego misia; -
11:21 - 11:25psa, osobę i mały latawiec w tle;
-
11:25 - 11:28albo zdjęcie pełne obiektów
-
11:28 - 11:33takich jak mężczyzna,
deskorolka, poręcz, latarnia. -
11:33 - 11:38Czasami, jeśli komputer
nie jest pewien tego, co widzi, -
11:39 - 11:42nauczyliśmy go udzielać
-
11:42 - 11:46wymijających odpowiedzi,
-
11:46 - 11:48takich, jakich udzieliłby człowiek.
-
11:48 - 11:53Ale są też przypadki, kiedy algorytm
potrafi nad wyraz precyzyjnie określić, -
11:53 - 11:55jakie obiekty znajdują się na zdjęciu,
-
11:55 - 11:59podając markę, model
i rok produkcji samochodu. -
11:59 - 12:04Zastosowaliśmy ten algorytm
do milionów zdjęć z Google Street View -
12:04 - 12:07powstałych w setkach amerykańskich miast
-
12:07 - 12:10i odkryliśmy coś interesującego.
-
12:10 - 12:14Po pierwsze potwierdził się
popularny pogląd -
12:14 - 12:17dotyczący relacji cen samochodów
-
12:17 - 12:19i dochodu gospodarstw domowych.
-
12:19 - 12:24Co zaskakujące, okazało się,
że ceny samochodów wiążą się też -
12:24 - 12:26ze skalą przestępczości w miastach,
-
12:27 - 12:31czy schematami głosowania.
-
12:32 - 12:34Ale zaraz, czy to już wszystko?
-
12:34 - 12:37Czy komputer dorównał właśnie
ludzkim możliwościom, -
12:37 - 12:39a może nawet je przekroczył?
-
12:39 - 12:42Nie tak szybko.
-
12:42 - 12:46Na razie komputer nauczył się
widzieć przedmioty. -
12:46 - 12:51Można go porównać do małego dziecka,
które nauczyło się pierwszych słów. -
12:51 - 12:54To niesamowite osiągnięcie,
-
12:54 - 12:56ale to tylko pierwszy krok.
-
12:56 - 13:00Wkrótce kolejny milowy krok
-
13:00 - 13:03i dziecko nauczy się tworzyć zdania.
-
13:03 - 13:08Dziewczyna z początku prelekcji
nie mówi, że na zdjęciu jest kot, -
13:08 - 13:13tylko że kot leży na łóżku.
-
13:13 - 13:18Żeby nauczyć komputer
patrzenia na zdjęcia i tworzenia zdań, -
13:18 - 13:22połączenie danych
i algorytmu systemów uczących się -
13:22 - 13:25musi posunąć się dalej.
-
13:25 - 13:29Teraz komputer musi uczyć się
zarówno ze zdjęć, -
13:29 - 13:32jak i ze zdań
-
13:32 - 13:35tworzonych przez ludzi.
-
13:35 - 13:39Tak, jak mózg łączy wizję i język,
-
13:39 - 13:44rozwinęliśmy model,
który łączy fragmenty rzeczy, -
13:44 - 13:46jak elementy wizualne,
-
13:46 - 13:50z wyrazami i określeniami w zdaniach.
-
13:50 - 13:53Cztery miesiące temu
-
13:53 - 13:56w końcu połączyliśmy to wszystko razem
-
13:56 - 13:59i stworzyliśmy jeden z pierwszych modeli
widzenia komputerowego, -
13:59 - 14:03który umie tworzyć zdania
-
14:03 - 14:07na temat pierwszy raz widzianego zdjęcia.
-
14:07 - 14:12Pokażę wam, co komputer powiedział,
-
14:12 - 14:14kiedy zobaczył zdjęcia,
-
14:14 - 14:17które widziała dziewczynka
z początku tej prelekcji. -
14:20 - 14:23(Wideo) Komputer:
Człowiek stoi obok słonia. -
14:24 - 14:28Duży samolot na pasie startowym.
-
14:29 - 14:33FFL: Oczywiście ciągle pracujemy
nad poprawieniem naszych algorytmów -
14:33 - 14:36i one muszą się jeszcze sporo nauczyć.
-
14:36 - 14:38(Brawa)
-
14:40 - 14:43Komputer nadal popełnia błędy.
-
14:43 - 14:46(Wideo) Komputer:
Kot na łóżku zawinięty w koc. -
14:46 - 14:49FFL: Jeśli widział zbyt wiele kotów,
-
14:49 - 14:52wszystko zaczyna mu przypominać kota.
-
14:53 - 14:56(Wideo) Komputer:
Chłopczyk trzyma kij baseballowy. -
14:56 - 14:58(Śmiech)
-
14:58 - 15:02FFL: Jeśli nie widział
szczoteczki do zębów, -
15:02 - 15:03myli ją z kijem baseballowym.
-
15:03 - 15:07(Wideo) Komputer: Mężczyzna jadący
konno po ulicy obok budynku. -
15:07 - 15:09(Śmiech)
-
15:09 - 15:12FFL: Nie nauczyliśmy jeszcze
komputera podstaw sztuki. -
15:14 - 15:17(Wideo) Komputer: Zebra na pastwisku.
-
15:17 - 15:20FFL: Nie umie też doceniać piękna natury,
-
15:20 - 15:22jak my.
-
15:22 - 15:25To była długa droga.
-
15:25 - 15:30Przejście od wieku zero
do 3 lat było trudne. -
15:30 - 15:35Ale prawdziwym wyzwaniem jest
przejście od 3 lat do 13 i dalej. -
15:35 - 15:39Pozwólcie, że przypomnę wam
zdjęcie chłopca z tortem. -
15:39 - 15:44Dotąd uczyliśmy komputer
dostrzegać przedmioty, -
15:44 - 15:48a nawet opowiedzieć krótką historię
na podstawie zdjęcia. -
15:48 - 15:52(Wideo) Komputer:
Osoba przy stole z tortem -
15:52 - 15:54FFL: Ale na tym zdjęciu widać dużo więcej,
-
15:54 - 15:56niż tylko osobę i tort.
-
15:56 - 16:01Komputer nie widzi,
że ten tort to włoski przysmak, -
16:01 - 16:04serwowany tylko na Wielkanoc.
-
16:04 - 16:07Chłopiec ma na sobie ulubioną koszulkę,
-
16:07 - 16:11którą dziadek przywiózł mu z Sydney.
-
16:11 - 16:15Widać, jak bardzo jest
w tym momencie szczęśliwy -
16:15 - 16:18i co mu właśnie chodzi po głowie.
-
16:19 - 16:22To mój syn, Leo.
-
16:22 - 16:25Podczas zmagań z wizualną inteligencją
-
16:25 - 16:27myślę bez przerwy o Leo
-
16:27 - 16:30i o przyszłym świecie,
w którym będzie żył. -
16:30 - 16:32W którym maszyny będą umiały widzieć,
-
16:32 - 16:37lekarze i pielęgniarki będą mieli
dodatkową parę niezmęczonych oczu, -
16:37 - 16:41które będą pomagać w leczeniu pacjentów.
-
16:41 - 16:45Samochody będą bezpieczniejsze.
-
16:45 - 16:48Roboty, nie tylko ludzie,
-
16:48 - 16:53będą pomagać w poszukiwaniu rannych
na obszarach dotkniętych przez katastrofy. -
16:54 - 16:58Odkryjemy nowe gatunki, lepsze materiały
-
16:58 - 17:02i przekroczymy nieznane dotąd granice
dzięki pomocy maszyn. -
17:03 - 17:07Powoli dajemy wzrok maszynom.
-
17:07 - 17:10Najpierw uczymy je widzieć.
-
17:10 - 17:13Potem one pomogą nam lepiej widzieć.
-
17:13 - 17:17Po raz pierwszy ludzkie oczy
nie będą jedynymi, -
17:17 - 17:20które odkrywają świat.
-
17:20 - 17:23Będziemy używać maszyn
nie tylko dla ich inteligencji. -
17:23 - 17:30Naszą współpracę z nimi
trudno sobie teraz wyobrazić. -
17:30 - 17:32To moje zadanie:
-
17:32 - 17:34dać komputerom wizualną inteligencję
-
17:34 - 17:40i stworzyć lepszą przyszłość
dla Leo i dla świata. -
17:40 - 17:41Dziękuję.
-
17:41 - 17:45(Brawa)
- Title:
- Jak uczymy komputery rozumienia obrazów
- Speaker:
- Fei-Fei Li
- Description:
-
Kiedy małe dziecko patrzy na zdjęcie, potrafi wskazać proste elementy: "kot", "książka", "krzesło". Obecnie komputery też potrafią to zrobić. Ale co dalej? W porywającej prelekcji Fei-Fei Li, specjalistka w dziedzinie widzenia komputerowego, zdaje relację z obecnego stanu techniki - opisując m.in bazę 15 milionów zdjęć zbudowaną przez jej zespół w celu nauczenia komputerów rozumienia obrazu - i wskazuje kluczowe kwestie, które stoją jeszcze przed nami.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:58
Krystian Aparta approved Polish subtitles for How we're teaching computers to understand pictures | ||
Rysia Wand edited Polish subtitles for How we're teaching computers to understand pictures | ||
Rysia Wand edited Polish subtitles for How we're teaching computers to understand pictures | ||
Rysia Wand edited Polish subtitles for How we're teaching computers to understand pictures | ||
Rysia Wand commented on Polish subtitles for How we're teaching computers to understand pictures | ||
Rysia Wand accepted Polish subtitles for How we're teaching computers to understand pictures | ||
Beata Wasylkiewicz-Jagoda edited Polish subtitles for How we're teaching computers to understand pictures | ||
Beata Wasylkiewicz-Jagoda edited Polish subtitles for How we're teaching computers to understand pictures |
Rysia Wand
Finished review.
Bardzo fajne tłumaczenie!
Teraz możemy omówić zmiany, a może sama jeszcze coś spostrzeżesz.
Zmieniam matkę naturę na Matkę Naturę, ale nie udało mi się znaleźć dobrego wytłumaczenia, więc jeśli masz jakieś na pisanie z małej litery - to dam się przekonać :-)
4:58
Z uszami lepiej od "dwa uszy" brzmi mi "dwoje uszu", ale krakowskim targiem po prostu wyrzuciłam "dwa".
====
Okoliczniki czasu i miejsca wydzielone przecinkiem.
Okoliczniki czasu i miejsca na początku zdania nie są w języku polskim oddzielane przecinkiem, inaczej niż w angielskim. Przykład: "Today, the basis for scientific time" = "Dzisiaj, podłożem mierzenia czasu" --> "Dzisiaj podłożem mierzenia czasu".
===
Poskracałam, gdzie się dało. Zmieniłam łamanie linijek tam, gdzie było nieproporcjonalne.