Return to Video

Zagadka spiralnych frytek, czyli dlaczego polubienia na portalach społecznościowych mówią o nas więcej niż się wydaje

  • 0:01 - 0:03
    Na początku swojego istnienia
  • 0:03 - 0:05
    Internet był mało dynamiczny.
  • 0:05 - 0:08
    Strony, które odwiedzaliśmy
  • 0:08 - 0:12
    były tworzone przez fachowców
    z różnych organizacji,
  • 0:12 - 0:15
    albo osoby obeznane z technologią.
  • 0:15 - 0:17
    Gdy na początku XXI wieku
  • 0:17 - 0:20
    powstały media i portale społecznościowe,
  • 0:20 - 0:21
    Internet przeszedł rewolucję.
  • 0:21 - 0:26
    Stał się miejscem, w którym treści
  • 0:26 - 0:29
    są tworzone
    przez zwykłych użytkowników.
  • 0:29 - 0:31
    To oni umieszczają filmiki na YouTube,
    tworzą blogi,
  • 0:31 - 0:34
    piszą posty i recenzują produkty
    na portalach społecznościowych.
  • 0:34 - 0:37
    Internet jest też bardziej interaktywny.
  • 0:37 - 0:40
    Ludzie komunikują się, komentują,
  • 0:40 - 0:43
    dzielą się informacjami,
    a nie tylko czytają.
  • 0:43 - 0:45
    To dotyczy wszystkich serwisów,
  • 0:45 - 0:48
    ale Facebook jest największy
    i dobrze ilustruje statystyki.
  • 0:48 - 0:51
    Odwiedza go 1,2 miliarda osób miesięcznie,
  • 0:51 - 0:54
    czyli połowa internautów z całego świata.
  • 0:54 - 0:57
    Tworzenie profilu na Facebooku
  • 0:57 - 1:02
    i innych portalach społecznościowych
    jest bardzo proste,
  • 1:02 - 1:06
    dzięki czemu do sieci trafia
    mnóstwo danych osobowych.
  • 1:06 - 1:08
    Stąd mamy informacje dotyczące demografii,
  • 1:08 - 1:12
    zachowań i preferencji
    setek milionów ludzi.
  • 1:12 - 1:14
    Nigdy wcześniej nie mieliśmy
    takich możliwości.
  • 1:14 - 1:17
    Jako informatyk, mogę dzięki temu
  • 1:17 - 1:21
    tworzyć modele ukazujące różne tendencje,
  • 1:21 - 1:25
    które przejawiacie,
    nie zdając sobie z tego sprawy.
  • 1:25 - 1:28
    Dzięki temu, jako naukowcy,
  • 1:28 - 1:30
    pomagamy ludziom w komunikacji online,
  • 1:30 - 1:33
    ale są tacy, którzy wykorzystują to
    mniej altruistycznie.
  • 1:33 - 1:36
    Użytkownicy nie rozumieją, niestety,
  • 1:36 - 1:38
    jak to wszystko działa.
  • 1:38 - 1:39
    Nawet gdyby rozumieli,
  • 1:39 - 1:41
    nie mają nad tym kontroli.
  • 1:41 - 1:43
    Chciałabym opowiedzieć o tym,
  • 1:43 - 1:45
    co można zrobić w tej sprawie
  • 1:45 - 1:48
    i jakie kroki można podjąć,
  • 1:48 - 1:50
    żeby użytkownicy odzyskali kontrolę.
  • 1:50 - 1:52
    To logo sklepu Target.
  • 1:52 - 1:55
    Nie bez powodu umieściłam je
    na brzuchu tej kobiety.
  • 1:55 - 1:58
    Może widzieliście w "Forbes" anegdotę
  • 1:58 - 2:02
    o tym, jak Target wysłał nastolatce ulotkę
  • 2:02 - 2:06
    z kuponami na butelki, pieluchy i kołyski,
  • 2:06 - 2:09
    zanim jeszcze powiedziała
    rodzicom o ciąży.
  • 2:10 - 2:13
    Ojciec dziewczyny bardzo się zdenerwował,
  • 2:13 - 2:16
    bo skąd Target wiedział o ciąży licealistki
  • 2:16 - 2:18
    wcześniej, niż jej rodzice?
  • 2:18 - 2:21
    Okazało się, że Target ma historie zakupów
  • 2:21 - 2:23
    setek tysięcy klientów
  • 2:23 - 2:25
    i tworzy "punktację ciążową".
  • 2:25 - 2:28
    Wie, nie tylko, czy kobieta jest w ciąży,
  • 2:28 - 2:29
    ale zna też termin porodu.
  • 2:29 - 2:32
    Sklep nie tworzy punktacji
    na podstawie oczywistych zakupów,
  • 2:32 - 2:35
    jak ubranek dla dziecka, czy kołyski,
  • 2:35 - 2:36
    ale na podstawie tego,
  • 2:36 - 2:40
    że kobieta kupiła więcej witamin
    niż zazwyczaj
  • 2:40 - 2:41
    albo kupiła wielką torbę,
  • 2:41 - 2:43
    która pomieści pieluchy.
  • 2:43 - 2:47
    Pojedyncze zakupy niewiele mówią,
  • 2:47 - 2:49
    ale stanowią wzór,
  • 2:49 - 2:53
    który w kontekście zakupów tysięcy ludzi
  • 2:53 - 2:55
    może wiele ujawniać.
  • 2:55 - 2:57
    Tym się właśnie zajmujemy,
  • 2:57 - 2:59
    analizując media społecznościowe.
  • 2:59 - 3:02
    Szukamy wzorców zachowań,
  • 3:02 - 3:05
    które, jeśli dotyczą milionów ludzi,
  • 3:05 - 3:07
    mówią nam bardzo wiele.
  • 3:07 - 3:11
    W laboratorium ja i moi koledzy
    opracowujemy sposoby,
  • 3:11 - 3:13
    dzięki którym możemy ustalić
  • 3:13 - 3:14
    wasze poglądy polityczne,
  • 3:14 - 3:18
    charakter, płeć, orientację seksualną,
  • 3:18 - 3:21
    wyznanie, wiek, iloraz inteligencji,
  • 3:21 - 3:26
    poziom ufności i trwałość związków.
  • 3:26 - 3:28
    Możemy to precyzyjnie określić.
  • 3:28 - 3:30
    Podkreślam, że nie poznajemy odpowiedzi
  • 3:30 - 3:33
    na podstawie oczywistych informacji.
  • 3:33 - 3:35
    Mój ulubiony przykład pochodzi
  • 3:35 - 3:37
    z zeszłorocznego sprawozdania
    National Academies,
  • 3:37 - 3:39
    można je znaleźć w Google.
  • 3:39 - 3:41
    Cztery strony, przyjemnie się czyta.
  • 3:41 - 3:45
    Dotyczy ono analizy polubień na Facebooku.
  • 3:45 - 3:50
    Użyto ich do określenia pewnych cech.
  • 3:50 - 3:53
    W sprawozdaniu zawarto pięć polubień,
  • 3:53 - 3:55
    które świadczą
    o wysokiej inteligencji użytkownika.
  • 3:55 - 3:58
    Wśród nich było polubienie strony
    spiralnych frytek.
  • 3:58 - 3:59
    (Śmiech)
  • 3:59 - 4:01
    Spiralne frytki są pyszne,
  • 4:01 - 4:06
    ale nie tylko geniusze je lubią.
  • 4:06 - 4:11
    Jak to możliwe, że polubienie tej strony
  • 4:11 - 4:12
    świadczy o inteligencji,
  • 4:12 - 4:14
    skoro jej zawartość
  • 4:14 - 4:17
    nijak ma się do cechy, na którą wskazuje?
  • 4:17 - 4:21
    Tę zależność tłumaczy
  • 4:21 - 4:23
    kilka podstawowych teorii.
  • 4:23 - 4:26
    Jedną z nich jest teoria homofilii,
  • 4:26 - 4:29
    według której lubimy ludzi takich, jak my.
  • 4:29 - 4:31
    Mądrzy przyjaźnią się z innymi mądrymi,
  • 4:31 - 4:33
    a młodzi z młodymi.
  • 4:33 - 4:37
    Wiadomo o tym od dawna.
  • 4:37 - 4:41
    Wiemy też, jak informacje krążą w sieci.
  • 4:41 - 4:45
    Okazuje się, że popularne filmy,
    facebookowe "lajki" i inne informacje
  • 4:45 - 4:47
    rozprzestrzeniają się
    w sieciach społecznościowych
  • 4:47 - 4:49
    identycznie jak choroby.
  • 4:49 - 4:51
    Długo to analizowaliśmy
  • 4:51 - 4:53
    i stworzyliśmy rzetelne modele.
  • 4:53 - 4:55
    Można skojarzyć ze sobą fakty
  • 4:55 - 4:58
    i już wiadomo, dlaczego tak się stało.
  • 4:58 - 5:03
    Moja hipoteza jest taka, że autor strony,
  • 5:03 - 5:05
    albo jeden z pierwszych fanów,
  • 5:05 - 5:07
    jest bardzo inteligentny.
  • 5:07 - 5:09
    Ktoś polubił stronę,
    jego znajomi to zauważyli.
  • 5:09 - 5:11
    Zgodnie z teorią homofilii,
  • 5:11 - 5:13
    znajomi też byli inteligentni.
  • 5:13 - 5:15
    Niektórzy polubili stronę,
  • 5:15 - 5:17
    mieli bystrych znajomych
    i ci również ją polubili.
  • 5:17 - 5:19
    Link do strony krążył po sieci,
  • 5:19 - 5:21
    trafiał do inteligentnych ludzi
  • 5:21 - 5:23
    i koniec końców
  • 5:23 - 5:27
    polubienie strony spiralnych frytek
  • 5:27 - 5:28
    wskazywało na inteligencję,
  • 5:28 - 5:30
    nie ze względu na jej treść,
  • 5:30 - 5:32
    ale przez samą czynność,
  • 5:32 - 5:35
    która ujawniała wspólne cechy
    fanów strony.
  • 5:37 - 5:39
    Skomplikowane?
  • 5:39 - 5:41
    Trudno to wyjaśnić
  • 5:41 - 5:43
    przeciętnemu użytkownikowi Internetu.
  • 5:43 - 5:44
    Nawet jeśli się uda,
  • 5:44 - 5:46
    to co on może zrobić w tej sytuacji?
  • 5:46 - 5:49
    Skąd macie wiedzieć, że polubiliście coś,
  • 5:49 - 5:50
    wskazującego na konkretną cechę
  • 5:50 - 5:53
    niezwiązaną z zawartością strony?
  • 5:53 - 5:56
    Użytkownicy nie mają kontroli nad tym,
  • 5:56 - 5:59
    jak wykorzystuje się ich dane.
  • 5:59 - 6:01
    To duży problem.
  • 6:02 - 6:05
    Chcemy rozważyć metody pozwalające
  • 6:05 - 6:08
    na przekazanie kontroli nad ich danymi,
  • 6:08 - 6:11
    bo przecież nie zawsze są pozyskiwane
    dla naszego dobra.
  • 6:11 - 6:13
    Często mówię,
  • 6:13 - 6:15
    że jeżeli znudzi mi się bycie profesorem,
  • 6:15 - 6:16
    mogę założyć firmę,
  • 6:16 - 6:18
    badającą cechy użytkowników Internetu,
  • 6:18 - 6:20
    to czy dobrze pracują w grupach,
  • 6:20 - 6:22
    nadużywają narkotyków lub alkoholu.
  • 6:22 - 6:24
    Wiem co wskazuje na te cechy.
  • 6:24 - 6:25
    Sprzedawałabym raporty
  • 6:25 - 6:27
    firmom konsultingowym
  • 6:27 - 6:30
    lub wielkim korporacjom.
  • 6:30 - 6:33
    Mogłabym zacząć od zaraz,
  • 6:33 - 6:35
    a wy nie mielibyście kontroli nad tym,
  • 6:35 - 6:37
    co robię z waszymi danymi.
  • 6:37 - 6:39
    To według mnie duży problem.
  • 6:39 - 6:41
    Jednym z rozwiązań
  • 6:41 - 6:43
    jest skupienie się na aspekcie prawnym.
  • 6:43 - 6:46
    W teorii to skuteczne rozwiązanie,
  • 6:46 - 6:49
    jednak praktycznie, właściwie niemożliwe.
  • 6:49 - 6:52
    Znając procesy prawne,
  • 6:52 - 6:54
    wydaje się mało prawdopodobne,
  • 6:54 - 6:56
    że zbierze się grupa polityków,
  • 6:56 - 6:58
    gotowych zgłębić problem
  • 6:58 - 7:02
    i radykalnie zmienić
    prawo własności intelektualnej w USA,
  • 7:02 - 7:04
    żeby użytkownicy zarządzali swoimi danymi.
  • 7:04 - 7:06
    Wyjściem może być polityka prywatności.
  • 7:06 - 7:08
    Serwisy twierdzą,
    że dane są waszą własnością,
  • 7:08 - 7:11
    sami decydujecie, jak się je wykorzystuje.
  • 7:11 - 7:14
    Problem w tym, że większość
    serwisów społecznościowych
  • 7:14 - 7:16
    zarabia na wykorzystywaniu
  • 7:16 - 7:18
    i przekazywaniu danych o użytkownikach.
  • 7:18 - 7:23
    O korzystających z Facebooka mówi się,
    że nie są konsumentami, ale towarem.
  • 7:23 - 7:28
    Jak sprawić, żeby firmy
    oddały użytkownikom kontrolę
  • 7:28 - 7:29
    nad najcenniejszym zasobami?
  • 7:29 - 7:33
    To możliwe, ale nieprędko tak się stanie.
  • 7:34 - 7:36
    Jest trzecie rozwiązanie,
  • 7:36 - 7:37
    dużo skuteczniejsze.
  • 7:37 - 7:39
    Rozwiązanie naukowe.
  • 7:39 - 7:42
    Chodzi o te same procesy,
  • 7:42 - 7:45
    z pomocą których pozyskaliśmy dane.
  • 7:45 - 7:48
    Trzeba by przeprowadzić podobne badania,
  • 7:48 - 7:51
    żeby opracować mechanizmy,
  • 7:51 - 7:55
    mówiące użytkownikom, na co się narażają.
  • 7:55 - 7:57
    Dzięki temu, że polubiliście
    stronę na Facebooku
  • 7:57 - 8:00
    albo podzieliliście się faktem z życia,
  • 8:00 - 8:03
    mogę wywnioskować, czy bierzecie narkotyki
  • 8:03 - 8:06
    albo czy jesteście lubiani w pracy.
  • 8:06 - 8:07
    To wpływa na wybory ludzi,
  • 8:07 - 8:09
    czy chcą się czymś podzielić,
  • 8:09 - 8:12
    czy zatrzymać to dla siebie.
  • 8:12 - 8:14
    Można też przyjrzeć się
  • 8:14 - 8:17
    metodom szyfrowania przesyłanych danych,
  • 8:17 - 8:18
    żeby były niewidoczne
  • 8:18 - 8:20
    i nie miały wartości dla Facebooka
  • 8:20 - 8:23
    czy innych firm.
  • 8:23 - 8:27
    Dostęp do danych mieliby tylko użytkownicy
  • 8:27 - 8:28
    wskazani przez nas.
  • 8:28 - 8:32
    To wyzwanie dla naukowców,
  • 8:32 - 8:34
    ale oni chętnie podejmują wyzwania,
  • 8:34 - 8:38
    w przeciwieństwie do polityków.
  • 8:38 - 8:41
    Niektórzy zwracają uwagę na to,
  • 8:41 - 8:44
    że jeżeli ludzie zaczną zatajać dane,
  • 8:44 - 8:47
    to metody, których używam
    do wyznaczania cech użytkowników
  • 8:47 - 8:48
    będą bezużyteczne.
  • 8:48 - 8:50
    Jasne, że tak,
  • 8:50 - 8:53
    ale dla mnie to będzie zwycięstwo.
  • 8:53 - 8:54
    Jestem naukowcem
  • 8:54 - 8:57
    i nie chcę zdobywać danych użytkowników,
  • 8:57 - 9:00
    ale poprawiać ich komunikację w sieci.
  • 9:00 - 9:03
    Czasami trzeba w tym celu zdobyć dane,
  • 9:03 - 9:06
    ale nie powinniśmy tego robić
  • 9:06 - 9:08
    wbrew ich woli.
  • 9:08 - 9:11
    Chcę, żeby ludzie wiedzieli
    o narzędziach, nad jakimi pracujemy
  • 9:11 - 9:13
    i zgadzali się na ich stosowanie.
  • 9:13 - 9:17
    Wspieranie starań naukowców,
  • 9:17 - 9:19
    którzy chcą, aby kontrolę nad danymi
  • 9:19 - 9:21
    sprawowali użytkownicy,
  • 9:21 - 9:23
    a nie media społecznościowe,
  • 9:23 - 9:25
    oznacza, że wraz z rozwojem narzędzi,
  • 9:25 - 9:27
    umożliwiających ten proces
  • 9:27 - 9:30
    powstanie społeczeństwo
    świadomych internautów,
  • 9:30 - 9:31
    a chyba wszyscy uważamy,
  • 9:31 - 9:33
    że to wymarzona sytuacja.
  • 9:33 - 9:35
    Dziękuję.
  • 9:35 - 9:37
    (Brawa)
Title:
Zagadka spiralnych frytek, czyli dlaczego polubienia na portalach społecznościowych mówią o nas więcej niż się wydaje
Speaker:
Jennifer Golbeck
Description:

Lubicie spiralne frytki? Polubiliście je na Facebooku? Po obejrzeniu tego filmu przekonacie się, jakich zaskakujących rzeczy Facebook (i inne portale) może się o was dowiedzieć na podstawie historii polubień. Jennifer Golbeck zdradza jak to się dzieje. Opowiada o mrocznej stronie technologii i o tym, czemu kontrola nad danymi w sieci powinna wrócić do użytkowników.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01
  • Po poprawkach tłumaczenie było całkiem niezłe, chociaż nadal było kilka podzielonych linijek poniżej 42 znaków, brakowało przecinków i zdarzały się bardzo zagmatwane zdania, niemniej jednak na pewno było lepiej niż przed poprawkami. A poza tym:

    Uważaj na powtórzenia! W ferworze tłumaczenia często używa się tych samych słów kilka razy, tym bardziej, że w języku angielskim pewne rodzaje powtórzeń są na porządku dziennym. W tłumaczeniu trzeba zastępować powtarzające się słowa synonimami. Żeby mieć pewność, że wszystko jest ok, najlepiej na koniec jeszcze raz przeczytać i obejrzeć prelekcję.

    Błędy nieuwagi – literówki, znalazłam jakąś wielką literę po przecinku, kropka zamiast znaku zapytania na końcu pytania, brak braw na końcu mimo, że są w transkrypcji

    „Lajki” powinny być w cudzysłowie. Poza tym trochę nadużywasz tego słowa.

    Nie zaczynaj zdań od spójników. Po angielsku prawie każde zdanie zaczyna się od „So” albo „And”, ale po polsku to nie brzmi dobrze i niepotrzebnie przedłuża napisy. Spokojnie można pominąć w tłumaczeniu spójniki na początku zdania.

    Jeśli napisy są krótkie i nie przekraczają czasu wyświetlania, a tworzą jedno zdanie, to można je połączyć, bo wtedy łatwiej się czyta. Lepiej unikać sytuacji gdzie zdanie jest rozbite na wiele napisów (szczególnie długie zdania na, na przykład, 4-7 napisów), bo wtedy trudniej trzyma się wątek. Był nawet jeden napis na tyle krótki, że pojawiał się wykrzyknik. Swoją drogą, przed tym jak prześlesz prelekcję do korekty, wszystkie wykrzykniki powinny zniknąć. I skoro nie dzielimy napisów poniżej 42 znaków na dwie linijki, to jeśli nie ma takiej potrzeby, nie dzielimy ich na dwa napisy.

    Staraj się dzielić napisy w naturalnych miejscach, tam gdzie bierzesz oddech, tam, gdzie są przecinki.

    Czytaj to, co piszesz. Oto kilka kwiatków, które znalazłam: oraz to jak to czy mocno ufacie ludziom, ale do poprawiać komunikacji w sieci. – totalnie nie po polsku, a do tego bez przecinków. Albo: Ktoś dał lajka, jego znajomi zauważyli to. – to nie jest takie złe, ale „to” jest w złym miejscu i oczywiście są lajki. Ja wiem, że normalnie byś tak nie napisała, tylko coś poprawiałaś i nie zauważyłaś, że gdzieś dalej jest inna forma i coś nie gra, ale właśnie o to mi chodzi, żebyś czytała, sprawdzała i poprawiała takie rzeczy.

    Viral videos to nie marketing wirusowy, tylko „zaraźliwe filmy”, czyli po prostu popularne, takie, które szybko rozprzestrzeniają się w sieci.

    I na koniec w sumie drobiazg. Wedle zamieniłam na według, bo wedle to raczej wersja literacka, a na TEDzie wygrywa język mówiony.
    http://translations.ted.org/wiki/Cz%C4%99ste_b%C5%82%C4%99dy_i_jak_ich_unika%C4%87#Styl

    Podsumowując – sprawdzaj, sprawdzaj i jeszcze raz sprawdzaj, a tłumaczenia będą perfekcyjne ;)

    Weronika

Polish subtitles

Revisions