Return to Video

Главоблъсканицата на къдравите пържени картофи: Защо харесванията в социалните медии казва много повече, отколкото предполагате.

  • 0:01 - 0:03
    Ако си спомнята първото
    десетилетие на интернета,
  • 0:03 - 0:05
    това беше много статично място.
  • 0:05 - 0:07
    Можеше да отидеш онлайн, да разгледаш страници,
  • 0:07 - 0:10
    които са качени от организации,
  • 0:10 - 0:11
    направени от техните екипи,
  • 0:11 - 0:13
    или от хора, които са много технически грамотни
  • 0:13 - 0:15
    за времето си.
  • 0:15 - 0:17
    С появата на социалните медии
  • 0:17 - 0:19
    и социалните мрежи в началото на 21 век,
  • 0:19 - 0:21
    мрежата напълно се промени
  • 0:21 - 0:25
    и стана място, където по-голямата
    част от съдържанието,
  • 0:25 - 0:28
    с което се сблъскваме, е качено от
    обикновените потребители,
  • 0:28 - 0:31
    или под формата на видеа в YouTube,
    или блог постове,
  • 0:31 - 0:34
    или отзиви за продукт, или постове
    в социалните медии.
  • 0:34 - 0:37
    Тя стана много по-интерактивно място,
  • 0:37 - 0:39
    където хората общуват помежду си,
  • 0:39 - 0:41
    коментират, споделят,
  • 0:41 - 0:43
    не само четат.
  • 0:43 - 0:44
    Facebook не е единственото място,
    където можете да правите това,
  • 0:44 - 0:46
    но е най-голямото,
  • 0:46 - 0:47
    и служи като пример за бройката.
  • 0:47 - 0:51
    Facebook има 1,2 милиарда потребители
    всеки месец.
  • 0:51 - 0:53
    Половината от интернет населението на Земята
  • 0:53 - 0:54
    използва Facebook.
  • 0:54 - 0:56
    Това е сайт, който както някои други,
  • 0:56 - 1:00
    позволява на хората да създадат
    онлайн персонаж
  • 1:00 - 1:01
    с много малко технически умения,
  • 1:01 - 1:04
    и хората реагираха като качиха
    огромни количества
  • 1:04 - 1:06
    лични данни онлайн.
  • 1:06 - 1:08
    В резултат имаме поведенчески,
  • 1:08 - 1:10
    преференциални и демографски данни
  • 1:10 - 1:12
    на хиляди милиони хора,
  • 1:12 - 1:14
    което е без прецедент в историята.
  • 1:14 - 1:17
    Като компютърен специалист,
    това означава, че
  • 1:17 - 1:19
    имам възможността да изградя модели,
  • 1:19 - 1:21
    които могат да предскажат всякакви
    видове скрити атрибути
  • 1:21 - 1:23
    за всички вас, за които дори не знаете,
  • 1:23 - 1:25
    че споделяте информация.
  • 1:25 - 1:28
    Като учени, ние използваме това
    за да подпомогнем
  • 1:28 - 1:30
    начина, по който хората общуват онлайн,
  • 1:30 - 1:32
    но има и не толкова алтруистични приложения.
  • 1:32 - 1:35
    Това е проблем, тъй като потребителите
  • 1:35 - 1:37
    не разбират напълно тези техники
    и как те работят,
  • 1:37 - 1:40
    дори и да разбираха, те нямат
    особено голям контрол върху тях.
  • 1:40 - 1:42
    Така че това, за което искам да говоря,
  • 1:42 - 1:45
    са нещата, които сме способни да направим,
  • 1:45 - 1:47
    и да ви дам няколко идеи
    как да подходим,
  • 1:47 - 1:50
    така че да върнем част от контрола
    в ръцете на потребителите.
  • 1:50 - 1:52
    Това е Target, компанията.
  • 1:52 - 1:53
    Не случайно сложих логото
  • 1:53 - 1:55
    на корема на горката бременна жена.
  • 1:55 - 1:57
    Може да знаете за този анекдот,
    който беше публикуван
  • 1:57 - 1:59
    в списание Forbes, в който Target
  • 1:59 - 2:02
    изпратили на едно 15-годишно момиче брошура
  • 2:02 - 2:03
    с реклами и купони за намаление
  • 2:03 - 2:06
    на бебешки бутилки, памперси и детски креватчета
  • 2:06 - 2:07
    две седмици преди да каже на родителите си,
  • 2:07 - 2:09
    че е бременна.
  • 2:09 - 2:12
    Да, бащата бил много разстроен.
  • 2:12 - 2:14
    Той казал: "Как Target могат да знаят,
  • 2:14 - 2:16
    че една ученичка е бременна,
  • 2:16 - 2:18
    преди тя да е казала на родителите си?"
  • 2:18 - 2:20
    Оказва се, че те имат историята на покупките
  • 2:20 - 2:22
    на стотици хиляди клиенти
  • 2:22 - 2:25
    и изчисляват нещо, което наричат
    резултат на бременност,
  • 2:25 - 2:28
    което не е просто дали
    жената е бременна или не.
  • 2:28 - 2:29
    а кога е терминът й.
  • 2:29 - 2:31
    Изчисляват това
  • 2:31 - 2:32
    не като гледат очевидните неща,
  • 2:32 - 2:35
    като това, че е купила детско
    креватче или бебешки дрехи,
  • 2:35 - 2:38
    а неща като това дали е купила повече витамини,
  • 2:38 - 2:39
    отколкото по принцип,
  • 2:39 - 2:41
    или си е купила чанта,
  • 2:41 - 2:43
    достатъчно голяма за да събере памперси.
  • 2:43 - 2:45
    Сами по себе си тези покупки не изглеждат
  • 2:45 - 2:47
    да разкриват особено много,
  • 2:47 - 2:49
    но това е модел на поведение, който
  • 2:49 - 2:52
    сложен в контекста на хиляди хора,
  • 2:52 - 2:55
    разкрива определена информация.
  • 2:55 - 2:57
    Това е видът на нещата, които правим,
  • 2:57 - 2:59
    когато предсказваме неща
    за вас, чрез социалните медии.
  • 2:59 - 3:02
    Търсим малки модели на поведение, които
  • 3:02 - 3:05
    когато са засечени сред милиони хора,
  • 3:05 - 3:07
    ни позволяват да открием всякакви неща.
  • 3:07 - 3:09
    В моята лаборатория с колегите
  • 3:09 - 3:11
    разработихме механизъм, при който
  • 3:11 - 3:13
    с точност можем да определим неща
  • 3:13 - 3:14
    като политическите ви предпочитания,
  • 3:14 - 3:18
    характера, пола, сексуалната ориентация,
  • 3:18 - 3:21
    религията, възрастта, интелекта
  • 3:21 - 3:22
    както и други неща като
  • 3:22 - 3:24
    колко вярвате на хората, които познавате,
  • 3:24 - 3:26
    и колко са силни връзките ви с тях.
  • 3:26 - 3:28
    Можем да правим това много добре.
  • 3:28 - 3:30
    И отново, това не произлиза
  • 3:30 - 3:32
    от очевидната информация.
  • 3:32 - 3:34
    Любимият ми пример е от проучване
  • 3:34 - 3:36
    публикувано тази година
  • 3:36 - 3:37
    в Бюлетина на националните академии.
  • 3:37 - 3:39
    Ако потърсите в Google, ще го намерите.
  • 3:39 - 3:41
    Четири страници е, лесно за четене.
  • 3:41 - 3:44
    Разгледали какво хората харесват във Facebook,
  • 3:44 - 3:45
    само нещата, които харесвате във Facebook,
  • 3:45 - 3:48
    и използвали това за да предскажат
    всички тези атрибути,
  • 3:48 - 3:49
    както и някои други.
  • 3:49 - 3:52
    В проучването те описват петте харесвания,
  • 3:52 - 3:55
    които най-добре показват висок интелект.
  • 3:55 - 3:57
    Сред тях е това да харесаш страница
  • 3:57 - 3:59
    за къдрави пържени картофки. (Смях)
  • 3:59 - 4:01
    Къдравите пържени картофки са вкусни,
  • 4:01 - 4:04
    но това да ги харесваш не значи непременно,
  • 4:04 - 4:06
    че си по-умен от средностатистическия човек.
  • 4:06 - 4:09
    Тогава как така един от най-силните показатели
  • 4:09 - 4:11
    за вашия интелект
  • 4:11 - 4:12
    е да харесате страница,
  • 4:12 - 4:14
    в която съдържанието е абсолютно несвързано
  • 4:14 - 4:17
    с атрибута, който е предсказан?
  • 4:17 - 4:19
    Оказва се, че трябва да разгледам
  • 4:19 - 4:20
    голям брой свързани теории
  • 4:20 - 4:23
    за да разберем как е възможно това.
  • 4:23 - 4:26
    Една от тях е социологическа
    теория наречена хомофилия,
  • 4:26 - 4:29
    която твърди, че хората са
    приятели с хора, с които си приличат.
  • 4:29 - 4:31
    Така че ако сте умни, имате склонност
    да сте приятели с умни хора,
  • 4:31 - 4:33
    ако сте млади, имате склонност
    да сте приятели с млади хора,
  • 4:33 - 4:35
    и това е силно утвърдено
  • 4:35 - 4:37
    от стотици години насам.
  • 4:37 - 4:38
    Също така знаем много
  • 4:38 - 4:41
    за това как информацията
    се разпространява в общностите.
  • 4:41 - 4:42
    Оказва се, че неща като "вирусни" видеоклипове,
  • 4:42 - 4:45
    Facebook харесвания и друга информация,
  • 4:45 - 4:47
    се разпространява точно по същия начин,
  • 4:47 - 4:49
    както болестите се разпространяват
    в социалните общностни.
  • 4:49 - 4:51
    Така че това е нещо, което изучаваме от много време.
  • 4:51 - 4:52
    Имаме добри модели за него.
  • 4:52 - 4:55
    Така че може да съберем тези неща заедно
  • 4:55 - 4:58
    и да разберем защо се случват такива неща.
  • 4:58 - 4:59
    Ако трябва да изложа хипотеза,
  • 4:59 - 5:03
    тя би била, че някой умен човек е създал страницата,
  • 5:03 - 5:05
    или някой от първите хора, които са я харесали
  • 5:05 - 5:06
    би получил висок резултат на този тест.
  • 5:06 - 5:09
    Те са я харесали и техните приятели са видяли,
  • 5:09 - 5:12
    заради хомофилията знаем, че вероятно
    той е имал умни приятели,
  • 5:12 - 5:15
    тя се е разпространила между тях,
    някои от тях са я харесали,
  • 5:15 - 5:16
    те са имали умни приятели,
  • 5:16 - 5:17
    стигнала е и до тях,
  • 5:17 - 5:19
    и така се е разпространила в мрежата
  • 5:19 - 5:21
    до цял куп умни хора,
  • 5:21 - 5:23
    и накрая, действието
  • 5:23 - 5:26
    на харесване на страницата за къдрави картофки,
  • 5:26 - 5:28
    става показателна за висок интелект,
  • 5:28 - 5:29
    не заради съдържанието,
  • 5:29 - 5:32
    а защото самото действие на харесване
  • 5:32 - 5:34
    отразява съвместните атрибути
  • 5:34 - 5:36
    на други хора, които са го направили.
  • 5:36 - 5:39
    Доста сложно, нали?
  • 5:39 - 5:41
    Трудно е да го обясниш
  • 5:41 - 5:44
    на средностатистическия потребител,
    и дори да го направиш,
  • 5:44 - 5:46
    какво може да направи той по въпроса?
  • 5:46 - 5:48
    Как може да знаеш, че си харесал нещо,
  • 5:48 - 5:50
    което показва твоя отличителна черта,
  • 5:50 - 5:53
    когато то няма нищо общо със
    съдържанието на това, което си харесал?
  • 5:53 - 5:56
    Има много власт, която потребители не притежават,
  • 5:56 - 5:58
    за контролирането на това как
    се използват тези данни.
  • 5:58 - 6:01
    За мен това е сериозен нарастващ проблем.
  • 6:01 - 6:03
    Така че мисля, че има няколко варианта,
  • 6:03 - 6:04
    които можем да разгледаме,
  • 6:04 - 6:06
    ако искаме да дадем на потребителите
    част от контрола
  • 6:06 - 6:08
    върху използването на тези данни,
  • 6:08 - 6:10
    защото те не винаги ще бъдат използвани
  • 6:10 - 6:11
    в тяхна полза.
  • 6:11 - 6:13
    Пример, който често давам,
  • 6:13 - 6:14
    е, че ако някога се отегча от това да съм професор,
  • 6:14 - 6:16
    ще основа компания,
  • 6:16 - 6:17
    която предсказва всички тези атрибути
  • 6:17 - 6:19
    и неща като това колко добре работиш в екип,
  • 6:19 - 6:22
    дали ползваш наркотици, дали си алкохолик.
  • 6:22 - 6:23
    Знаем как да предскажем всичко това.
  • 6:23 - 6:25
    И ще продавам доклади
  • 6:25 - 6:27
    на компаниите за набиране на персонал
    и големите бизнеси,
  • 6:27 - 6:29
    които искат да ви назначат.
  • 6:29 - 6:31
    В момента това е абсолютно постижимо.
  • 6:31 - 6:32
    Мога да започна този бизнес още утре,
  • 6:32 - 6:34
    а вие няма да имате абсолютно никакъв контрол,
  • 6:34 - 6:36
    върху използването на вашите данни.
  • 6:36 - 6:39
    На мен това ми изглежда като проблем.
  • 6:39 - 6:41
    Така че единият вариант е,
  • 6:41 - 6:43
    вариантът на политиката и закона.
  • 6:43 - 6:46
    До някаква степен смятам, че той ще е най-ефективен,
  • 6:46 - 6:49
    но проблемът е, че ще трябва да го изпълним.
  • 6:49 - 6:51
    Наблюдавайки политическите ни процеси в действие,
  • 6:51 - 6:54
    си мисля, че е малко вероятно
  • 6:54 - 6:55
    да накараме група представители
  • 6:55 - 6:57
    да седнат, да се запознаят с това
  • 6:57 - 6:59
    и да вкарат в действие радикални промени
  • 6:59 - 7:02
    в закона за интелектуалната собственост в САЩ,
  • 7:02 - 7:04
    така че потребителите да контролират данните си.
  • 7:04 - 7:05
    Можем да тръгнем по пътя на политиката,
  • 7:05 - 7:07
    при която социалните медии да кажат:
  • 7:07 - 7:08
    "Знаете ли какво, вие притежавате данните си.
  • 7:08 - 7:11
    Имате контрол върху това как се използват."
  • 7:11 - 7:13
    Проблемът е, че приходите
  • 7:13 - 7:14
    на повечето социални медии
  • 7:14 - 7:18
    зависят от някакъв вид споделяне
    и експлоатирането на потребителски данни.
  • 7:18 - 7:20
    Понякога казват за Facebook, че потребителите
  • 7:20 - 7:23
    не са клиентите, а са продуктът.
  • 7:23 - 7:25
    Тогава как да накараме една компания
  • 7:25 - 7:28
    да даде контрола върху основните си активи
  • 7:28 - 7:29
    обратно на потребителите?
  • 7:29 - 7:31
    Възможно е, но не мисля, че това е нещо,
  • 7:31 - 7:33
    което ще видим да се случи скоро.
  • 7:33 - 7:35
    Така че мисля, че другият вариант,
  • 7:35 - 7:37
    който ще бъде по-ефективен,
  • 7:37 - 7:38
    е този на повечето наука.
  • 7:38 - 7:41
    Да се занимаваме с науката,
    която ни е позволила да развием
  • 7:41 - 7:43
    всички тези механизми за изчисляване
  • 7:43 - 7:45
    на личните данни.
  • 7:45 - 7:47
    Всъщност е много подобно проучване,
  • 7:47 - 7:48
    на това което трябва да направим,
  • 7:48 - 7:51
    за да разработим механизми,
  • 7:51 - 7:52
    които могат да кажат на потребителя
  • 7:52 - 7:54
    "Ето това е рискът, от действието,
    което току що предприе."
  • 7:54 - 7:56
    Харесвайки тази Фейсбук страница
  • 7:56 - 7:59
    или споделяйки тази лична информация,
  • 7:59 - 8:00
    ти току що подобри способността ми
  • 8:00 - 8:03
    да предскажа дали използваш наркотици или не
  • 8:03 - 8:05
    или дали се разбираш добре или не
    с колегите на работа.
  • 8:05 - 8:07
    Това смятам, че може да повлияе върху решението
  • 8:07 - 8:09
    на хората дали искат да споделят нещо,
  • 8:09 - 8:12
    да го запазят лично или въобще да не го качват.
  • 8:12 - 8:14
    Можем да разгледаме и варианти, които
  • 8:14 - 8:16
    биха позволили на хората да криптират данните,
    които качват,
  • 8:16 - 8:18
    така че да са един вид невидими и безполезни
  • 8:18 - 8:20
    за страници като Фейсбук
  • 8:20 - 8:22
    или допълнителни услуги, които ги достъпват,
  • 8:22 - 8:25
    но да са видими за избрани потребители,
    за които този, който е публикувал информацията,
  • 8:25 - 8:28
    иска тя да бъде видима.
  • 8:28 - 8:30
    Това е изключително проучване
  • 8:30 - 8:32
    от интелектуална гледна точка
  • 8:32 - 8:34
    и учените са склонни да го направят.
  • 8:34 - 8:37
    Това му дава предимство пред законовият подход.
  • 8:37 - 8:39
    Един от проблемите, които се повдигат,
  • 8:39 - 8:41
    когато говоря за това е следният:
  • 8:41 - 8:43
    Знаеш ли, когато хората започнат да
    пазят цялата информация като лична,
  • 8:43 - 8:45
    тогава всички тези методи, които си разработил
  • 8:45 - 8:48
    за да предсказваш заплахите, ще се провалят.
  • 8:48 - 8:52
    А аз отговарям: Абсолютно! И аз мен, това е успех,
  • 8:52 - 8:53
    защото като учен,
  • 8:53 - 8:57
    моята цел не е да разбирам информация
    за потребителите,
  • 8:57 - 9:00
    а да подобря начина, по който
    взаимодействат онлайн.
  • 9:00 - 9:03
    Понякога това включва събиране
    на информация за тях,
  • 9:03 - 9:06
    но ако потребителите не искат да
    използвам тази информация,
  • 9:06 - 9:08
    смятам, че трябва да имат правото да ми забранят.
  • 9:08 - 9:11
    Искам потребителите да бъдат
    информирани и осъзнати
  • 9:11 - 9:13
    потребители на механизмите, които разработваме.
  • 9:13 - 9:16
    Смятам, че окуражавайки този вид наука
  • 9:16 - 9:17
    и подкрепяйки изследователите,
  • 9:17 - 9:20
    които искат да върнат част от контрола
    обратно на потребителите
  • 9:20 - 9:23
    и далеч от компаниите за социални медии,
  • 9:23 - 9:25
    означава да вървим напред и докато
    тези механизми се развиват
  • 9:25 - 9:27
    и напредват,
  • 9:27 - 9:28
    това означава, че ние ще имаме образована
  • 9:28 - 9:30
    и упълномощена потребителска база
  • 9:30 - 9:31
    и смятам, че всеки от нас би се съгласил,
  • 9:31 - 9:33
    че това е съвсем идеален начин да вървим напред.
  • 9:33 - 9:36
    Благодаря ви.
  • 9:36 - 9:39
    (Аплодисменти)
Title:
Главоблъсканицата на къдравите пържени картофи: Защо харесванията в социалните медии казва много повече, отколкото предполагате.
Speaker:
Дженифър Голдбек
Description:

Харесвате ли къдрави пържени картофи? Харесали ли сте ги във Фейсбук? Гледайте това представяне за да откриете изненадващи неща, които Фейсбук (и други) могат да отгатнат за вас от произволни харесвания и споделяния. Компютърният специалист Дженифър Голдбек обяснява как някои приложения на технологиите не са чак толкова симпатични -- и защо тя смята, че контрола върху информацията трябва да се върне на законните собственици

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Bulgarian subtitles

Revisions