Return to Video

Загадка спіральної картоплі-фрі: Чому "вподобання" у соціальних мережах розповідають про вас більше, ніж ви собі гадаєте

  • 0:01 - 0:03
    Як ви, можливо, пам'ятаєте, перші
    десять років глобальна мережа
  • 0:03 - 0:05
    була доволі статичним місцем.
  • 0:05 - 0:07
    Можна було зайти в Інтернет,
    переглядати сайти,
  • 0:07 - 0:10
    що їх створювали або організації,
  • 0:10 - 0:11
    де для цього були окремі команди,
  • 0:11 - 0:13
    або люди, справді технічно просунуті
  • 0:13 - 0:15
    за тодішніми мірками.
  • 0:15 - 0:17
    Та з розквітом соціальних медіа
  • 0:17 - 0:19
    й соціальних мереж на початку двотисячних
  • 0:19 - 0:21
    Інтернет враз перетворився
  • 0:21 - 0:23
    на місце, де переважну більшість контенту,
  • 0:24 - 0:26
    з котрим ми маємо справу, створюють
    пересічні користувачі -
  • 0:29 - 0:31
    це відео на YouTube та дописи в блогах,
  • 0:31 - 0:34
    відгуки споживачів і дописи в соціальних медіа.
  • 0:34 - 0:37
    Заразом Інтернет став
    значно інтерактивнішим місцем,
  • 0:37 - 0:39
    де люди взаємодіють між собою,
  • 0:39 - 0:41
    коментують і діляться,
  • 0:41 - 0:43
    а не лише читають.
  • 0:43 - 0:44
    Так, Facebook - не єдине місце,
    де це можна робити,
  • 0:44 - 0:46
    але воно найбільше,
  • 0:46 - 0:47
    варто лишень поглянути на статистику.
  • 0:47 - 0:51
    Facebook має 1,2 мільярди
    користувачів на місяць.
  • 0:51 - 0:53
    Тож половина жителів планети,
    які мають доступ до Інтернету,
  • 0:53 - 0:54
    користуються Facebook.
  • 0:54 - 0:56
    Це один з сайтів,
  • 0:56 - 1:00
    що дав змогу людям створити
    собі онлайн-особистість,
  • 1:00 - 1:01
    маючи мінімальні технічні навички,
  • 1:01 - 1:04
    й люди зреагували, виклавши
    величезні обсяги
  • 1:04 - 1:06
    персональних даних онлайн.
  • 1:06 - 1:08
    Як наслідок, ми маємо інформацію
  • 1:08 - 1:10
    про поведінку, вподобання,
    демографічні дані
  • 1:10 - 1:12
    сотень мільйонів людей -
  • 1:12 - 1:14
    вперше в історії людства.
  • 1:14 - 1:17
    Для мене, як фахівця у галузі
    комп'ютерних технологій,
  • 1:17 - 1:19
    це значить, що тепер я можу
    створювати моделі,
  • 1:19 - 1:21
    що прогнозуватимуть
    всілякі приховані тенденції
  • 1:21 - 1:23
    на основі інформації,
  • 1:23 - 1:25
    яку ви поширюєте.
  • 1:25 - 1:28
    Науковці використовують ці моделі,
  • 1:28 - 1:30
    щоб удосконалити нашу з вами
    взаємодію в мережі,
  • 1:30 - 1:32
    але не всі мають
    такі альтруїстичні наміри,
  • 1:32 - 1:35
    до того ж, є одна проблема -
    користувачі не зовсім
  • 1:35 - 1:37
    розуміють, як працюють ці технології,
  • 1:37 - 1:40
    а навіть якби розуміли,
    вони все одно не мають над ними контролю.
  • 1:40 - 1:42
    Отож, сьогодні поговоримо
  • 1:42 - 1:45
    про те, що ми можемо
    робити з цими даними,
  • 1:45 - 1:47
    а потім поміркуємо, як
  • 1:47 - 1:50
    повернути частковий контроль
    у руки користувачів.
  • 1:50 - 1:52
    Ось компанія Target.
  • 1:52 - 1:53
    Я розмістила її логотип
  • 1:53 - 1:55
    на животі цієї бідолашної
    вагітної жінки не просто так.
  • 1:55 - 1:57
    Можливо, ви читали історію,
  • 1:57 - 1:59
    надруковану в журналі Forbes, про те,
  • 1:59 - 2:02
    що Target надіслала 15-річній дівчині
  • 2:02 - 2:03
    рекламу й купони на знижку
  • 2:03 - 2:06
    на пляшечки, підгузники й дитячі ліжечка
  • 2:06 - 2:07
    за два тижні до того, як та
  • 2:07 - 2:09
    зізналася своїм батькам,
    що вона вагітна.
  • 2:09 - 2:12
    Так, батько дуже засмутився.
  • 2:12 - 2:14
    Він задумався: "А як Target дізнався,
  • 2:14 - 2:16
    що ця школярка вагітна, ще до того,
  • 2:16 - 2:18
    як вона розповіла про це своїм батькам?"
  • 2:18 - 2:20
    Як виявилось, компанія збирає
    історію покупок
  • 2:20 - 2:22
    сотень тисяч своїх клієнтів
  • 2:22 - 2:25
    і вираховує так званий
    "показник вагітності" -
  • 2:25 - 2:28
    не тільки ймовірність,
    вагітна жінка чи ні,
  • 2:28 - 2:29
    а й те, коли саме їй народжувати.
  • 2:29 - 2:31
    Компанія вираховує його
  • 2:31 - 2:32
    не лише на основі очевидних факторів,
  • 2:32 - 2:35
    наприклад, чи купує жінка
    колиску чи одяг для немовляти,
  • 2:35 - 2:38
    а стежить за тим, чи не купила
    вона, бува, більше вітамінів,
  • 2:38 - 2:39
    ніж зазвичай,
  • 2:39 - 2:41
    чи, може, придбала велику сумку,
  • 2:41 - 2:43
    куди вмістяться підгузники.
  • 2:43 - 2:45
    Самі по собі ці покупки
  • 2:45 - 2:47
    не надто інформативні,
  • 2:47 - 2:49
    але якщо взяти
    модель поведінки
  • 2:49 - 2:52
    в масштабі тисяч людей,
  • 2:52 - 2:55
    то вималюється певна картина.
  • 2:55 - 2:57
    Ми займаємось чимось подібним,
  • 2:57 - 2:59
    коли складаємо прогнози на основі
    вашої поведінки в соціальних мережах.
  • 2:59 - 3:02
    Ми вишуковуємо непомітні
    на перший погляд моделі поведінки,
  • 3:02 - 3:05
    які розкажуть багато чого,
  • 3:05 - 3:07
    якщо виявиться, що вони властиві
    мільйонам людей.
  • 3:07 - 3:09
    Ми з колегами з нашої лабораторії
  • 3:09 - 3:11
    розробили механізми, що
    дають нам змогу
  • 3:11 - 3:13
    доволі точно прогнозувати
  • 3:13 - 3:14
    ваші політичні вподобання,
  • 3:14 - 3:18
    особисті характеристики, стать,
    сексуальну орієнтацію,
  • 3:18 - 3:21
    релігію, вік, рівень інтелекту,
  • 3:21 - 3:22
    а також те,
  • 3:22 - 3:24
    наскільки ви довіряєте
    своїм знайомим,
  • 3:24 - 3:26
    і чи міцні ваші взаємини.
  • 3:26 - 3:28
    Нам це вдається досить добре.
  • 3:28 - 3:30
    Знову ж таки, ми не потребуємо
  • 3:30 - 3:32
    так званої очевидної інформації.
  • 3:32 - 3:34
    Мій улюблений приклад -
    із дослідження,
  • 3:34 - 3:36
    описаного в цьогорічному випуску
  • 3:36 - 3:37
    журналу Національної академії наук.
  • 3:37 - 3:39
    Його можна знайти в Google.
  • 3:39 - 3:41
    Там всього чотири сторінки.
  • 3:41 - 3:44
    Автори дослідження проаналізували
  • 3:44 - 3:45
    вподобання людей у Facebook
  • 3:45 - 3:48
    і на основі цього спрогнозували
    всі перелічені мною характеристики,
  • 3:48 - 3:49
    і навіть більше.
  • 3:49 - 3:52
    І в своїй статті вони перерахували
    п'ять вподобань,
  • 3:52 - 3:55
    що найпереконливіше свідчать
    про високий рівень інтелекту.
  • 3:55 - 3:57
    Серед них було вподобання
  • 3:57 - 3:59
    сторінки спіральної
    картоплі-фрі. (Сміх)
  • 3:59 - 4:01
    Спіральна картопля-фрі
    дуже смачна,
  • 4:01 - 4:04
    але якщо ви вподобали
    її сторінку, це не значить,
  • 4:04 - 4:06
    що ви розумніші за інших.
  • 4:06 - 4:09
    Тож як так може бути, що
    найпереконливішим показником
  • 4:09 - 4:11
    рівня вашого інтелекту
  • 4:11 - 4:12
    є вподобання сторінки,
  • 4:12 - 4:14
    вміст якої не має аніякісінького
    стосунку
  • 4:14 - 4:17
    до прогнозованої характеристики?
  • 4:17 - 4:19
    Виявляється, для того,
    щоб зрозуміти це,
  • 4:19 - 4:20
    треба взяти до уваги
  • 4:20 - 4:23
    цілу низку теорій.
  • 4:23 - 4:26
    Однією з них є соціологічна теорія
    під назвою гомофілія,
  • 4:26 - 4:29
    згідно з якою, люди приятелюють
    з тими, хто схожий на них.
  • 4:29 - 4:31
    Тобто якщо ви розумні, скоріш за все,
    ви приятелюватимете з розумними людьми,
  • 4:31 - 4:33
    якщо молоді - дружитимете з молодими,
  • 4:33 - 4:35
    і так триває
  • 4:35 - 4:37
    вже сотні років.
  • 4:37 - 4:38
    Ми також чимало дізналися про те,
  • 4:38 - 4:41
    як інформація поширюється мережею.
  • 4:41 - 4:42
    Виявилось, що вірусні відео,
  • 4:42 - 4:45
    вподобання на Facebook чи інша інформація
  • 4:45 - 4:47
    поширюються точно так само,
  • 4:47 - 4:49
    як хвороби серед людей.
  • 4:49 - 4:51
    Ми це довгий час аналізували.
  • 4:51 - 4:52
    Розробили кілька моделей.
  • 4:52 - 4:55
    Тому тепер можна скласти
    всі чинники докупи
  • 4:55 - 4:58
    й зробити висновок, чому так є.
  • 4:58 - 4:59
    Якби ви запитали мене про це,
  • 4:59 - 5:03
    я б відповіла, що ту сторінку з картоплею
    створив якийсь розумний хлопчина,
  • 5:03 - 5:05
    або той, хто вподобав її одним із перших,
  • 5:05 - 5:06
    має високий рівень інтелекту.
  • 5:06 - 5:09
    Його друзі побачили, що він
    вподобав ту сторінку -
  • 5:09 - 5:12
    а теорія гомофілії каже нам,
    що він має розумних приятелів -
  • 5:12 - 5:15
    і дехто з них і собі її вподобав.
  • 5:15 - 5:16
    Ті люди теж мають
    розумних друзів,
  • 5:16 - 5:17
    які також дізнались про ту сторінку,
  • 5:17 - 5:19
    і так інформація облетіла мережу,
  • 5:19 - 5:21
    поширилась серед розумних людей,
  • 5:21 - 5:23
    і, зрештою, сам факт уподобання
  • 5:23 - 5:26
    сторінки зі спіральною картоплею-фрі
  • 5:26 - 5:28
    став свідчити про
    високий рівень інтелекту.
  • 5:28 - 5:29
    Але не через зміст цієї сторінки,
  • 5:29 - 5:32
    а через те, що сама дія -
    вподобання -
  • 5:32 - 5:34
    свідчить про спільні характеристики
  • 5:34 - 5:36
    людей, які цю дію здійснили.
  • 5:36 - 5:39
    Звучить досить складно, правда ж?
  • 5:39 - 5:41
    Не так легко сісти й пояснити це
  • 5:41 - 5:44
    пересічному користувачеві,
    та й навіть, якщо вам вдасться пояснити,
  • 5:44 - 5:46
    чим типовий користувач зможе
    тут зарадити?
  • 5:46 - 5:48
    Звідки ви можете знати,
    що те, що ви вподобали,
  • 5:48 - 5:50
    свідчить про якусь вашу рису,
  • 5:50 - 5:53
    яка не має жодного стосунку
    до змісту вподобаної вами сторінки?
  • 5:53 - 5:56
    Користувачам не під силу повністю
  • 5:56 - 5:58
    контролювати те, як
    використовують ці дані.
  • 5:58 - 6:01
    І мені здається, що це
    дедалі більша проблема.
  • 6:01 - 6:03
    Існує кілька способів,
  • 6:03 - 6:04
    які варто розглянути,
  • 6:04 - 6:06
    якщо ми хочемо дати користувачам
    частковий контроль над тим,
  • 6:06 - 6:08
    як використовують ці дані,
  • 6:08 - 6:10
    бо це не завжди йде
  • 6:10 - 6:11
    їм на користь.
  • 6:11 - 6:13
    Я часто кажу, що
  • 6:13 - 6:14
    коли мені набридне викладати,
  • 6:14 - 6:16
    я засную компанію,
  • 6:16 - 6:17
    що прогнозуватиме
    різні характеристики,
  • 6:17 - 6:19
    і те, чи ви, наприклад, вмієте
    працювати в команді,
  • 6:19 - 6:22
    чи ви наркоман, чи, може, зловживаєте
    алкоголем.
  • 6:22 - 6:23
    Ми знаємо, як це все прогнозувати.
  • 6:23 - 6:25
    І тоді я розсилатиму звіти
  • 6:25 - 6:27
    у кадрові агенції та великі компанії,
  • 6:27 - 6:29
    що хочуть найняти вас на роботу.
  • 6:29 - 6:31
    Тепер ми спокійно
    можемо це робити.
  • 6:31 - 6:32
    Я можу взятися за це
    хоч завтра,
  • 6:32 - 6:34
    а ви не матимете жодного контролю
  • 6:34 - 6:36
    над тим, як я використовуватиму
    ці дані.
  • 6:36 - 6:39
    Як на мене, це проблема.
  • 6:39 - 6:41
    Отож, один із способів
    їй зарадити -
  • 6:41 - 6:43
    ухвалити правила й закони.
  • 6:43 - 6:46
    На мою думку, цей спосіб -
    найефективніший,
  • 6:46 - 6:49
    але проблема в тому,
    що тут доведеться добре попрацювати.
  • 6:49 - 6:51
    Коли я спостерігаю за
    нашим політичним процесом,
  • 6:51 - 6:54
    то щораз менше впевнена в тому,
  • 6:54 - 6:55
    що нам вдасться залучити
    десяток депутатів,
  • 6:55 - 6:57
    змусити їх сісти й вивчити цю тему,
  • 6:57 - 6:59
    а потім внести кардинальні зміни
  • 6:59 - 7:02
    в закони США про інтелектуальну власність,
  • 7:02 - 7:04
    щоб користувачі могли
    контролювати особисті дані.
  • 7:04 - 7:05
    Можна спробувати ухвалити
    якісь правила,
  • 7:05 - 7:07
    але соціальні медіа заявлять:
  • 7:07 - 7:08
    Знаєте що? Ваші дані належать вам самим.
  • 7:08 - 7:11
    Те, як їх буде використано,
    залежить від вас.
  • 7:11 - 7:13
    Проблема в тому, що дохід
  • 7:13 - 7:14
    більшості соціальних медіа
    залежить від розповсюдження
  • 7:14 - 7:18
    чи використання користувацьких
    даних у певний спосіб.
  • 7:18 - 7:20
    Про Facebook часом кажуть, що
  • 7:20 - 7:23
    користувачі - це не клієнти,
    це - продукт.
  • 7:23 - 7:25
    Тож як змусити компанію
  • 7:25 - 7:28
    повернути контроль над
    своїм найбільшим капіталом
  • 7:28 - 7:29
    назад користувачам?
  • 7:29 - 7:31
    Це можливо, але я не думаю,
  • 7:31 - 7:33
    що ці зміни
    найближчим часом відбудуться.
  • 7:33 - 7:35
    Тому вартує скористатися
  • 7:35 - 7:37
    іншим, ефективнішим, способом -
  • 7:37 - 7:38
    звернутися до науки.
  • 7:38 - 7:41
    Саме наука дала нам змогу
  • 7:41 - 7:43
    створити механізми аналізу
  • 7:43 - 7:45
    особистих даних.
  • 7:45 - 7:47
    І треба провести практично
  • 7:47 - 7:48
    таке саме дослідження,
  • 7:48 - 7:51
    щоб розробити механізми,
  • 7:51 - 7:52
    які попереджатимуть користувача:
  • 7:52 - 7:54
    "Ваші дії - ризиковані".
  • 7:54 - 7:56
    Вподобавши ось цю сторінку на Facebook
  • 7:56 - 7:59
    або поділившись ось цією
    особистою інформацією,
  • 7:59 - 8:00
    ви підвищили мої шанси
  • 8:00 - 8:03
    успішно спрогнозувати, вживаєте
    ви наркотики чи ні,
  • 8:03 - 8:05
    і чи ладнаєте ви зі своїми колегами.
  • 8:05 - 8:07
    Це впливатиме на рішення людей -
  • 8:07 - 8:09
    поділяться вони певною інформацією,
  • 8:09 - 8:12
    зроблять її доступною лише для якогось кола людей,
    чи взагалі не публікуватимуть її в Інтернеті.
  • 8:12 - 8:14
    Можна також дати людям змогу
  • 8:14 - 8:16
    шифрувати дані, які вони
    завантажують в Інтернет,
  • 8:16 - 8:18
    щоб ті були невидимими
    й нічого не вартими
  • 8:18 - 8:20
    для сайтів на кшталт Facebook
  • 8:20 - 8:22
    чи третіх сторін.
  • 8:22 - 8:25
    Доступ до цих даних мали б
  • 8:25 - 8:28
    тільки обрані нами користувачі.
  • 8:28 - 8:30
    Це дослідження страшенно цікаве
  • 8:30 - 8:32
    для науковців, тому
  • 8:32 - 8:34
    вони охоче ним займуться.
  • 8:34 - 8:37
    Отож, піти цим шляхом простіше,
    ніж ухвалювати закони.
  • 8:37 - 8:39
    Коли я говорю на цю тему,
  • 8:39 - 8:41
    то часто чую зауваження:
  • 8:41 - 8:43
    але якщо люди почнуть
    захищати всі свої дані,
  • 8:43 - 8:45
    то методи, які ви розробляєте,
  • 8:45 - 8:48
    щоб прогнозувати їхню поведінку,
    перестануть працювати.
  • 8:48 - 8:52
    Так, перестануть, і це чудово,
  • 8:52 - 8:53
    бо як науковець
  • 8:53 - 8:57
    я не хочу вивідувати інформацію
    про користувачів.
  • 8:57 - 9:00
    Моя мета - поліпшити взаємодію
    людей в Інтернеті.
  • 9:00 - 9:03
    Для цього часом доводиться
    вивідувати якусь інформацію про них,
  • 9:03 - 9:06
    але якщо користувачі не хочуть,
    щоб я скористалась їхніми даними,
  • 9:06 - 9:08
    то вони мусять мати на це право.
  • 9:08 - 9:11
    Я хочу, щоб люди знали,
    які програми ми розробляємо,
  • 9:11 - 9:13
    і давали на це свою згоду.
  • 9:13 - 9:16
    І тому гадаю, що підтримка
    таких наукових розробок
  • 9:16 - 9:17
    і дослідників, які хочуть
  • 9:17 - 9:20
    повернути контроль користувачам,
  • 9:20 - 9:23
    забравши його в соціальних медіа,
  • 9:23 - 9:25
    означає крок уперед.
  • 9:25 - 9:27
    А розробка й вдосконалення
    таких інструментів
  • 9:27 - 9:28
    означає, що користувачі
  • 9:28 - 9:30
    будуть обізнані й матимуть права.
  • 9:30 - 9:31
    І думаю, зі мною всі погодяться,
  • 9:31 - 9:33
    що над цим варто працювати.
  • 9:33 - 9:36
    Дякую.
  • 9:36 - 9:39
    (Оплески)
Title:
Загадка спіральної картоплі-фрі: Чому "вподобання" у соціальних мережах розповідають про вас більше, ніж ви собі гадаєте
Speaker:
Дженніфер Ґолбек
Description:

Вам смакує спіральна картопля-фрі? Ви вже вподобали її сторінку на Facebook? Подивіться цей ролик, щоб дізнатись, які цікаві речі Facebook (та інші) може дізнатися про вас на основі ваших вподобань і поширень, над якими ви не надто задумуєтесь. Дослідник у галузі комп'ютерних технологій Дженніфер Ґолбек розповідає, як це можливо, чому деякі технологічні розробки не такі вже й безневинні - і чому, на її думку, контроль над інформацією треба повернути в руки її законних власників.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Ukrainian subtitles

Revisions