Загадка спіральної картоплі-фрі: Чому "вподобання" у соціальних мережах розповідають про вас більше, ніж ви собі гадаєте
-
0:01 - 0:03Як ви, можливо, пам'ятаєте, перші
десять років глобальна мережа -
0:03 - 0:05була доволі статичним місцем.
-
0:05 - 0:07Можна було зайти в Інтернет,
переглядати сайти, -
0:07 - 0:10що їх створювали або організації,
-
0:10 - 0:11де для цього були окремі команди,
-
0:11 - 0:13або люди, справді технічно просунуті
-
0:13 - 0:15за тодішніми мірками.
-
0:15 - 0:17Та з розквітом соціальних медіа
-
0:17 - 0:19й соціальних мереж на початку двотисячних
-
0:19 - 0:21Інтернет враз перетворився
-
0:21 - 0:23на місце, де переважну більшість контенту,
-
0:24 - 0:26з котрим ми маємо справу, створюють
пересічні користувачі - -
0:29 - 0:31це відео на YouTube та дописи в блогах,
-
0:31 - 0:34відгуки споживачів і дописи в соціальних медіа.
-
0:34 - 0:37Заразом Інтернет став
значно інтерактивнішим місцем, -
0:37 - 0:39де люди взаємодіють між собою,
-
0:39 - 0:41коментують і діляться,
-
0:41 - 0:43а не лише читають.
-
0:43 - 0:44Так, Facebook - не єдине місце,
де це можна робити, -
0:44 - 0:46але воно найбільше,
-
0:46 - 0:47варто лишень поглянути на статистику.
-
0:47 - 0:51Facebook має 1,2 мільярди
користувачів на місяць. -
0:51 - 0:53Тож половина жителів планети,
які мають доступ до Інтернету, -
0:53 - 0:54користуються Facebook.
-
0:54 - 0:56Це один з сайтів,
-
0:56 - 1:00що дав змогу людям створити
собі онлайн-особистість, -
1:00 - 1:01маючи мінімальні технічні навички,
-
1:01 - 1:04й люди зреагували, виклавши
величезні обсяги -
1:04 - 1:06персональних даних онлайн.
-
1:06 - 1:08Як наслідок, ми маємо інформацію
-
1:08 - 1:10про поведінку, вподобання,
демографічні дані -
1:10 - 1:12сотень мільйонів людей -
-
1:12 - 1:14вперше в історії людства.
-
1:14 - 1:17Для мене, як фахівця у галузі
комп'ютерних технологій, -
1:17 - 1:19це значить, що тепер я можу
створювати моделі, -
1:19 - 1:21що прогнозуватимуть
всілякі приховані тенденції -
1:21 - 1:23на основі інформації,
-
1:23 - 1:25яку ви поширюєте.
-
1:25 - 1:28Науковці використовують ці моделі,
-
1:28 - 1:30щоб удосконалити нашу з вами
взаємодію в мережі, -
1:30 - 1:32але не всі мають
такі альтруїстичні наміри, -
1:32 - 1:35до того ж, є одна проблема -
користувачі не зовсім -
1:35 - 1:37розуміють, як працюють ці технології,
-
1:37 - 1:40а навіть якби розуміли,
вони все одно не мають над ними контролю. -
1:40 - 1:42Отож, сьогодні поговоримо
-
1:42 - 1:45про те, що ми можемо
робити з цими даними, -
1:45 - 1:47а потім поміркуємо, як
-
1:47 - 1:50повернути частковий контроль
у руки користувачів. -
1:50 - 1:52Ось компанія Target.
-
1:52 - 1:53Я розмістила її логотип
-
1:53 - 1:55на животі цієї бідолашної
вагітної жінки не просто так. -
1:55 - 1:57Можливо, ви читали історію,
-
1:57 - 1:59надруковану в журналі Forbes, про те,
-
1:59 - 2:02що Target надіслала 15-річній дівчині
-
2:02 - 2:03рекламу й купони на знижку
-
2:03 - 2:06на пляшечки, підгузники й дитячі ліжечка
-
2:06 - 2:07за два тижні до того, як та
-
2:07 - 2:09зізналася своїм батькам,
що вона вагітна. -
2:09 - 2:12Так, батько дуже засмутився.
-
2:12 - 2:14Він задумався: "А як Target дізнався,
-
2:14 - 2:16що ця школярка вагітна, ще до того,
-
2:16 - 2:18як вона розповіла про це своїм батькам?"
-
2:18 - 2:20Як виявилось, компанія збирає
історію покупок -
2:20 - 2:22сотень тисяч своїх клієнтів
-
2:22 - 2:25і вираховує так званий
"показник вагітності" - -
2:25 - 2:28не тільки ймовірність,
вагітна жінка чи ні, -
2:28 - 2:29а й те, коли саме їй народжувати.
-
2:29 - 2:31Компанія вираховує його
-
2:31 - 2:32не лише на основі очевидних факторів,
-
2:32 - 2:35наприклад, чи купує жінка
колиску чи одяг для немовляти, -
2:35 - 2:38а стежить за тим, чи не купила
вона, бува, більше вітамінів, -
2:38 - 2:39ніж зазвичай,
-
2:39 - 2:41чи, може, придбала велику сумку,
-
2:41 - 2:43куди вмістяться підгузники.
-
2:43 - 2:45Самі по собі ці покупки
-
2:45 - 2:47не надто інформативні,
-
2:47 - 2:49але якщо взяти
модель поведінки -
2:49 - 2:52в масштабі тисяч людей,
-
2:52 - 2:55то вималюється певна картина.
-
2:55 - 2:57Ми займаємось чимось подібним,
-
2:57 - 2:59коли складаємо прогнози на основі
вашої поведінки в соціальних мережах. -
2:59 - 3:02Ми вишуковуємо непомітні
на перший погляд моделі поведінки, -
3:02 - 3:05які розкажуть багато чого,
-
3:05 - 3:07якщо виявиться, що вони властиві
мільйонам людей. -
3:07 - 3:09Ми з колегами з нашої лабораторії
-
3:09 - 3:11розробили механізми, що
дають нам змогу -
3:11 - 3:13доволі точно прогнозувати
-
3:13 - 3:14ваші політичні вподобання,
-
3:14 - 3:18особисті характеристики, стать,
сексуальну орієнтацію, -
3:18 - 3:21релігію, вік, рівень інтелекту,
-
3:21 - 3:22а також те,
-
3:22 - 3:24наскільки ви довіряєте
своїм знайомим, -
3:24 - 3:26і чи міцні ваші взаємини.
-
3:26 - 3:28Нам це вдається досить добре.
-
3:28 - 3:30Знову ж таки, ми не потребуємо
-
3:30 - 3:32так званої очевидної інформації.
-
3:32 - 3:34Мій улюблений приклад -
із дослідження, -
3:34 - 3:36описаного в цьогорічному випуску
-
3:36 - 3:37журналу Національної академії наук.
-
3:37 - 3:39Його можна знайти в Google.
-
3:39 - 3:41Там всього чотири сторінки.
-
3:41 - 3:44Автори дослідження проаналізували
-
3:44 - 3:45вподобання людей у Facebook
-
3:45 - 3:48і на основі цього спрогнозували
всі перелічені мною характеристики, -
3:48 - 3:49і навіть більше.
-
3:49 - 3:52І в своїй статті вони перерахували
п'ять вподобань, -
3:52 - 3:55що найпереконливіше свідчать
про високий рівень інтелекту. -
3:55 - 3:57Серед них було вподобання
-
3:57 - 3:59сторінки спіральної
картоплі-фрі. (Сміх) -
3:59 - 4:01Спіральна картопля-фрі
дуже смачна, -
4:01 - 4:04але якщо ви вподобали
її сторінку, це не значить, -
4:04 - 4:06що ви розумніші за інших.
-
4:06 - 4:09Тож як так може бути, що
найпереконливішим показником -
4:09 - 4:11рівня вашого інтелекту
-
4:11 - 4:12є вподобання сторінки,
-
4:12 - 4:14вміст якої не має аніякісінького
стосунку -
4:14 - 4:17до прогнозованої характеристики?
-
4:17 - 4:19Виявляється, для того,
щоб зрозуміти це, -
4:19 - 4:20треба взяти до уваги
-
4:20 - 4:23цілу низку теорій.
-
4:23 - 4:26Однією з них є соціологічна теорія
під назвою гомофілія, -
4:26 - 4:29згідно з якою, люди приятелюють
з тими, хто схожий на них. -
4:29 - 4:31Тобто якщо ви розумні, скоріш за все,
ви приятелюватимете з розумними людьми, -
4:31 - 4:33якщо молоді - дружитимете з молодими,
-
4:33 - 4:35і так триває
-
4:35 - 4:37вже сотні років.
-
4:37 - 4:38Ми також чимало дізналися про те,
-
4:38 - 4:41як інформація поширюється мережею.
-
4:41 - 4:42Виявилось, що вірусні відео,
-
4:42 - 4:45вподобання на Facebook чи інша інформація
-
4:45 - 4:47поширюються точно так само,
-
4:47 - 4:49як хвороби серед людей.
-
4:49 - 4:51Ми це довгий час аналізували.
-
4:51 - 4:52Розробили кілька моделей.
-
4:52 - 4:55Тому тепер можна скласти
всі чинники докупи -
4:55 - 4:58й зробити висновок, чому так є.
-
4:58 - 4:59Якби ви запитали мене про це,
-
4:59 - 5:03я б відповіла, що ту сторінку з картоплею
створив якийсь розумний хлопчина, -
5:03 - 5:05або той, хто вподобав її одним із перших,
-
5:05 - 5:06має високий рівень інтелекту.
-
5:06 - 5:09Його друзі побачили, що він
вподобав ту сторінку - -
5:09 - 5:12а теорія гомофілії каже нам,
що він має розумних приятелів - -
5:12 - 5:15і дехто з них і собі її вподобав.
-
5:15 - 5:16Ті люди теж мають
розумних друзів, -
5:16 - 5:17які також дізнались про ту сторінку,
-
5:17 - 5:19і так інформація облетіла мережу,
-
5:19 - 5:21поширилась серед розумних людей,
-
5:21 - 5:23і, зрештою, сам факт уподобання
-
5:23 - 5:26сторінки зі спіральною картоплею-фрі
-
5:26 - 5:28став свідчити про
високий рівень інтелекту. -
5:28 - 5:29Але не через зміст цієї сторінки,
-
5:29 - 5:32а через те, що сама дія -
вподобання - -
5:32 - 5:34свідчить про спільні характеристики
-
5:34 - 5:36людей, які цю дію здійснили.
-
5:36 - 5:39Звучить досить складно, правда ж?
-
5:39 - 5:41Не так легко сісти й пояснити це
-
5:41 - 5:44пересічному користувачеві,
та й навіть, якщо вам вдасться пояснити, -
5:44 - 5:46чим типовий користувач зможе
тут зарадити? -
5:46 - 5:48Звідки ви можете знати,
що те, що ви вподобали, -
5:48 - 5:50свідчить про якусь вашу рису,
-
5:50 - 5:53яка не має жодного стосунку
до змісту вподобаної вами сторінки? -
5:53 - 5:56Користувачам не під силу повністю
-
5:56 - 5:58контролювати те, як
використовують ці дані. -
5:58 - 6:01І мені здається, що це
дедалі більша проблема. -
6:01 - 6:03Існує кілька способів,
-
6:03 - 6:04які варто розглянути,
-
6:04 - 6:06якщо ми хочемо дати користувачам
частковий контроль над тим, -
6:06 - 6:08як використовують ці дані,
-
6:08 - 6:10бо це не завжди йде
-
6:10 - 6:11їм на користь.
-
6:11 - 6:13Я часто кажу, що
-
6:13 - 6:14коли мені набридне викладати,
-
6:14 - 6:16я засную компанію,
-
6:16 - 6:17що прогнозуватиме
різні характеристики, -
6:17 - 6:19і те, чи ви, наприклад, вмієте
працювати в команді, -
6:19 - 6:22чи ви наркоман, чи, може, зловживаєте
алкоголем. -
6:22 - 6:23Ми знаємо, як це все прогнозувати.
-
6:23 - 6:25І тоді я розсилатиму звіти
-
6:25 - 6:27у кадрові агенції та великі компанії,
-
6:27 - 6:29що хочуть найняти вас на роботу.
-
6:29 - 6:31Тепер ми спокійно
можемо це робити. -
6:31 - 6:32Я можу взятися за це
хоч завтра, -
6:32 - 6:34а ви не матимете жодного контролю
-
6:34 - 6:36над тим, як я використовуватиму
ці дані. -
6:36 - 6:39Як на мене, це проблема.
-
6:39 - 6:41Отож, один із способів
їй зарадити - -
6:41 - 6:43ухвалити правила й закони.
-
6:43 - 6:46На мою думку, цей спосіб -
найефективніший, -
6:46 - 6:49але проблема в тому,
що тут доведеться добре попрацювати. -
6:49 - 6:51Коли я спостерігаю за
нашим політичним процесом, -
6:51 - 6:54то щораз менше впевнена в тому,
-
6:54 - 6:55що нам вдасться залучити
десяток депутатів, -
6:55 - 6:57змусити їх сісти й вивчити цю тему,
-
6:57 - 6:59а потім внести кардинальні зміни
-
6:59 - 7:02в закони США про інтелектуальну власність,
-
7:02 - 7:04щоб користувачі могли
контролювати особисті дані. -
7:04 - 7:05Можна спробувати ухвалити
якісь правила, -
7:05 - 7:07але соціальні медіа заявлять:
-
7:07 - 7:08Знаєте що? Ваші дані належать вам самим.
-
7:08 - 7:11Те, як їх буде використано,
залежить від вас. -
7:11 - 7:13Проблема в тому, що дохід
-
7:13 - 7:14більшості соціальних медіа
залежить від розповсюдження -
7:14 - 7:18чи використання користувацьких
даних у певний спосіб. -
7:18 - 7:20Про Facebook часом кажуть, що
-
7:20 - 7:23користувачі - це не клієнти,
це - продукт. -
7:23 - 7:25Тож як змусити компанію
-
7:25 - 7:28повернути контроль над
своїм найбільшим капіталом -
7:28 - 7:29назад користувачам?
-
7:29 - 7:31Це можливо, але я не думаю,
-
7:31 - 7:33що ці зміни
найближчим часом відбудуться. -
7:33 - 7:35Тому вартує скористатися
-
7:35 - 7:37іншим, ефективнішим, способом -
-
7:37 - 7:38звернутися до науки.
-
7:38 - 7:41Саме наука дала нам змогу
-
7:41 - 7:43створити механізми аналізу
-
7:43 - 7:45особистих даних.
-
7:45 - 7:47І треба провести практично
-
7:47 - 7:48таке саме дослідження,
-
7:48 - 7:51щоб розробити механізми,
-
7:51 - 7:52які попереджатимуть користувача:
-
7:52 - 7:54"Ваші дії - ризиковані".
-
7:54 - 7:56Вподобавши ось цю сторінку на Facebook
-
7:56 - 7:59або поділившись ось цією
особистою інформацією, -
7:59 - 8:00ви підвищили мої шанси
-
8:00 - 8:03успішно спрогнозувати, вживаєте
ви наркотики чи ні, -
8:03 - 8:05і чи ладнаєте ви зі своїми колегами.
-
8:05 - 8:07Це впливатиме на рішення людей -
-
8:07 - 8:09поділяться вони певною інформацією,
-
8:09 - 8:12зроблять її доступною лише для якогось кола людей,
чи взагалі не публікуватимуть її в Інтернеті. -
8:12 - 8:14Можна також дати людям змогу
-
8:14 - 8:16шифрувати дані, які вони
завантажують в Інтернет, -
8:16 - 8:18щоб ті були невидимими
й нічого не вартими -
8:18 - 8:20для сайтів на кшталт Facebook
-
8:20 - 8:22чи третіх сторін.
-
8:22 - 8:25Доступ до цих даних мали б
-
8:25 - 8:28тільки обрані нами користувачі.
-
8:28 - 8:30Це дослідження страшенно цікаве
-
8:30 - 8:32для науковців, тому
-
8:32 - 8:34вони охоче ним займуться.
-
8:34 - 8:37Отож, піти цим шляхом простіше,
ніж ухвалювати закони. -
8:37 - 8:39Коли я говорю на цю тему,
-
8:39 - 8:41то часто чую зауваження:
-
8:41 - 8:43але якщо люди почнуть
захищати всі свої дані, -
8:43 - 8:45то методи, які ви розробляєте,
-
8:45 - 8:48щоб прогнозувати їхню поведінку,
перестануть працювати. -
8:48 - 8:52Так, перестануть, і це чудово,
-
8:52 - 8:53бо як науковець
-
8:53 - 8:57я не хочу вивідувати інформацію
про користувачів. -
8:57 - 9:00Моя мета - поліпшити взаємодію
людей в Інтернеті. -
9:00 - 9:03Для цього часом доводиться
вивідувати якусь інформацію про них, -
9:03 - 9:06але якщо користувачі не хочуть,
щоб я скористалась їхніми даними, -
9:06 - 9:08то вони мусять мати на це право.
-
9:08 - 9:11Я хочу, щоб люди знали,
які програми ми розробляємо, -
9:11 - 9:13і давали на це свою згоду.
-
9:13 - 9:16І тому гадаю, що підтримка
таких наукових розробок -
9:16 - 9:17і дослідників, які хочуть
-
9:17 - 9:20повернути контроль користувачам,
-
9:20 - 9:23забравши його в соціальних медіа,
-
9:23 - 9:25означає крок уперед.
-
9:25 - 9:27А розробка й вдосконалення
таких інструментів -
9:27 - 9:28означає, що користувачі
-
9:28 - 9:30будуть обізнані й матимуть права.
-
9:30 - 9:31І думаю, зі мною всі погодяться,
-
9:31 - 9:33що над цим варто працювати.
-
9:33 - 9:36Дякую.
-
9:36 - 9:39(Оплески)
- Title:
- Загадка спіральної картоплі-фрі: Чому "вподобання" у соціальних мережах розповідають про вас більше, ніж ви собі гадаєте
- Speaker:
- Дженніфер Ґолбек
- Description:
-
Вам смакує спіральна картопля-фрі? Ви вже вподобали її сторінку на Facebook? Подивіться цей ролик, щоб дізнатись, які цікаві речі Facebook (та інші) може дізнатися про вас на основі ваших вподобань і поширень, над якими ви не надто задумуєтесь. Дослідник у галузі комп'ютерних технологій Дженніфер Ґолбек розповідає, як це можливо, чому деякі технологічні розробки не такі вже й безневинні - і чому, на її думку, контроль над інформацією треба повернути в руки її законних власників.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Khrystyna Romashko approved Ukrainian subtitles for Your social media "likes" expose more than you think | ||
Khrystyna Romashko accepted Ukrainian subtitles for Your social media "likes" expose more than you think | ||
Khrystyna Romashko edited Ukrainian subtitles for Your social media "likes" expose more than you think | ||
Khrystyna Romashko edited Ukrainian subtitles for Your social media "likes" expose more than you think | ||
Khrystyna Romashko edited Ukrainian subtitles for Your social media "likes" expose more than you think | ||
Khrystyna Romashko edited Ukrainian subtitles for Your social media "likes" expose more than you think | ||
Khrystyna Romashko edited Ukrainian subtitles for Your social media "likes" expose more than you think | ||
Hanna Leliv edited Ukrainian subtitles for Your social media "likes" expose more than you think |