Return to Video

Загадка спиральной картошки фри: Почему лайки в соцсетях говорят больше, чем вы думаете

  • 0:01 - 0:03
    Если вы помните первое десятилетие
    всемирной паутины,
  • 0:03 - 0:05
    это было неподвижное пространство.
  • 0:05 - 0:07
    Вы могли подключиться,
    вы могли просматривать страницы,
  • 0:07 - 0:10
    которые создавались либо организациями,
  • 0:10 - 0:11
    у которых были специалисты,
  • 0:11 - 0:13
    либо пользователями,
  • 0:13 - 0:15
    технически подкованными
    для того времени.
  • 0:15 - 0:17
    С появлением социальных медиа
  • 0:17 - 0:19
    и социальных сетей в начале 2000-х
  • 0:19 - 0:21
    паутина полностью изменилась
    и стала местом,
  • 0:21 - 0:25
    где подавляющее большинство содержимого,
  • 0:25 - 0:28
    с которым мы взаимодействуем,
    загружено обычными пользователями,
  • 0:28 - 0:31
    например, видео в YouTube,
    записи в блогах,
  • 0:31 - 0:34
    обзоры товаров или записи в соцсетях.
  • 0:34 - 0:37
    Также она стала
    куда более интерактивной:
  • 0:37 - 0:39
    люди взаимодействуют друг с другом,
  • 0:39 - 0:41
    они комментируют, они делятся,
  • 0:41 - 0:43
    а не просто читают.
  • 0:43 - 0:44
    «Фэйсбук» — не единственное место,
    где вы можете это делать,
  • 0:44 - 0:46
    но самое крупное
  • 0:46 - 0:47
    и оно даёт представление о цифрах.
  • 0:47 - 0:51
    «Фэйсбуком» пользуются
    1,2 миллиарда человек в месяц.
  • 0:51 - 0:53
    Половина Интернет-населения Земли
  • 0:53 - 0:54
    использует «Фэйсбук».
  • 0:54 - 0:56
    Это сайт, который, как и многие другие,
  • 0:56 - 1:00
    позволяет людям создавать онлайн образ
  • 1:00 - 1:01
    почти без технических знаний,
  • 1:01 - 1:04
    и люди пользуются этим, размещая онлайн
  • 1:04 - 1:06
    огромные массивы персональных данных.
  • 1:06 - 1:08
    В результате у нас есть поведенческие,
  • 1:08 - 1:10
    демографические данные,
    данные о предпочтениях
  • 1:10 - 1:12
    для сотен миллионов людей,
  • 1:12 - 1:14
    что беспрецедентно в истории.
  • 1:14 - 1:17
    Как учёному
    в области вычислительной техники,
  • 1:17 - 1:19
    мне это дало возможность
    построить модели,
  • 1:19 - 1:21
    которые могут предсказывать все виды
    скрытых атрибутов для всех вас,
  • 1:21 - 1:23
    информацию о которых вы раскрываете,
  • 1:23 - 1:25
    даже не догадываясь об этом.
  • 1:25 - 1:28
    Как учёные,
    мы используем это, чтобы улучшить
  • 1:28 - 1:30
    онлайн взаимодействие людей,
  • 1:30 - 1:32
    однако существуют менее
    альтруистические приложения,
  • 1:32 - 1:35
    и проблема в том, что пользователи
  • 1:35 - 1:37
    не понимают эти методики
    и как они работают.
  • 1:37 - 1:40
    И даже если бы понимали,
    они не могут ими полностью управлять.
  • 1:40 - 1:42
    Сегодня я хочу поговорить с вами
  • 1:42 - 1:45
    о некоторых из тех вещей,
    что мы способны делать,
  • 1:45 - 1:47
    и затем поделиться несколькими идеями
    того, как мы могли бы
  • 1:47 - 1:50
    передать управление частично
    обратно в руки пользователей.
  • 1:50 - 1:52
    Это «Таргет», компания.
  • 1:52 - 1:53
    Я не просто так
    разместила их логотип
  • 1:53 - 1:55
    на животе этой беременной женщины.
  • 1:55 - 1:57
    Вы могли видеть эту забавную историю,
  • 1:57 - 1:59
    напечатанную в журнале «Форбс»,
    когда «Таргет»
  • 1:59 - 2:02
    отправил 15-летней девушке флаер
  • 2:02 - 2:03
    с рекламой и купонами
  • 2:03 - 2:06
    бутылочек, подгузников
    и детских кроваток
  • 2:06 - 2:07
    за две недели до того,
    как она сказала родителям
  • 2:07 - 2:09
    о своей беременности.
  • 2:09 - 2:12
    Да, папа был сильно расстроен.
  • 2:12 - 2:14
    Он сказал: «Как “Таргет” узнал,
  • 2:14 - 2:16
    что эта старшеклассница беременна
  • 2:16 - 2:18
    до того, как она сказала родителям?»
  • 2:18 - 2:20
    Оказывается, у них есть история покупок
  • 2:20 - 2:22
    сотен тысяч потребителей,
    и они рассчитывают
  • 2:22 - 2:25
    так называемый индекс беременности,
  • 2:25 - 2:28
    который не просто показывает,
    беременна женщина или нет,
  • 2:28 - 2:29
    а когда ей предстоит рожать.
  • 2:29 - 2:31
    Они не вычисляют его,
  • 2:31 - 2:32
    глядя на очевидные вещи
  • 2:32 - 2:35
    типа покупки
    детской кроватки или одежды.
  • 2:35 - 2:38
    Они видят, что девушка купила витаминов
  • 2:38 - 2:39
    больше, чем обычно,
  • 2:39 - 2:41
    или купила сумку,
  • 2:41 - 2:43
    в которую помещаются подгузники.
  • 2:43 - 2:45
    Сами по себе эти покупки вроде бы
  • 2:45 - 2:47
    и не говорят о многом,
  • 2:47 - 2:49
    однако существует поведенческий шаблон,
  • 2:49 - 2:52
    который можно применить в контексте
    тысяч других людей,
  • 2:52 - 2:55
    и уже он начинает показывать кое-что.
  • 2:55 - 2:57
    Так что же именно мы делаем,
  • 2:57 - 2:59
    когда предсказываем вещи
    о вас в соцсетях.
  • 2:59 - 3:02
    Мы ищем крошечные поведенческие шаблоны,
  • 3:02 - 3:05
    которые, если обнаружить их
    среди миллионов людей,
  • 3:05 - 3:07
    позволяют нам узнать буквально всё.
  • 3:07 - 3:09
    В моей лаборатории мы с коллегами
  • 3:09 - 3:11
    разработали механизмы,
    которые позволяют нам
  • 3:11 - 3:13
    достаточно точно предсказывать
  • 3:13 - 3:14
    ваши политические предпочтения,
  • 3:14 - 3:18
    ваш индекс личности,
    пол, сексуальную ориентацию,
  • 3:18 - 3:21
    религию, возраст, интеллект,
  • 3:21 - 3:22
    а также
  • 3:22 - 3:24
    насколько вы доверяете людям,
    которых вы знаете,
  • 3:24 - 3:26
    и насколько сильны эти взаимоотношения.
  • 3:26 - 3:28
    Мы можем делать всё это очень хорошо.
  • 3:28 - 3:30
    Ещё раз, это всё не возникает из данных,
  • 3:30 - 3:32
    которые вы привыкли считать очевидными.
  • 3:32 - 3:34
    Мой любимый пример можно найти в работе,
  • 3:34 - 3:36
    опубликованной в этом году
  • 3:36 - 3:37
    в Известиях Национальных Академий.
  • 3:37 - 3:39
    Если вы погуглите, то найдёте её.
  • 3:39 - 3:41
    Всего четыре страницы, легко читать.
  • 3:41 - 3:44
    Они исследовали
    только лайки людей в «Фэйсбуке»,
  • 3:44 - 3:45
    только те вещи,
    которые вам понравились в «Фэйсбуке»,
  • 3:45 - 3:48
    и использовали эти данные для предсказания
    всех перечисленных атрибутов,
  • 3:48 - 3:49
    а также некоторых других.
  • 3:49 - 3:52
    В своей работе
    они перечислили пять лайков,
  • 3:52 - 3:55
    которые больше всего служили признаком
    высокого интеллекта.
  • 3:55 - 3:57
    Одним из этих лайков была страница
  • 3:57 - 3:59
    спирального картофеля фри. (Смех)
  • 3:59 - 4:01
    Спиральный картофель фри прелестен,
  • 4:01 - 4:04
    но если он вам нравится,
    это ещё не означает
  • 4:04 - 4:06
    что вы умнее среднего.
  • 4:06 - 4:09
    Как же так вышло,
    что одним из сильнейших
  • 4:09 - 4:11
    индикаторов вашего интеллекта
  • 4:11 - 4:12
    является лайк этой страницы,
  • 4:12 - 4:14
    в то время как её содержимое
    абсолютно не соответствует
  • 4:14 - 4:17
    предсказываемому атрибуту?
  • 4:17 - 4:19
    Оказывается, необходимо рассмотреть
  • 4:19 - 4:20
    целый ряд основополагающих теорий,
  • 4:20 - 4:23
    чтобы увидеть,
    почему мы можем это сделать.
  • 4:23 - 4:26
    Одной из них является социологическая
    теория под названием гемофильность,
  • 4:26 - 4:29
    которая гласит, что люди дружат
    с людьми, похожими на них.
  • 4:29 - 4:31
    Если вы умны, то стремитесь
    дружить с умными людьми,
  • 4:31 - 4:33
    если вы юны, то стремитесь
    дружить с молодыми людьми,
  • 4:33 - 4:35
    и это хорошо установлено
  • 4:35 - 4:37
    на протяжении столетий.
  • 4:37 - 4:38
    Мы также много знаем о том,
  • 4:38 - 4:41
    как информация
    распространяется по сетям.
  • 4:41 - 4:42
    Оказывается, что такие вещи,
    как вирусные видео
  • 4:42 - 4:45
    или лайки в Фэйсбук,
    или другая информация,
  • 4:45 - 4:47
    распространяются в точности так же,
  • 4:47 - 4:49
    как болезни распространяются в соцсетях.
  • 4:49 - 4:51
    Мы изучали это
    на протяжении длительного времени.
  • 4:51 - 4:52
    У нас есть хорошие модели.
  • 4:52 - 4:55
    Вы можете соединить эти вещи
  • 4:55 - 4:58
    и начать видеть,
    почему происходят такие штуки.
  • 4:58 - 4:59
    В качестве гипотезы я бы предложила вам,
  • 4:59 - 5:03
    что некто умный создал эту страницу,
  • 5:03 - 5:05
    или может быть один из тех,
    кому она понравилась первой,
  • 5:05 - 5:06
    имел высокий интеллект.
  • 5:06 - 5:09
    Она понравилась им,
    их друзья увидели это,
  • 5:09 - 5:12
    из гемофильности мы знаем, что
    у него, вероятно, умные друзья.
  • 5:12 - 5:15
    Это распространилось на них,
    некоторым из них понравилось,
  • 5:15 - 5:16
    у них тоже умные друзья.
  • 5:16 - 5:17
    Это распространилось на них,
  • 5:17 - 5:19
    и распространялось по сети
  • 5:19 - 5:21
    массе умных людей,
  • 5:21 - 5:23
    в результате чего лайк
  • 5:23 - 5:26
    страницы со спиральным картофелем фри
  • 5:26 - 5:28
    является индикатором
    высокого интеллекта,
  • 5:28 - 5:29
    не из-за содержимого,
  • 5:29 - 5:32
    но из-за того, что это действие, лайк,
  • 5:32 - 5:34
    отражает общие атрибуты
  • 5:34 - 5:36
    других людей,
    которые тоже совершили его.
  • 5:36 - 5:39
    Довольно сложно, да?
  • 5:39 - 5:41
    Тяжело сесть и объяснить это
  • 5:41 - 5:44
    среднему пользователю,
    и даже если это сделать,
  • 5:44 - 5:46
    что сможет сделать средний пользователь?
  • 5:46 - 5:48
    Как вы узнаете,
    что вам понравилось что-то,
  • 5:48 - 5:50
    что указывает
    на свойство вашей личности,
  • 5:50 - 5:53
    которое совершенно не имеет отношения
    к содержимому того, что вам понравилось?
  • 5:53 - 5:56
    У пользователей почти нет возможности
  • 5:56 - 5:58
    управлять использованием этих данных.
  • 5:58 - 6:01
    Мне это видится
    большой проблемой в будущем.
  • 6:01 - 6:03
    Я думаю, есть пара решений,
  • 6:03 - 6:04
    которые следует рассмотреть,
  • 6:04 - 6:06
    если мы хотим дать пользователям
    возможность частично управлять
  • 6:06 - 6:08
    тем, как используются эти данные,
  • 6:08 - 6:10
    потому что не во всех случаях они будут
  • 6:10 - 6:11
    использоваться для их выгоды.
  • 6:11 - 6:13
    Я часто привожу такой пример:
  • 6:13 - 6:14
    если мне когда-нибудь
    надоест быть профессором,
  • 6:14 - 6:16
    я создам компанию,
  • 6:16 - 6:17
    которая предсказывает все эти атрибуты
  • 6:17 - 6:19
    и вещи типа того, насколько хорошо
    вы работаете в командах,
  • 6:19 - 6:22
    являетесь ли вы
    наркоманом или алкоголиком.
  • 6:22 - 6:23
    Мы знаем, как всё это предсказать.
  • 6:23 - 6:25
    Я буду продавать отчёты
  • 6:25 - 6:27
    компаниям по найму персонала
    и большим корпорациям,
  • 6:27 - 6:29
    которые хотят вас нанять.
  • 6:29 - 6:31
    Мы безусловно можем делать это сейчас.
  • 6:31 - 6:32
    Я могла бы начать этот бизнес завтра,
  • 6:32 - 6:34
    и у вас не было бы абсолютно
    никакого контроля за мной
  • 6:34 - 6:36
    в плане подобного
    использования ваших данных.
  • 6:36 - 6:39
    Для меня это выглядит как проблема.
  • 6:39 - 6:41
    Одно из решений,
    которое мы можем использовать,
  • 6:41 - 6:43
    это путь политики и закона.
  • 6:43 - 6:46
    В некотором отношении, я думаю,
    он был бы наиболее эффективным,
  • 6:46 - 6:49
    но проблема в том, что мы
    фактически должны сделать это.
  • 6:49 - 6:51
    Наблюдение за нашим
    политическим процессом в действии
  • 6:51 - 6:54
    заставляет меня думать,
    что крайне маловероятно
  • 6:54 - 6:55
    собрать вместе группу представителей
  • 6:55 - 6:57
    для изучения данной проблемы
  • 6:57 - 6:59
    и затем кардинально поменять
  • 6:59 - 7:02
    законы США
    об интеллектуальной собственности,
  • 7:02 - 7:04
    чтобы пользователи
    управляли своими данными.
  • 7:04 - 7:05
    Мы могли бы пойти путём
    норм использования данных,
  • 7:05 - 7:07
    когда компании-владельцы соцсетей
    говорят:
  • 7:07 - 7:08
    «Знаете что? Вы владеете своими данными.
  • 7:08 - 7:11
    У вас полный контроль
    за тем, как они используются».
  • 7:11 - 7:13
    Проблема в том, что модели доходов
  • 7:13 - 7:14
    большинства этих компаний
  • 7:14 - 7:18
    основываются на совместном использовании
    или эксплуатации данных пользователей.
  • 7:18 - 7:20
    Иногда в «Фэйсбук»
    говорят, что пользователи
  • 7:20 - 7:23
    не являются потребителем,
    они являются товаром.
  • 7:23 - 7:25
    Как вы заставите компанию
  • 7:25 - 7:28
    передать права на их основное имущество
  • 7:28 - 7:29
    обратно пользователям?
  • 7:29 - 7:31
    Это возможно, но я не думаю, что
  • 7:31 - 7:33
    мы увидим это изменение быстро.
  • 7:33 - 7:35
    Я думаю, что другой способ,
  • 7:35 - 7:37
    который мы можем использовать
    и который будет более эффективным,
  • 7:37 - 7:38
    это — больше науки.
  • 7:38 - 7:41
    Во-первых,
    именно занятие наукой позволило нам
  • 7:41 - 7:43
    создать все эти механизмы для расчёта
  • 7:43 - 7:45
    персональных данных.
  • 7:45 - 7:47
    Очень похожие исследования
  • 7:47 - 7:48
    необходимо провести
  • 7:48 - 7:51
    для разработки механизмов,
  • 7:51 - 7:52
    которые могут сказать пользователю:
  • 7:52 - 7:54
    «Вот риск от действия, которое вы
    только что предприняли».
  • 7:54 - 7:56
    Поставив лайк этой странице «Фэйсбук»,
  • 7:56 - 7:59
    раскрыв этот кусочек
    персональных данных,
  • 7:59 - 8:00
    вы улучшили мою возможность
  • 8:00 - 8:03
    предсказать, используете ли вы наркотики
  • 8:03 - 8:05
    или насколько хорошо вы ладите
    с коллегами на рабочем месте.
  • 8:05 - 8:07
    Это, я полагаю, может повлиять на то,
  • 8:07 - 8:09
    захотят ли пользователи делиться чем-то,
  • 8:09 - 8:12
    скрыть от публики
    или вообще не размещать в сети.
  • 8:12 - 8:14
    Мы также можем
    посмотреть на такие вещи, как
  • 8:14 - 8:16
    предоставление пользователям возможности
    шифрования загружаемых ими данных,
  • 8:16 - 8:18
    чтобы они были, своего рода, невидимыми
    и бесполезными
  • 8:18 - 8:20
    для сайтов типа «Фэйсбук»
  • 8:20 - 8:22
    или сторонних служб,
    которые имеют доступ к ним,
  • 8:22 - 8:25
    но чтобы при этом избранные пользователи,
    которых добавил человек,
  • 8:25 - 8:28
    разместивший информацию,
    могли её видеть.
  • 8:28 - 8:30
    Это очень увлекательное исследование
  • 8:30 - 8:32
    с интеллектуальной точки зрения,
  • 8:32 - 8:34
    поэтому учёные
    захотят выполнить его.
  • 8:34 - 8:37
    Это даёт нам преимущество
    над стороной закона.
  • 8:37 - 8:39
    Одна из проблем,
    о которой люди заявляют,
  • 8:39 - 8:41
    когда я рассказываю об этом —
    они говорят:
  • 8:41 - 8:43
    «Если люди начнут
    прятать все эти данные,
  • 8:43 - 8:45
    все эти методы,
    которые вы разрабатываете
  • 8:45 - 8:48
    для предсказания их черт характера,
    не будут работать».
  • 8:48 - 8:52
    Я отвечаю: «Совершенно верно,
    и для меня — это успех».
  • 8:52 - 8:53
    Поскольку, как у учёного, моей целью
  • 8:53 - 8:57
    не является
    строить догадки о пользователях,
  • 8:57 - 9:00
    а является улучшение того,
    как люди взаимодействуют онлайн.
  • 9:00 - 9:03
    Иногда это включает в себя
    построение догадок о них,
  • 9:03 - 9:06
    но если пользователи не хотят,
    чтобы я использовала эти данные,
  • 9:06 - 9:08
    я думаю, у них должно быть
    право отказать мне.
  • 9:08 - 9:11
    Я хочу, чтобы пользователи
    знали и были согласны
  • 9:11 - 9:13
    на использование инструментов,
    которые мы разрабатываем.
  • 9:13 - 9:16
    Я думаю, что поощрение этого типа науки
  • 9:16 - 9:17
    и поддержка исследователей,
  • 9:17 - 9:20
    которые хотят передать часть управления
    обратно пользователям
  • 9:20 - 9:23
    от компаний-владельцев соцсетей,
  • 9:23 - 9:25
    означает, что в будущем,
    по мере развития
  • 9:25 - 9:27
    и усложнения этих инструментов,
  • 9:27 - 9:28
    у нас будут образованные
  • 9:28 - 9:30
    и правомочные пользователи.
  • 9:30 - 9:31
    И я думаю, что все мы согласимся,
  • 9:31 - 9:33
    что это идеальный путь в будущее.
  • 9:33 - 9:36
    Спасибо.
  • 9:36 - 9:39
    (Аплодисменты)
Title:
Загадка спиральной картошки фри: Почему лайки в соцсетях говорят больше, чем вы думаете
Speaker:
Дженнифер Голбек
Description:

Вам нравится спиральная картошка фри? Вы ставили ей лайк в «Фэйсбук»? Посмотрите этот доклад, чтобы узнать о поразительных вещах, которые «Фэйсбук» (и другие) могут угадать о вас на основе того, что вам нравится и чем вы делитесь. Учёный в области вычислительной техники, Дженнифер Голбек объясняет, как это стало возможным, почему некоторые приложения данной технологии не такие уж и милые и почему она считает, что управление информацией следует передать в руки её законных владельцев.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Russian subtitles

Revisions Compare revisions