Return to Video

Discrete probability (crash course, cont.) (14 min)

  • 0:00 - 0:04
    В этой части мы рассмотрим еще несколько видов дискретных вероятностей.
  • 0:04 - 0:07
    Также я хочу напомнить всем, что если вы хотите получить больше информации по данной теме,
  • 0:07 - 0:12
    то вы можете найти ее в Вики-книге (ссылка указана выше). Для начала давайте
  • 0:12 - 0:16
    сделаем быстрое резюме того где мы находимся. Мы говорили что дискретная вероятность всегда определяется
  • 0:16 - 0:21
    через дискретное множество, которое мы обозначаем как U. Обычно для нас,
  • 0:21 - 0:27
    U будет множеством всех N-битных двоичных строк, которые мы обозначим как U={0;1}^n.
  • 0:27 - 0:32
    Распределение вероятностей P по данному множеству U является функцией,
  • 0:32 - 0:37
    которая распределяет на каждый элемент в этом множестве вес в интервале от нуля
  • 0:37 - 0:42
    до единицы, так что сумма всех весов всех элементов множества будет равна единице.
  • 0:42 - 0:47
    Теперь мы должны вспомнить о подмножестве множества U, называемого событием.
  • 0:47 - 0:52
    Мы говорили что вероятность события является суммой всех весов
  • 0:52 - 0:57
    всех элементов события, и также мы говорили что вероятность события есть вещественное
  • 0:57 - 1:02
    число в интервале от нуля до единицы. И я хотел бы напомнить всем, что
  • 1:02 - 1:07
    вероятность всего множества U равна единице, так как сумма всех его весов
  • 1:07 - 1:11
    равна еднице. Далее мы определили что такое случайная переменная. Формально
  • 1:11 - 1:16
    случайной переменнной является функция от множества по некоторым его наборам данных.
  • 1:16 - 1:21
    Но я хочу чтобы вы запомнили что случайная переменная принимает значения в некотором
  • 1:21 - 1:25
    множестве v. И на самом деле слуайная величина определяется распределением на этом множестве v.
  • 1:25 - 1:30
    Следующая концепция которую мы должны рассмотреть называется "независимость". И я
  • 1:30 - 1:34
    собираюсь очень кратко рассказать о ней. Если вы хотите узнать больше, пожалуйста посмотрите
  • 1:34 - 1:38
    ссылку указанную на первом слайде. Итак, мы говорим что два события А и В являются
  • 1:38 - 1:43
    независимыми друг от друга в том случае если вы знаете что событие А произошло, но это вам ни говорит
  • 1:43 - 1:47
    ничего о том произошло событие В или нет. Официально определяя "независимость"
  • 1:47 - 1:52
    мы говорим что вероятность и А и В, а точнее того что оба события произошли,
  • 1:52 - 1:57
    на самом деле равна произведению вероятности события А на вероятность события В.
  • 1:57 - 2:02
    Таким образом произведение вероятностей, в некотором смысле, отображает их сочетание, и
  • 2:02 - 2:06
    отражает тот факт что эти события являются независимыми. И, как я и говорил,
  • 2:06 - 2:11
    если вы хотите узнать больше о них, пожалуйста, посмотрите дополнительный материал.
  • 2:11 - 2:17
    То же самое можно сказать и про случайные переменные. Итак, предположим, что у нас есть две
  • 2:17 - 2:22
    случайных переменных Х и У. Они принимают значения в неком множестве V. Тогда мы говорим, что это случайные
  • 2:22 - 2:27
    переменные являются независимыми, если вероятность того что Х = а, и У = b равна
  • 2:27 - 2:32
    результату умножения этих двух вероятностей. В основном это означает, что даже если вы знаете,
  • 2:32 - 2:38
    что Х = а, то это ничего не говорит вам о значении переменной У. Хорошо, то,
  • 2:38 - 2:43
    что означает это умножение, и опять же, это свойство должно сохраняться для всех А и В в
  • 2:43 - 2:48
    области значений этих случайных переменных. Итак, еще раз, чтобы вы запомнили, если
  • 2:48 - 2:53
    вы не видели это раньше, очень короткий пример. Допустим, что мы смотрим на множество
  • 2:53 - 2:58
    двубитных строк: итк 0, 0, 0, 1, 1, 0, 1, 1. И пускай ми выбираем
  • 2:58 - 3:04
    случайно из этого множества. Хорошо, итак мы выбираем случайно один из четырех элементов
  • 3:04 - 3:08
    с равной вероятностью. Теперь давайте определим две случайных переменных. Х будет представлять
  • 3:08 - 3:14
    младший бит, который был згенерирован, и у будет старшим сгенерированым битом.
  • 3:14 - 3:19
    Итак, я утверждаю, что эти случайные переменные, Х и У, являются независимыми друг от
  • 3:19 - 3:24
    друга. И способ увидеть это интуитивно, это понять, что выбор r
  • 3:24 - 3:29
    равномерен для этих четырех элементов, и в принципе очень похож на подбрасывание монетки.
  • 3:29 - 3:37
    Подбросим монетку два раза. Первый бит отвечает первому броску монетки, а
  • 3:37 - 3:39
    второй бит - второму броску. И, конечно же,
  • 3:39 - 3:43
    существет четыре возможных варианта. Все четыре результата являются не менее вероятными. Воот почему
  • 3:43 - 3:48
    ми получаем равномерное распределение двубитных строк. Теперь, что касается наших переменных Х и У,
  • 3:48 - 3:53
    они независимы. На самом деле, если я скажу вам результаты первого броска, а именно скажу вам
  • 3:53 - 3:57
    значение младшего бита R, тоесть если я расскажу, как упала первая монета, ну понимаете, упала ли она орлом
  • 3:57 - 4:02
    или решкой. Это ничего не скаже вам о результате
  • 4:02 - 4:07
    второго броска. Вот почему интуитивно, вы, воозможно можно было бы ожидать что эти случайные
  • 4:07 - 4:12
    переменные независимы друг от друга. Но формально, мы должны были бы
  • 4:12 - 4:16
    доказать, что, для всех 0 1 пар, вероятностть х = 0 и у = 0, ч = 1 и у = 1, и
  • 4:16 - 4:21
    так далее, эти вероятности перемножаются. Давайте сделаем это для одной из наших пар. Итак,
  • 4:21 - 4:27
    давайте посмотрим на вероятность того, что х = 0 и у = 0. Ну вы видите,
  • 4:27 - 4:31
    что вероятностть того, что х = 0 и у = 0, точнее
  • 4:31 - 4:35
    вероятность того, что r = 00... и какова вероятность того что
  • 4:35 - 4:40
    r = 00? Ну, при равномерном распределении. она на самом деле равна
  • 4:40 - 4:44
    одной четвертой. Это для одного элементя из множества, она равна одной четвертой в этом случае.
  • 4:44 - 4:49
    И вот, на самом деле, эта вероятность - вероятность с умножением, так как,
  • 4:49 - 4:54
    опять же, вероятность того. что х = 0 (вероятность того что младший
  • 4:54 - 4:58
    бит R = 0) эта вероятность = одной второй, так как
  • 4:58 - 5:02
    существет только два таких элемента у которых младший бит равен нулю (10, 00)
  • 5:02 - 5:06
    Два из чтырех элементов дают вам вероятность - одна вторая, и аналогично для
  • 5:06 - 5:11
    вероятности, что У = 0, она так же равна одной второй. Итак, по сути вероятности
  • 5:11 - 5:16
    перемножены. Хорошо, так суть этой независимости (умножение вероятностей) и есть причина, по которой я
  • 5:16 - 5:22
    хотел показать ее вам, так как мы собираемся рассматривать важную особенность XOR, которую
  • 5:22 - 5:27
    мы будем использовать снова и снова. Итак, перед тем как мы поговорим о XOR, позвольте мне сделать очень
  • 5:27 - 5:32
    короткий обзор того, что же такое XOR. Итак, обычно, XOR двух бит означает сумирование
  • 5:32 - 5:38
    этих бит, по модуляру два (mod 2). Итак, просто для того, чтобы убедиться, чо все понимают это
  • 5:38 - 5:43
    одинаково, если у нас есть два бита, итак, 0, 0, 0, 1, 1, 0, 1, 1. Их XOR или истинная таблица
  • 5:43 - 5:48
    XOR"ов является просто сумированием по модуляру 2 (mod 2). Как вы можете увидеть 1+1 равно двум,
  • 5:48 - 5:53
    модулярным двум, что равняется нулю. Итого, это истинная таблица для XOR"ов, и
  • 5:53 - 5:58
    я всегда буду обозначать XOR как кружочек со знаком + внутри него. И тогда, когда я
  • 5:58 - 6:02
    захочу использовать XOR для биовых строк я буду использовать операцию модулярного суммирования по 2,
  • 6:03 - 6:07
    поразрядного. Итак, например, XOR этих двух строк равен 1 1 0, и я думаю
  • 6:07 - 6:12
    я дам вам возможность заполнить оставшиеся места для XOR"ов, просто чтобы убедиться что ми все понимаем это
  • 6:12 - 6:19
    одинаково. Итак, конечно, получается 1, 1, 0, 1. Итак, мы собираемся
  • 6:19 - 6:23
    делать много операций XOR в этом класе. На самом деле, существует классическая шутка, что
  • 6:23 - 6:28
    только думающие криптографы знают, как это сделать, просто проXOR"ить вещи друг с другом. Но я хочу
  • 6:28 - 6:32
    объяснить вам, почему мы видим XOR так часто в криптографии. Дело в том, что XOR
  • 6:32 - 6:36
    имеет очень важную особенность, и эта особенность заключается в следующем. Допустим, что
  • 6:36 - 6:41
    случайная переменная У случайно распределена на {0,1}^n. Так что мы не знаем ничего
  • 6:41 - 6:46
    про распределение У. Но теперь допустим, что мы имеем независимую случайную переменную,
  • 6:46 - 6:51
    которая, так получилось, является равномерно распределенной также по {0, 1}^n. Итак, это
  • 6:51 - 6:56
    очень важно, что Х является равномерной. N не зависит от У. Так что теперь, давайте, определим
  • 6:56 - 7:01
    случайную переменную, которая является результатом XOR между Х и У. Далее я утверждаю, что не важно с чего
  • 7:01 - 7:06
    начинается распределение У, это Z всегда будет равномерной, случайной
  • 7:06 - 7:11
    переменной. Итак, другими словами, если я возьму любое конкретное распределение и я
  • 7:11 - 7:16
    проXOR"ю его с независимой равномерно-случайно величиной, то что я получу в конце будет равномерно-
  • 7:16 - 7:21
    случайной переменной. Хорошо, и это опять является одной из ключевых особенностей, что делает XOR
  • 7:21 - 7:24
    очень полезной для шифрования. ИТак, данный факт на самом деле очень просто доказать,
  • 7:24 - 7:29
    Давайте просто пойдем вперед и сделаем это, давайте просто докажем это для одного бита, тоесть для n = 1.
  • 7:29 - 7:33
    Итак метод которым мы сделаем это - мы будем просто вписывать распределение вероятностей
  • 7:33 - 7:38
    для разных случайных величин. Так что давайте посмотрим, случайная переменная У. Итак,
  • 7:38 - 7:43
    случайная переменная может быть равна либо 0, либо 1. И давайте предположим, что Р0 это вероятность того,
  • 7:43 - 7:47
    что У = 0, и Р1 вероятность того, что перемення = 1. Хорошо, итак
  • 7:47 - 7:52
    это одна из наших таблиц. Похожим образом мы построим таблицу для переменной х.
  • 7:52 - 7:56
    Ну, переменная Х является намного более простой. Это единственная случайная переменная, так что
  • 7:56 - 8:01
    вероятность того, что она = 0, на самом деле равна 1/2. Вероятность того, что она = 1
  • 8:01 - 8:05
    также является одна вторая. Теперь давайте выпишем вероятность для объединения
  • 8:05 - 8:10
    распределений в... другими словами, давайте посмотрим какова вероятнность для разных и
  • 8:10 - 8:14
    общих значений У и Х. Другими словами, насколько вероятно, что У = 0,
  • 8:14 - 8:18
    и при этом Х =0, У =0 и Х = 1, У = 1 и Х = 0, и 1 1. Итак,
  • 8:18 - 8:23
    что мы делаем, так это просто, так как мы предполагаем что переменные являются независимыми, все что
  • 8:23 - 8:27
    мы должны сделать это перемножить вероятности. Таким образом вероятность того, что У = 0
  • 8:27 - 8:31
    является Р0, вероятность того, что Х = 0 - одна вторая. Так
  • 8:31 - 8:37
    соседство, при которм мы получаем 0 0 равно Р0 / 2. Аналогичным образом для пары 1 0
  • 8:37 - 8:42
    мы полчим Р0 деленное на два, для 1 0 мы получим Р1 деленное на два, и для пары 1 1
  • 8:42 - 8:47
    опять таки, вероятность того что у = 1 и х = 1, хорошо, это Р1 умноженное на
  • 8:47 - 8:52
    вероятность того, что х = 1 (которая равна 1/2), так что она равна Р1 поделить на два. Хорошо? Итак, эти
  • 8:52 - 8:58
    четыре.. эти вероятности для разных вариантов Х и У. Так что теперь давайте
  • 8:58 - 9:03
    проанализируем, какова вероятность того, что Z = 0? Ну, вероятность что
  • 9:03 - 9:09
    Z = 0 на самом деле такая же, как вероятность, что, давайте напишем это таким образом,
  • 9:09 - 9:15
    ХY = 00, или XY = 11. Это два возможных случая при которых Z = 0.
  • 9:15 - 9:23
    Так как Z это XOR (Х и У). Итак, на пересечении этих событий, так,
  • 9:23 - 9:30
    это выражение можно просто записать как сумму двух выражений, приведенных выше. Итак,
  • 9:30 - 9:37
    в общем, есть вероятность что ху = 00, а также вероятность того, что ху =
  • 9:38 - 9:43
    = 11. Так что теперь мы можем просто искать эти вероятности в нашей таблице. Так что
  • 9:43 - 9:48
    вероятность что ХУ = 00 это Р0/2 и
  • 9:48 - 9:53
    вероятность что ХУ = 11 это Р1/2. Итак, мы получаем Р0/2
  • 9:53 - 9:59
    + Р1/2, но что мы делаем с ними, что мы знаем про Р0 и Р1? Ну,
  • 9:59 - 10:04
    это распределение вероятностей. Таким образом сумма Р0 и Р1 должна быть равна единице, итак,
  • 10:04 - 10:09
    эта дробь, тут, должна = одной второй. Р0 + Р1 = 1. Так что, итак, сумма этих
  • 10:09 - 10:15
    двух вероятностей будет равняться одной второй. В принципе, мы доказали что вероятность того,
  • 10:15 - 10:20
    что Z = 0 равна 1/2, таким образом вероятность того, что Z = 1
  • 10:20 - 10:25
    также равна 1/2. Итак Z это равномерная случайная переменная. Эта простая
  • 10:25 - 10:30
    теорема является главной причиной частого использования XOR в криптографии. Последнее, что я
  • 10:30 - 10:34
    хотел бы вам показать вдискретных вероятностях называется "Парадокс дней рождений" и
  • 10:34 - 10:39
    я собираюсь сделать это очень быстро, так как ми предполагаем вернуться к этому позже и поговорить
  • 10:39 - 10:43
    об этом более детально. Итак, парадокс дней рождений базируется на следующем:
  • 10:43 - 10:47
    Пускай я выбираю N случайных переменных в нашей вселенной U. Хорошо, и просто так произошло,
  • 10:47 - 10:51
    что эти переменные являются независимыми друг от друга. На самом деле они не должны
  • 10:51 - 10:56
    быть одинаковыми. Все что мы должны предположить, так это то что они распределены таким же образом.
  • 10:56 - 11:00
    Наиболее важная особенность, все же, та, что они независят друг от друга. Итак
  • 11:00 - 11:04
    теорема говорит, что если вы возьмете приблизительно квдратный корень из размера U елементов,
  • 11:04 - 11:08
    ми игнорируем 1,2 написанные здесь, на самом деле это не так уж и важно. Но если вы возьмете
  • 11:08 - 11:12
    квадратный корень от U елементов, то существует хороший шанс, что вы получите
  • 11:12 - 11:17
    два одинаковых элемента. Другими словами, если ваш образец примерно равен
  • 11:17 - 11:21
    нескольким квадратным корням, то очень вероятно, что двое элементов в образце будут
  • 11:21 - 11:26
    равными друг другу. И, кстати, я должен отметить, что эта перевернутая Е
  • 11:26 - 11:31
    просто означает "Существует". Тоесть существет такие разные I и J, при которых Ri равно
  • 11:31 - 11:35
    Rj. Итак, вот конкретный пример. Мы на самом деле увидим много, много примеров.
  • 11:35 - 11:39
    Допустим. что наша вселенная состоит из всех строк длинной в
  • 11:39 - 11:44
    128 бит. Так что U имеет гигантский размер, фактически он равен 2 в степени
  • 11:44 - 11:49
    128. Это очень, очень боольшой набор, но это так происходит, что если ваша выборка будет
  • 11:49 - 11:54
    размером приблизительно 2 в 64 степени, что приблизительно корень квадратный из U
  • 11:54 - 11:59
    то, очень вероятно, что двое из ваших элементов фактически будут одни и тем самым элементом.
  • 11:59 - 12:03
    Так почему это называется парадоксом? Ну, традиционно это описано с точки зрения
  • 12:03 - 12:07
    даты рождения людей. Так, можна подумать, что каждый из этих элементов являет собой
  • 12:07 - 12:12
    чье-то день рождение, и вопрос состоит в следующем: сколько людей должно собраться рядом,
  • 12:12 - 12:17
    чтобы как минимум у двоих из них день рождение было в один день? Итак, сделва простые подсчеты
  • 12:17 - 12:21
    вы можете увидеть, что 365 дней в году, так что вам необходимо около 1,2
  • 12:21 - 12:27
    умножить на корень квадратный из 365 людей, для вероятности того, что двое из них имеют
  • 12:27 - 12:31
    день рождения в один и тот же день, была больше 1/2. Это если не ошибаюсь, около 24, а это означает
  • 12:31 - 12:36
    что, если 24 случайных человека собираются вместе в одной комнате, то очень вероятно, что у двоих из них
  • 12:36 - 12:40
    фактически день рождения будет в один день. Вот почему эта теорема называется парадоксом, потому как 24
  • 12:40 - 12:44
    вроде как меньше, чем вы ожидаете. Что интересно, человеческие
  • 12:44 - 12:50
    дни рождения на самом деле не являются равномерно распределенными по всем 365 дням в году. Существует
  • 12:50 - 12:55
    на самом деле, предвзятое отношение к декабрю. Но, я думаю, это не относится к данному
  • 12:55 - 13:00
    обсуждению. Последнее, что я хотел бы сделать это просто показать вам парадокс дня
  • 13:00 - 13:05
    рождения немного более конкретно. ИТак, допустим. что вселенная состоит из около миллиона
  • 13:05 - 13:09
    оразцов, тогда вы можете увидеть, что когда мы берем около 1200 образцов, вероятность того
  • 13:09 - 13:14
    что мы получаем образцом тот же номер, один и тот же элемент два раза, состовляет приблизительно 1/2, но
  • 13:14 - 13:18
    вероятность взять один и тот же элемент два раза сходится очень быстро
  • 13:18 - 13:23
    к единице. Вы можете увидеть, что если мы возьмем 2200 элементов, то вероятность
  • 13:23 - 13:27
    что два из них одинаковы, уже состовляет 90%, и вы знаете, при 3000 элементов
  • 13:27 - 13:30
    она в основном = 1. Итак, это преобразование очень быстро приближается к единице, как только
  • 13:30 - 13:34
    оно выхоит за рамки розмера квадратного корня из U. Поэтому мы возвратимся назад
  • 13:34 - 13:38
    и будет изучать парадокс дней рождений более подробно позже, но сейчас я просто хотел
  • 13:38 - 13:43
    чтобы вы знали, что это такое. Так что это конец данного блока, и в
  • 13:43 - 13:50
    следующем блоке мы начнем ч нашего первого примера системы шифрования.
Title:
Discrete probability (crash course, cont.) (14 min)
Description:

Дискретная вероятность(ускоренный курс, продолж.) (14 мин.)

more » « less
Video Language:
English
Anastasiia Rusina edited Russian subtitles for Discrete probability (crash course, cont.) (14 min)
Anastasiia Rusina edited Russian subtitles for Discrete probability (crash course, cont.) (14 min)
Anastasiia Rusina edited Russian subtitles for Discrete probability (crash course, cont.) (14 min)
Anastasiia Rusina added a translation
stanford-bot added a translation

Russian subtitles

Revisions