Return to Video

Discrete probability (16 min)

  • 0:00 - 0:04
    В течение курса мы будем использовать некоторые идеи и обозначения из теории вероятностей.
  • 0:04 - 0:07
    Я хочу убедиться, что каждый из вас знаком с обозначениям,
  • 0:07 - 0:11
    поэтому я проведу ускоренный курс по дискретной теории вероятностей. Даже
  • 0:11 - 0:15
    если вы не знакомы с тем что я буду рассказывать, не нужно расстраиваться.
  • 0:15 - 0:19
    Я дам ссылки на онлайн-ресурсы, где вы сможете немного про это почитать, и
  • 0:19 - 0:23
    И вы сможете освоить те основы
  • 0:23 - 0:27
    дискретной вероятности, которые мы будем использовать.
  • 0:27 - 0:30
    Вход в курс дела не должны вызвать особых трудностей. Итак,
  • 0:30 - 0:34
    давайте начнем с основ. Основной объект изучения - дискретное вероятностное пространство. Для нас
  • 0:34 - 0:39
    это будет просто конечное множество, которое мы обозначим за u. И как правило
  • 0:39 - 0:45
    вероятностным пространством у нас будет множество из N бит потока. Это означает
  • 0:45 - 0:51
    множество всех строк, состоящих из 0 и 1 длины N. Вероятностное распределение, которое мы будем
  • 0:51 - 0:56
    обозначать как P, есть функция, определенная на нашем множестве элементов.
  • 0:56 - 1:02
    (и которая принимает значения из интервала от 0 до 1). И единственное требование к этой функции -
  • 1:02 - 1:07
    чтобы сумма всех значений была равна 1. Ок? Это то, что по существу из себя представляет вероятностное
  • 1:07 - 1:12
    распределение. Мне бы хотелось привести два примера. Первый пример -
  • 1:12 - 1:17
    однородное распределение, когда каждый элемент нашего вероятностного пространства имеет
  • 1:17 - 1:22
    один и тот же вес. Другими словами, все элементы нашего пространства одинаково распределены. Это означает, что
  • 1:22 - 1:26
    если мы выберем случайный элемент из распределения, вероятность
  • 1:26 - 1:31
    каждого элемента быть выбранным одна и та же. И другое распределение, которое
  • 1:31 - 1:35
    мне бы хотелось затронуть - точечное распределение. По сути это распределение, когда в некоторой точке X0
  • 1:35 - 1:40
    сосредоточена все масса и, следовательно, все остальные точки
  • 1:40 - 1:45
    имеют нулевой вес. Т.к. наше вероятностное пространство конечно,
  • 1:45 - 1:50
    буквально только что думаете о функции p так же, как вектор. Так что думать о основном
  • 1:50 - 1:55
    Эта функция p мы буквально можно записать все это в значения. Это будет
  • 1:55 - 2:00
    вектор размерности 2 до N, справа, или два до n компонентов здесь, если наши
  • 2:00 - 2:04
    Вселенная – 01 к. н. И я просто хотел бы отметить, что когда я говорю, что два
  • 2:04 - 2:09
    распределения одинаковы, распределения над строками из 01 длины N, мы говорим,
  • 2:09 - 2:13
    что они равны, если их векторы, если вектор, которому соответствует одно распределение
  • 2:13 - 2:17
    в точности такое же, которому соотвествует другое
  • 2:17 - 2:22
    распределение. В таком случае мы будем говорить, что распределения одинаковы. Ок. Пока
  • 2:22 - 2:27
    все хорошо. Добавим еще обозначений.
    Если у нас есть некоторое подмножество множества
  • 2:27 - 2:32
    элементарных событий, мы можем определить вероятность этого подмножества как сумму
  • 2:32 - 2:37
    вероятностей всех элементов нашего множества. Ок? Это множество A мы назовем
  • 2:37 - 2:42
    событием, Ок? И в качестве примера, рассмотрим строки из N бит,
  • 2:42 - 2:47
    которые оканчиваются на 11. Ок? Другими словами мы рассматриваем строки длины N,
  • 2:47 - 2:51
    которые содержат только нули и единицы, и у этих строк
  • 2:51 - 2:56
    на конце 11, ок? Это и есть наше событие. Представим, что строки
  • 2:56 - 3:00
    распределены равномерно над множеством всех строк из 0 и 1 длины N. Как вы думаете
  • 3:00 - 3:05
    какова вероятность этого события? Каков суммарный вес всего события,
  • 3:05 - 3:09
    при условии, что распределение равномерное. Я не сомневаюсь, что каждый из вас знает, что
  • 3:09 - 3:13
    это вес равен 1/4, т.к. вероятность получить на конце две единицы
  • 3:13 - 3:17
    - это вероятность получить единицу в последнем бите, которая равна 1/2,
  • 3:17 - 3:21
    умноженная на вероятность получить единицу в предпоследнем бите, которая тоже равна 1/2
  • 3:21 - 3:26
    1/2 * 1/2 = 1/4. Ок. Следующее, что я
  • 3:26 - 3:30
    хотел бы отметить — неравенство Буля. Опять же это довольно стандартое неравенство в
  • 3:30 - 3:35
    дискретной вероятности. Предположим, что у нас есть два набора, два события, А1 и А2, такие что эти
  • 3:35 - 3:40
    два набора принадлежат нашему вероятностному пространству. Здесь этот круг обоначает все пространство. И
  • 3:40 - 3:44
    мы спрашиваем, какова вероятность того, что произойдет либо событие 1A, либо 2A?
  • 3:44 - 3:49
    Другими словами, мы рассматриваем объединение этих событий и вы можете легко убедиться,
  • 3:49 - 3:53
    что на самом деле вероятность объединения меньше суммы
  • 3:53 - 3:58
    вероятностей каждого из событий. Единственная причина, почему у нас нет равенства, это то что
  • 3:58 - 4:02
    когда мы рассматриваем сумму отдельных вероятностей, мы
  • 4:02 - 4:07
    можем посчитать какие-то элементарные события дважды. Элементы, которые мы учитываем 2 раза находятся внутри пересечения,
  • 4:07 - 4:13
    и поэтому здесь возможно только строгое неравенство,
  • 4:13 - 4:18
    но никак не равенство. Стоит отметить, что если два события независимы, т. е.
  • 4:18 - 4:24
    их пересечение пусто, то мы получаем, равенство. Другими словами,
  • 4:24 - 4:30
    вероятность объединения равняется сумме вероятностей каждой из частей. Ок. Пока все хорошо. И
  • 4:30 - 4:36
    затем давайте рассмотрим пример приложения [неразборчиво]. Представим, что
  • 4:36 - 4:42
    у нас есть два события, одно событие, что последние два бита равны 11 и
  • 4:42 - 4:46
    другое - что первые два бита равны 11. Спрашивается,
  • 4:46 - 4:51
    какова вероятность того, что последние два бита или первые два бита
  • 4:51 - 4:55
    равны 11. Это на самом деле эту вероятность несложно вычислить
  • 4:55 - 5:00
    точно, но мы просто хотим использовать неравенство Буля, чтобы получить простое ограничение на эту величину, чтобы
  • 5:00 - 5:05
    вы почувствовали, что из себя представляет вероятность объединения
  • 5:05 - 5:09
    двух события, и что она меньше суммы вероятностей каждого из событий
  • 5:09 - 5:14
    Каждое событие происходит с вероятностью 1/4 и поэтому требует сбалансированного
  • 5:14 - 5:19
    Установите, что вероятность союза составляет меньше половины. Ладно как я сказал, вы можете
  • 5:19 - 5:23
    на самом деле рассчитать точную вероятность этого события и вы увидите
  • 5:23 - 5:28
    что это на самом деле меньше, чем половина, которая является одним из примеров, когда на самом деле является unibow
  • 5:28 - 5:32
    не жесткая. Ладно. Так хорошо так что мы будем использовать это иногда, но она имеет важное значение для
  • 5:32 - 5:36
    Помните, что вы знаете, то же качество это то, что будет вид intuitvally
  • 5:36 - 5:41
    Обращаюсь к вам. Ладно теперь мы можем определить случайных величин. Так что это случайная величина
  • 5:41 - 5:45
    в основном, зависит от нашего вероятностное пространство на некоторое пространство
  • 5:45 - 5:51
    Некоторые другие указанные v и мы скажу, что случайная величина принимает значение в Сет в
  • 5:51 - 5:56
    Так вот простой пример вы себе снова у нас есть наши стандартные пространства
  • 5:56 - 6:01
    что представляет собой набор всех строк, весовые и мы можем определить это случайная величина,
  • 6:01 - 6:06
    Подсчитывает количество в заданной строки настолько здесь y представляет собой строку длиной n.
  • 6:06 - 6:13
    И поэтому X Y будет просто подсчитать количество в строке ю. хорошо. Так что этот
  • 6:13 - 6:19
    переменная, эта случайная величина принимает значения между 0 и. н. Теперь в самом деле,
  • 6:19 - 6:25
    любой случайной величины, поэтому любые функции, как это, вызывает распространение на Сет В
  • 6:25 - 6:31
    на множестве, где он принимает значения. И распределение в основном определен, очень
  • 6:31 - 6:37
    легко. По существу, вероятность точки V-это только вес всех
  • 6:37 - 6:42
    очков в вас которые сопоставить V. точка хорошо, так что мы смотрим на
  • 6:42 - 6:47
    вероятность этого события. И мы говорим, что вероятность события в основном
  • 6:47 - 6:52
    — вероятность этого события.
    Хорошо, так что бы нотацию для этого
  • 6:52 - 6:57
    в основном, является вероятность того, что x равен вероятности против того, что X =-V
  • 6:57 - 7:01
    как мы сказали, [неразборчиво] вероятность этого события, которые я писал здесь. Таким образом
  • 7:01 - 7:05
    Вот, опять же, быстро, быстро пример головоломки для вас. Так что, предположим, что у нас есть
  • 7:05 - 7:09
    равномерное распределение и мы смотрим на случайная величина, которую мы определили
  • 7:09 - 7:14
    раньше эта случайная величина здесь. И мой вопрос к вам является то, что вероятность
  • 7:14 - 7:19
    что x равен V [неразборчиво] и ноль в. н. Таким образом это простое вычисление чтобы показать
  • 7:19 - 7:25
    что это n выбрать v разделена в 2-n, и причина — это размер, вам
  • 7:25 - 7:30
    знаете, размер прообраз v-в основном, ну, все строки веса
  • 7:30 - 7:36
    v. хорошо сколько строк есть, которые v1's в них? Это в основном n выбрать
  • 7:36 - 7:41
    v строк и мы поделить на два до n потому что вес набора размера n
  • 7:41 - 7:46
    выбираем v под равномерное распределение n выбрать v разделена в 2-n. Таким образом,
  • 7:46 - 7:51
    Вот пример, случайная величина, которая принимает, которая создается, форму
  • 7:51 - 7:56
    распределение, более чем 01-n, но на самом деле принимает значения, за целые числа.
  • 7:56 - 8:01
    Ладно. Так что теперь, когда мы понимаем, что случайных величин, мы можем на самом деле говорить
  • 8:01 - 8:06
    о рандомизированные алгоритмы. Таким образом lemme напоминаем, детерминированного алгоритма
  • 8:06 - 8:11
    в основном имеет один вход и имеет только один выход. Учитывая вклад
  • 8:11 - 8:17
    алгоритм вывода алгоритма указано полностью. И я я собираюсь использовать это
  • 8:17 - 8:22
    нотация здесь сказать что y вывода алгоритма a на ввод X. хорошо, так что теперь
  • 8:22 - 8:27
    Давайте обобщать это рандомизированные алгоритмы. Так что рандомизированных алгоритм,
  • 8:27 - 8:32
    так же, как и раньше, он принимает, вы знаете, регулярные ресурсы, как раз как нормальное. Но он
  • 8:32 - 8:38
    также принимает произвольную строку. Теперь это случайная строка-это r единообразной в 01-
  • 8:38 - 8:44
    N, хорошо? Так что по сути, рандомизированных алгоритм принимает, кроме того, поистине
  • 8:44 - 8:51
    Единообразные строку в качестве входов. И потом и затем он детерминированные от этой точки
  • 8:51 - 8:56
    года. Как только мы исправить р. Алгоритм полностью детерминировано. Другими словами,
  • 8:56 - 9:01
    даже x и R, есть только одна Y, которое выведет алгоритм. Но, мы будем
  • 9:01 - 9:06
    Посмотрите на набор всех возможных r под равномерное распределение. И в результате
  • 9:06 - 9:11
    учитывая вклад X, вывода algorith фактически случайной величины.
  • 9:11 - 9:16
    Ладно? Поэтому важно помнить, что рандомизированных алгоритм определяет случайное
  • 9:16 - 9:21
    Переменная над возможным набор результатов алгоритма. Так, учитывая один вход
  • 9:21 - 9:25
    Здесь вы видите, что мы на самом деле получить дистрибутив за возможные результаты
  • 9:25 - 9:30
    алгоритм. И я хочу обозначить это случайная величина с этой смешной стрелки
  • 9:30 - 9:35
    нотация. Так что я скажу, стрелка, и над ним, R означает, что y является результат, является
  • 9:35 - 9:40
    случайная величина определена. Запустив алгоритм a на вход x с единой
  • 9:40 - 9:46
    случайная строка r в качестве входных данных. Так что давайте посмотрим на быстрый пример. Так что здесь у нас есть наши
  • 9:46 - 9:52
    входы. И что я буду делать это, представить себе этот алгоритм, что он делает это, она на самом деле
  • 9:52 - 9:57
    входные, x, под случайный ключ шифрует k. Итак здесь у нас есть наша форма
  • 9:57 - 10:03
    переменная, которая в основном является случайным зашифрованный текст, созданный путем шифрования x
  • 10:03 - 10:08
    использование случайный ключ от прохождения ключевого пространства.
    Ладно? Так, что это в качестве примера случайного
  • 10:08 - 10:13
    переменная. И последнее, что я хочу упомянуть, в самом деле, я часто использую эту
  • 10:13 - 10:17
    нотация. Это на самом деле очень удобно нотации, чтобы сказать что r
  • 10:17 - 10:22
    есть стрелки и r выше его из определенного набора. Это просто конечного Омега
  • 10:22 - 10:27
    Задайте. И это просто означает, просто выберите r равномерно случайно над Омега. Если вы
  • 10:27 - 10:32
    хотите быть точным, R — это случайная величина, то единой случайная величина над Омега.
  • 10:32 - 10:37
    Но действительно, все это означает [неразборчиво] равномерно из набора. Мы часто выбирают
  • 10:37 - 10:41
    ключей, как это. Мы скажем, K равномерно выбирается из множества всех ключевых
  • 10:41 - 10:46
    возможных ключей. Ладно, так что это очень удобно нотации. И наконец я хочу
  • 10:46 - 10:50
    Быстрый факт упоминается о [неразборчиво] функции. Но для этого, что я только что кратко
  • 10:50 - 10:54
    нужно упомянуть о концепции независимости. Если вы не знакомы с
  • 10:54 - 10:58
    вероятностные независимость. Опять же, пожалуйста.
    Прочитайте немного о нем. В
  • 10:58 - 11:03
    материал онлайн будет время от времени Касаясь независимых кандидатов. Так что он имеет
  • 11:03 - 11:07
    Вид из важных, по крайней мере знать что я подразумеваю под этим. Хорошо тем у нас есть, если
  • 11:07 - 11:12
    у нас есть два события a и B. Мы говорим, что они являются независимыми и в основном
  • 11:12 - 11:16
    вероятность их пересечение. Так что вероятность того, что оба они происходят. Это
  • 11:16 - 11:21
    Это, если вам нравится, это то же самое, как вероятность пересечение б. потому что оба
  • 11:21 - 11:26
    события происходят, вероятность того, об их сотрудничестве в основном является результатом
  • 11:26 - 11:31
    их индивидуальные вероятности. Ладно, так же как мы можем определить независимое
  • 11:31 - 11:36
    события, мы можем определить независимых случайных величин, которые в основном сказал, что,
  • 11:36 - 11:41
    Если вы посмотрите на распределение, переменные определяют на Сет В, где они
  • 11:41 - 11:45
    Возьмите их значения, затем они независимыми на этом наборе. Другими словами,
  • 11:45 - 11:50
    событие, X = A не зависит от события Y = B для всех возможных a и B.
  • 11:50 - 11:54
    Хорошо, так вот что это значит для двух переменных быть независимыми. И теперь мы
  • 11:54 - 11:58
    можно либо государства этой теоремы. Я надеюсь, что поможет объяснить что-то важное
  • 11:58 - 12:02
    в классе. Так в этом классе во всем мы будем использовать XOR функции
  • 12:03 - 12:06
    совсем немного. Помните XOR битов в основном добавление этих битов
  • 12:06 - 12:11
    по модулю два. Поэтому мы будем использовать XOR функцию совсем немного. И XOR функции
  • 12:11 - 12:15
    на самом деле обладает важным свойством, которое объясняется эта теорема, и вот почему
  • 12:15 - 12:19
    Это такой полезной, эта теорема это причина почему функция XOR так
  • 12:19 - 12:24
    полезные в криптографии. Поэтому позвольте мне объяснить, что теорема говорит. Теорема говорит:
  • 12:24 - 12:29
    также Предположим, что вы даете мне случайная величина а. Это является произвольным. Мне не волнует то, что он
  • 12:29 - 12:34
    это. Это может быть выбран [неразборчиво], но это случайная величина наборами 01 для
  • 12:34 - 12:39
    н. Поэтому он принимает значения, поэтому случайная величина a принимает значения в наборе 01 для
  • 12:39 - 12:44
    н. А теперь представьте, рассмотрим еще один случайная величина. X, что происходит с
  • 12:44 - 12:48
    быть однородным над 01 к. н. И что более важно, он не зависит от
  • 12:48 - 12:53
    Переменная а. Так x и являются независимой переменной. Тогда на самом деле вы посмотрите на x или
  • 12:53 - 12:57
    x, то эта переменная y определяется как ax или x-это на самом деле единообразной. Поэтому вид
  • 12:57 - 13:01
    магические свойства здесь это не имеет значения то, что, может быть все, что
  • 13:01 - 13:06
    распределение, вам нравится, если вы ex провозглашаются с единой случайная величина вы собираешься
  • 13:06 - 13:10
    получите единый случайной величины. Так что мы рода сгладить нарушений в и мы
  • 13:10 - 13:15
    просто получить чистый единообразных случайная величина, ex orating его с единой случайных
  • 13:15 - 13:19
    переменная. Так что давайте доказывают это, это очень простое доказательство. В основном это будет
  • 13:19 - 13:24
    оказаться для любого закрыть один, иными словами Если у нас только один бит. Давайте посмотрим. Таким образом A —
  • 13:24 - 13:29
    Эта переменная, которая принимает либо ноль или один. И вероятности, назовем
  • 13:29 - 13:34
    их P0 и P1. Могут быть произвольно, [неразборчиво] выбранная. X — это униформы
  • 13:34 - 13:40
    случайная величина, поэтому в нем ноль, одно значений. А потому, что он является единой. Он имеет
  • 13:40 - 13:45
    вероятностей, только половина и половина. Так что теперь давайте посмотрим на совместное распределение
  • 13:45 - 13:50
    A и X. Таким образом распределения пространства в основном состоит из всех четырех возможных
  • 13:50 - 13:54
    пар и потому, что n и x независимых кандидатов, мы просто умножить их
  • 13:54 - 13:59
    вероятностей и мы можем выяснить, вероятности каждой точки в пространстве.
  • 13:59 - 14:04
    Так, например, вероятность того, что мы ноль, ноль просто собирается быть p ноль
  • 14:04 - 14:09
    свыше двух. Затем нулевому также будет быть p нулевой более двух. Один ноль собирается
  • 14:09 - 14:14
    быть p один за два. И один, один, woops, один из них, один будет p один за два как
  • 14:14 - 14:18
    хорошо. Ладно, я сделал всё я просто умножить. Например, один один, я
  • 14:18 - 14:23
    умножить p1 на половину, и я получил p1 за два. Так что теперь мы можем на самом деле рассчитать
  • 14:23 - 14:27
    Какова вероятность того, что x над равен нулю, что этот y равен
  • 14:27 - 14:32
    ноль. Ну, существует два способа, x и x может быть нулевым. Один — если оба
  • 14:32 - 14:36
    и x равны нулю, и другим способом, если оба и x, один. И таким образом
  • 14:36 - 14:40
    вероятность того что они 're x более чем ноль – в основном, вы знаете, вероятность того, что
  • 14:40 - 14:45
    они равны нулю, которая за два, а также вероятность того, что оба они являются одним p0,
  • 14:45 - 14:50
    что является p1 за два. В настоящее время и вот, это в основном полтора раза PO + P1. Но
  • 14:50 - 14:55
    потому что P0 и P1 исходят от [неразборчиво] распределения, P0 + P1 равен одному и поэтому
  • 14:55 - 15:00
    Это половина. Итак какова вероятность того, что Y = 0 — половина? В
  • 15:00 - 15:05
    вероятность того, что Y = 1 также половины, и поэтому y является единообразной, который является в основном то, что
  • 15:05 - 15:10
    Мы хотели, чтобы доказать. Ладно так же, вы можете очень многое утверждают, точно так же
  • 15:10 - 15:15
    путь. [неразборчиво] для n бит и я надеюсь, мы рода продолжать использовать [неразборчиво]
  • 15:15 - 15:20
    на протяжении всего класса. Я надеюсь, что вы будете, вы думаете вернуться к этой теоремы и реализовать
  • 15:20 - 15:24
    что именно поэтому XR является такая полезная функция в криптографии. Ладно так как я
  • 15:24 - 15:29
    сказал: это очень быстро ускоренный курс.
    Если части это было не ясно, она не
  • 15:29 - 15:33
    конец света. Я хочу быть Касаясь этой нотации, но я буду стараться
  • 15:33 - 15:37
    объяснить. Всегда вещи как мы используем нотации. [неразборчиво] на самом деле хотите выучить
  • 15:37 - 15:41
    больше об этом, есть ресурс сети, на которые я указывают в введении
  • 15:41 - 15:45
    классу и веб-сайта. И вы можете просто прочитать немного больше об этих
  • 15:45 - 15:49
    концепции. Но это в основном конце краш курс и этот великий
  • 15:49 - 15:53
    вероятность. А затем, в следующем сегменте, мы начнем с фактическими
  • 15:53 - 15:54
    алгоритмы шифрования.
Title:
Discrete probability (16 min)
Video Language:
English

Russian subtitles

Revisions