Return to Video

Discrete probability (crash course, cont.) (14 min)

  • 0:00 - 0:04
    У цьому сегменті ми будемо продовжувати розглядати ще кілька інструментів дискретних
  • 0:04 - 0:07
    ймовірністей, і я хочу нагадати всім, що якщо ви хочете прочитати більше про це,
  • 0:07 - 0:12
    Існує більше інформації у wiki книги статті, зв'язаній тут. Тому по-перше
  • 0:12 - 0:16
    Давайтешвидко подивимость де ми знаходимося. Ми говорили, що дискретні ймовірності
  • 0:16 - 0:21
    завжди визначено скінченною множиною(набором), який ми збираємося позначати як U і, як правило, для
  • 0:21 - 0:27
    нас, U буде набором всіх n-біт двійкових рядків, які ми позначимо як
  • 0:27 - 0:32
    {0,1}^n. Отже, розподіл ймовірності Р у цьому всесвіті U являє собою
  • 0:32 - 0:37
    функцію, яка призначає кожному елементу у Всесвіті вагу в інтервалі від нуля
  • 0:37 - 0:42
    до одиниці, таку, що якщо ми просумуємо вагу всіх цих елементів, сума, в основному сума буде наближатися
  • 0:42 - 0:47
    до одиниці. Також ми говорили, що підмножина Всесвіту називається подією, і
  • 0:47 - 0:52
    ми сказали, що ймовірність події є, в основному, сумою всіх ваг
  • 0:52 - 0:57
    всіх елементів події і ми сказали, що ймовірністю події є деякі реальні
  • 0:57 - 1:02
    числа в інтервалі від 0 до 1, І я хотів би нагадати всім - в основному
  • 1:02 - 1:07
    Імовірність всього Всесвіту = 1, сума
  • 1:07 - 1:11
    всіх ваг наближається до одиниці. Потім ми визначимо, що випадкова змінна є формально,
  • 1:11 - 1:16
    випадкова змінна є функцією від Всесвіту з деякими іншими множинами, але
  • 1:16 - 1:21
    те, що я хочу щоб ви запам'ятали, це те що випадкова змінна приймає значення у деякій
  • 1:21 - 1:25
    множині V, й по суті, випадкова змінна визначає розподіл на цій множині V.
  • 1:25 - 1:30
    Наступне поняття, що нам неоюхідно називається "Незалежність", І я дуже коротко
  • 1:30 - 1:34
    визначу його, якщо ви хочете прочитати більше про незалежність, будь ласка поверність в початок і
  • 1:34 - 1:38
    подивіться на статтю в wiki-книги. Але по суті ми сказати, що дві події, A і B є
  • 1:38 - 1:43
    незалежними одна від одної тоді, коли якщо ви знаєте, що подія А відбувається, це нічого не говорить
  • 1:43 - 1:47
    вам про те відбувається подія B чи ні. Формально, шлях яким ми визначаємо
  • 1:47 - 1:52
    незалежність - це ми говоримо, що ймовірність А і B, а саме, що обидві
  • 1:52 - 1:57
    події сталися, якщо фактично = ймовірность події A * ймовірність
  • 1:57 - 2:02
    події В. Отже множення, в деякому розумінні, факт того що ймовірності перемножено одна з
  • 2:02 - 2:06
    одною, підкреслює той факт, що ці події незалежні, і як я вже сказав, якщо
  • 2:06 - 2:11
    Ви хочете прочитати більше про це, будь ласка перегляньте додатковий матеріал.
  • 2:11 - 2:17
    Тепер те ж саме можна сказати і про випадкові змінні. Так, припустимо, що у нас є дві випадкових
  • 2:17 - 2:22
    змінні x та y. Вони приймають значення у деякій множині v. Тоді ми кажемо, що ці випадкові
  • 2:22 - 2:27
    змінні є незалежними якщо ймовірність що x = а, та y = b дорівнює
  • 2:27 - 2:32
    результату множення цих двох ймовірностей.
    В основному це означає, навіть якщо ви
  • 2:32 - 2:38
    знаете, що x = а, це не говорить вам нічого про значення у. Добре, те,
  • 2:38 - 2:43
    що означає це множення, і знову ця властивість повинна зберігатися для всіх А та В в
  • 2:43 - 2:48
    просторі значеннь цих випадкових змінних. Отже, ще раз, щоб ви запам'ятали, якщо
  • 2:48 - 2:53
    Ви бачили це раніше, дуже короткий приклад. Припустимо, що ми дивимося на множину
  • 2:53 - 2:58
    двохбітних рядків: так, нуль, нуль, нуль, один, один нуль і, один, один, І нехай, ми
  • 2:58 - 3:04
    обираємо випадково, з цієї множини. Добре, отже ми випадково обраємо один з цих чотирьох елементів
  • 3:04 - 3:08
    з рівною ймовірністю. Тепер давайте визначимо дві випадкові змінні. X буде являти собою
  • 3:08 - 3:14
    найменш значимий біт, що був згенерований, і y буде значущім бітом.
  • 3:14 - 3:19
    Ітак, я стверджую, що ці випадкові змінні, x та y, є незалежним одна від
  • 3:19 - 3:24
    одної. І спосіб побачити це інтуїтивно, це зрозуміти, що вибір r
  • 3:24 - 3:29
    рівномірний, з чотирьох елементів в основному дуже подібен до підкидання монетки
  • 3:29 - 3:37
    Підкинемо монету двічі. Перший біт відповідає за підсумками першого
  • 3:37 - 3:39
    кидка і другий біт відповідає підсумкам другого кидка. І, звичайно
  • 3:39 - 3:43
    Існують чотири можливі результати. Всі чотири результати є не менш імовірними. Ось чому
  • 3:43 - 3:48
    Ми отримуємо рівномірний розподіл двобітних рядків. Тепер що до наших змінних Х та У,
  • 3:48 - 3:53
    вони незалежні. Насправді, якщо я скажу вам результат першого кидка, а саме скажу вам
  • 3:53 - 3:57
    значення молодшого біту R, отже я розповім, як впала перша монета, ви знаєте чи то вона впала орлом
  • 3:57 - 4:02
    або решкою. Це нічого не говорить вам про результат
  • 4:02 - 4:07
    другого кидка. Ось чому інтуїтивно, ви, можливо, можна було б очікувати що ці випадкові
  • 4:07 - 4:12
    змінні незалежні одна від одної. Але формально, ми повинні були б
  • 4:12 - 4:16
    довести, що, для всіх 01 пар, ймовірність, x = 0 і y = 0, x = 1, y = 1, і
  • 4:16 - 4:21
    так далі, ці ймовірності перемножуються. Давайте зробимо це для однієї з цих пар. Отже,
  • 4:21 - 4:27
    Давайте подивимося на ймовірність того, що x = 0, і y = 0. Ну, ви бачите
  • 4:27 - 4:31
    що ймовірність того, що x дорівнює нулю, і y дорівнює нулю в основному
  • 4:31 - 4:35
    ймовірність, що r = 00... І яка ймовірніть того, що
  • 4:35 - 4:40
    r = 00? Ну, на рівномірному розподілі, вона насправді рівна
  • 4:40 - 4:44
    одній четвертій. Це для одного елементу з множини, яка рівна одній четвертій, в цьому випадку.
  • 4:44 - 4:49
    І ось так, насправді, ця ймовірність - ймовірність з множеннім, оскільки,
  • 4:49 - 4:54
    знову, ймовірність того, що x дорівнює нулю (ймовірність того, що молодший значущий
  • 4:54 - 4:58
    біт R дорівнює нулю) Ця ймовірність є рівною одній другій, так як
  • 4:58 - 5:02
    існує лише два таких елементи, у яких молодший значущий біт рівен нулю (10, 00)
  • 5:02 - 5:06
    Два з чотирьох елементів дають вам мовірність - одна друга, і аналогічно до
  • 5:06 - 5:11
    ймовірність, що У дорівнює нулю, вона також рівна одній другій, отже по суті ймовірності
  • 5:11 - 5:16
    перемножені. Гаразд, так ось, ця суть незалежності (множення ймовірностей) і є причиною, по якій я хотів
  • 5:16 - 5:22
    показати її вам, тому що ми збираємося розглядати важливу властивість XOR, яку
  • 5:22 - 5:27
    Ми будемо використовувати знову і знову. Отже, перш ніж ми говоримо про XOR, дозвольте мені зробити дуже
  • 5:27 - 5:32
    короткий огляд того, що таке XOR. Так, звичайно, XOR двох бітів означає додавання
  • 5:32 - 5:38
    цих бітів, модульно по двійці. Отже, просто для того, щоб переконатися, що всі розуміють
  • 5:38 - 5:43
    однаково, якщо у нас є два біти, так 0, 0, 0, 1, 1, 0, 1 , 1. Їх XOR або істинна таблиця
  • 5:43 - 5:48
    XOR'ів в основному є просто додаванням по модулю два (mod 2). Як ви можете бачити, 1 + 1 = двум,
  • 5:48 - 5:53
    модулярним двум, що рівно нулю. Отож, це справжня таблиця для XOR'ів, і
  • 5:53 - 5:58
    Я завжди буду позначити XOR, як коло з знаком + у середині, І тоді, коли я
  • 5:58 - 6:02
    захочу застосувати XOR до бітових рядків, я буду застосовувати, операцію модулярного додавання по двійці
  • 6:03 - 6:07
    порозрядного. Так, наприклад, було б XOR цих двох рядків буде - 110, і я думаю
  • 6:07 - 6:12
    Я дам вам заповнити залишок на XORs, просто щоб переконатися, що ми всі однаково це
  • 6:12 - 6:19
    розуміємо. Так, звичайно, виходить один, один, нуль, один. Отож, ми збираємося
  • 6:19 - 6:23
    робити багато операцій XOR в цьому класі. Справді, існує класичної жарт, що
  • 6:23 - 6:28
    тільки думаючі криптографи знають, як це зробити, просто зXOR'ьте речі разом. Але я хочу
  • 6:28 - 6:32
    пояснити вам, чому ми бачимо XOR так часто в криптографії. В основному, XOR
  • 6:32 - 6:36
    має дуже важливу властивість, і властивість полягає в наступному. Припустимо, що
  • 6:36 - 6:41
    випадкова змінна У довільно розподілена від 01 до n. Так що ми не знаємо нічого
  • 6:41 - 6:46
    про розподіл У. Але тепер, припустимо, що ми маємо незалежну випадкову
  • 6:46 - 6:51
    змінну, яка, так сталося, є рівномірно розподіленою також від 01 до n. Так, це
  • 6:51 - 6:56
    дуже важливо, що x є рівномірна. N незалежних від y. Так що тепер, давайте визначимо
  • 6:56 - 7:01
    випадкову змінну, яка є результатом XOR'у Х та Y. Далі я стверджую, що не важливо з чого
  • 7:01 - 7:06
    починається розподіл У, це z завжди буде рівномірною, випадковою
  • 7:06 - 7:11
    змінною. Так, іншими словами, якщо я візьму довільний навмисний розподіл і я
  • 7:11 - 7:16
    проXOR'ю його з незалежною рівномірно-випадковою змінною, те що я отримаю в кінці буде рівномірно-
  • 7:16 - 7:21
    випадковою змінною. Гаразд, і це знову є однією з ключових властивостей, що робить XOR
  • 7:21 - 7:24
    дуже корисною для шифрування. Так що, цей факт насправді дуже просто довести,
  • 7:24 - 7:29
    Давайте просто йти вперед і робити це, давайте просто доведемо це для одного біту, тобто для n = 1. Добре
  • 7:29 - 7:33
    так що шлях, яким ми зробимо це - ми будемо просто виписувати розподіли ймовірностей
  • 7:33 - 7:38
    для різних випадкових величин. Так що давайте подивимося, випадкова змінна y. Отже,
  • 7:38 - 7:43
    випадкова змінна може бути рівна або нулю або одиниці.
    І давайте припустимо, що P0 це ймовірність
  • 7:43 - 7:47
    що У = 0 і P1, є ймовірність того, що змінна = 1. Гаразд, отже
  • 7:47 - 7:52
    Це одна з наших таблиць. Аналогічним чином, ми будемо мати таблицю для змінної x.
  • 7:52 - 7:56
    Ну, змінна x є набагато простішою. Це єдина випадкова змінна. Так що
  • 7:56 - 8:01
    ймовірність того, що вона = 0, є насправді одна друга. Ймовірність того, що вона = 1
  • 8:01 - 8:05
    також є саме одна друга. Тепер давайте випишемо ймовірності для об'єднання
  • 8:05 - 8:10
    розподілів в, іншими словами, давайте подивимося яка імовірність, для на
  • 8:10 - 8:14
    різних, спільні значення y та x. Іншими словами, наскільки вірогідно, що y = 0,
  • 8:14 - 8:18
    і x = 0. (Y=0, і x = 1). Y = 1 і x = 0, та 1, 1. Отже,
  • 8:18 - 8:23
    що ми робимо це, просто, тому що ми припускаємо, що змінні є незалежними, все, що
  • 8:23 - 8:27
    ми повинні зробити це перемножити ймовірності. Таким чином ймовірність що y
  • 8:27 - 8:31
    дорівнює нулю є Р0. Імовірність того, що x дорівнює нулю є одна друга. Так
  • 8:31 - 8:37
    сусідство, при якому ми отримаємо 0 0 рівно Р0поділити на два. Аналогічним чином для пари 1 0
  • 8:37 - 8:42
    ми отримаємо Р0 поділити на два, для 1 0 ми отримаємо P1 на два, та для 1 1,
  • 8:42 - 8:47
    знову ж таки, ймовірність того що y = 1, і x =1, добре, це P1 помножити на
  • 8:47 - 8:52
    Імовірність того, що x = 1, яка рівна одній другій, отже це рівно P1 поділеному на два. Добре? Так, ці
  • 8:52 - 8:58
    чотири, це ймовірності для різних варіантів Х та У. Так що тепер давайте
  • 8:58 - 9:03
    Проаналізуємо, яка ймовірність того, що z дорівнює нулю? Ну, ймовірність що
  • 9:03 - 9:09
    z = 0, насправді така сама, як ймовірність що, давайте напишемо це таким чином,
  • 9:09 - 9:15
    XY = 00. Або xy = 11. Це два можливих випадки при яких z = 0.
  • 9:15 - 9:23
    Так як Z це XOR між X та Y. Тепер, неперетинні ці події, так, це
  • 9:23 - 9:30
    вираз можна просто записати як сума двох виразів, наведені вище. Так
  • 9:30 - 9:37
    в основному, є ймовірність, що ХУ = 00, а також ймовірність що ХУ
  • 9:38 - 9:43
    = до одинадцяти. Так що тепер ми може просто шукати ці ймовірності в нашій таблиці. Так що
  • 9:43 - 9:48
    ймовірність що ХУ дорівнює 00 є просто Р0 / 2, та
  • 9:48 - 9:53
    імовірність що ХУ дорівнює 1 1 просто Р1 навпіл. Отже, ми отримуємо P0/2 +
  • 9:53 - 9:59
    + P1/2, але що ми знаємо, що ми знаємо про P0 та P1? Ну,
  • 9:59 - 10:04
    це розподіл імовірностей. Таким чином, P0 + P1 повинні дорівнювати одиниці, і отже,
  • 10:04 - 10:09
    цей дріб, тут, повинні = одній другій. P0 + P1 = 1. Так що, отже, сума цих
  • 10:09 - 10:15
    двух ймовірностей буде рівна одній другій. У принципі, ми довели, що ймовірність того,
  • 10:15 - 10:20
    що Z = 0 є 1/2, таким чином ймовірність того, що Z = 1
  • 10:20 - 10:25
    також рівна одній другій. Отжє Z це рівномірна випадкова змінна. Так ця проста
  • 10:25 - 10:30
    теорема є головною причиною, чому ХOR так часто використовується у картографії. Останнє, що я
  • 10:30 - 10:34
    хочу вам показати з дискретної ймовірности це те, що називається "парадокс днів народження" та
  • 10:34 - 10:39
    Я збираюся зробити це дуже швидко, тому що ми маємо намір повернутися до цього пізніше і говорити
  • 10:39 - 10:43
    про це в більш докладно. Так, парадокс днів народжень складається з наступного:
  • 10:43 - 10:47
    Припустимо, що я вибираю N випадкових змінних у нашому всесвіті U. Добре, і просто так сталося
  • 10:47 - 10:51
    що ці змінні є незалежними одна від одної. Вони насправді не повинні
  • 10:51 - 10:56
    бути однаковими. Все, що ми повинні припустити це, що вони розподілені таким же чином.
  • 10:56 - 11:00
    Найбільш важлива властивість, однак, що вони незалежні одна від одної. Так що
  • 11:00 - 11:04
    Теорема говорить, що якщо ви вибираєте приблизно квадратний корінь з розміру в U елементів,
  • 11:04 - 11:08
    Ми ігноруємо 1,2 написані тут, це насправді не такважливо. Але якщо ви обираєте
  • 11:08 - 11:12
    квадратний корінь з розміру U елементів, то в основному існує хороший шанс, що
  • 11:12 - 11:17
    є два однакових елемента. Іншими словами, якщо ваш зразок приблизно рівен
  • 11:17 - 11:21
    кільком квадраним кореням, то цілком можливо, що двоє з ваших зразків будуть
  • 11:21 - 11:26
    дорівнювати один одному. І до речі, я повинен відзначити, що оця перевенута E
  • 11:26 - 11:31
    просто означає "існує". Тобто існують такі різні I та J, при яких Ri є рівною
  • 11:31 - 11:35
    Rj. Отже, ось конкретний приклад.
    Ми насправді побачимо багато, багато разів.
  • 11:35 - 11:39
    Припустимо, що наш всесвіт складається з усіх рядків довжиною в
  • 11:39 - 11:44
    128 біт. Так що U має гігантський розмір, фактично він рівен 2 у степені
  • 11:44 - 11:49
    128. Це дуже, дуже великий набір, але це так відбувається, якщо ваш зразок буде
  • 11:49 - 11:54
    розміром близько 2 в 64 степені, це приблизно квадратний корінь від U
  • 11:54 - 11:59
    тоді, дуже ймовірно, що два з ваших зразка фактично будуть одним і тим самим зразком (єквівалентним).
  • 11:59 - 12:03
    Так чому це називається парадокс? Ну, традиційно описано з точки зору
  • 12:03 - 12:07
    дати народження людей. Так, можна подумати, що кожен з цих зразків являє собою
  • 12:07 - 12:12
    чиєсь день народження, І тому питання полягає в тому, скільки люди повинні зібратися разом так
  • 12:12 - 12:17
    щоб було принаймні двоє людей, з однаковим днем народження? Ітак, зробив прості підрахунки
  • 12:17 - 12:21
    ви можете бачити, що є 365 днів у році, так що вам буде потрібно близько 1,2
  • 12:21 - 12:27
    помножити на квадратний корінь з 365 людей, для ймовірність того, що двоє з них мають
  • 12:27 - 12:31
    день народження в один і той самий днь, була більше 1/2. Це якщо не помиляюся, близько 24, а це означає
  • 12:31 - 12:36
    що, якщо 24 випадкових людей збираються разом в кімнаті, то дуже ймовірно, що двоє з них
  • 12:36 - 12:40
    фактично будуть мати день народження в той самий день. Ось чому вона називається парадокс, тому що 24
  • 12:40 - 12:44
    нібито це менше значення, ніж ви очікуєте. Що цікаво, людські
  • 12:44 - 12:50
    дні народження не є насправді рівномірно розподіленими через усі 365 днів на рік. Існує насправді
  • 12:50 - 12:55
    упереджене ставлення до грудня. >> Але, я думаю, це не, це не відноситься до данного
  • 12:55 - 13:00
    обговорення. >> Останнє, що я хотів зробити це просто показати вам парадокс дня
  • 13:00 - 13:05
    народження трохи більш конкретно. Отже, припустимо, що всесвіт складається з близько мільйона
  • 13:05 - 13:09
    зразків, тоді ви можете побачити, що коли ми беремо приблизно 1200 зразків, ймовірність того
  • 13:09 - 13:14
    що ми отримуємо зразком той же номер, одного й того ж елемента двічі становить приблизно половину, але
  • 13:14 - 13:18
    ймовірністьвзяти тей самий номер два рази фактично сходиться дуже
  • 13:18 - 13:23
    швидко до одного. Ви можете побачити, що якщо ми візьмемо 2200 елементів, то ймовірність
  • 13:23 - 13:27
    що два з цих елементів однакові, вже становить 90 відсотків, і ви знаєте, при 3000 елементів
  • 13:27 - 13:30
    вона в основному = одиниці. Так це перетворення дуже швидко наближається до одного, як тільки
  • 13:30 - 13:34
    він виходить за рамки розміру квадратний корінь з всесвіту. Тому ми повертаємось
  • 13:34 - 13:38
    назад і будемо вивчати парадокс днів народжень більш докладно пізніше на, але я просто на даний момент,
  • 13:38 - 13:43
    хотів, щоб ви знали, що це таке. Так що це кінець цього сегмента, і в
  • 13:43 - 13:50
    наступному сегменті, ми почнемо з нашого першого прикладу шифрувальної системи.
Title:
Discrete probability (crash course, cont.) (14 min)
Description:

Дискретні ймовірності (прискорений курс, продовж.) (14 хв.)

more » « less
Video Language:
English

Ukrainian subtitles

Revisions