Незалежність (теорія ймовірностей)
У теорії ймовірностей дві випадкові події називаються незалежними, якщо настання однієї з них не змінює імовірність настання іншої. Аналогічно, дві випадкові величини називають незалежними якщо значення однієї з них не впливає на розподіл значень іншої[1].
Вважатимемо, що дано фіксований ймовірнісний простір .
Означення 1. Дві події називають незалежними, якщо
- .
Зауваження 1. В тому випадку, якщо ймовірність однієї події, скажімо , ненульова, тобто , визначення незалежності еквівалентне:
- ,
тобто умовна ймовірність події за умови дорівнює безумовній імовірності події .
Означення 2. Нехай є сімейство (скінченне або нескінченне) випадкових подій , де — довільна індексна множина. Тоді ці події є попарно незалежними, якщо будь-які дві події з цього сімейства незалежні, тобто
- .
Означення 3. Нехай є сімейство (скінчене або нескінчене) випадкових подій . Тоді ці події сукупно незалежні, якщо для будь-якого кінцевого набору цих подій вірно:
- .
Приклад 1. Монета кидається двічі. Ймовірність появи герба в першому випробуванні не залежить від появи чи відсутності герба в другому випробуванні. В свою чергу, ймовірність того, що герб випаде в другому випробуванні не залежить від результатів першого випробування. Отже, події А — «поява герба в першому випробуванні» і В — «поява герба в другому випробуванні» — незалежні.
Приклад 2. В урні 5 білих і 4 чорних кульки. Із неї навмання беруть кульку. Ймовірність появи білої кульки (подія А) дорівнює . Взяту кульку повертають в урну і продовжують випробування. Ймовірність появи білої кульки при другому випробуванні (подія В), також дорівнює . В свою чергу, ймовірність витягти білу кульку при першому випробуванні, не залежить від другого випробування. Отже, події А і В — незалежні.
Приклад 3. Хай кинуто три урівноважені монети. Визначимо події таким чином:
- : монети 1 і 2 впали однією і тією ж стороною;
- : монети 2 і 3 впали однією і тією ж стороною;
- : монети 1 і 3 впали однією і тією ж стороною;
залежні, бо знаючи, наприклад, що події сталися, ми знаємо точно, що також сталося.
Те що три і більше події попарно незалежні, не означає, що вони незалежні в сукупності. Дивіться приклад Бернштейна.
Незалежні σ-алгебри
ред.Означення 4. Нехай дві сигма-алгебри на одному і тому ж ймовірнісному просторі. Вони називаються незалежними, якщо будь-які їх представники незалежні між собою, тобто:
- .
Якщо замість двох є ціле сімейство (можливо нескінчене) сигма-алгебр, то для нього визначається попарна і спільна незалежність очевидним чином.
Спадкова незалежність
ред.Теорема про спадковість незалежності випадкових величин. Якщо та - незалежні випадкові величини, а - незалежні, невипадкові функції, які визначені на області можливих значень та відповідно, то та - незалежні випадкові величини.
- Нехай - розподіл випадкового вектора , - розподіл і - розподіл . Тоді незалежними тоді і лише тоді, коли
- ,
де позначає (прямий) добуток мір;
- Нехай - кумулятивні функції розподілу відповідно. Тоді незалежні тоді і лише тоді, коли
- ;
- Нехай випадкові величини дискретні. Тоді вони незалежні тоді і лише тоді, коли
- .
- Нехай випадкові величини спільно абсолютно безперервні тобто їх спільний розподіл має щільність . Тоді вони незалежні тоді і лише тоді, коли
- ,
де - щільність випадкових величин і відповідно.
Див. також
ред.Джерела
ред.- Гнєденко Б. В. Курс теорії ймовірностей. — Київ : ВПЦ Київський університет, 2010. — 464 с.
- Карташов М. В. Імовірність, процеси, статистика. — Київ : ВПЦ Київський університет, 2007. — 504 с.
- Гихман И. И., Скороход А. В., Ядренко М. В. Теория вероятностей и математическая статистика. — Київ : Вища школа, 1988. — 436 с.(рос.)