Незалежність (теорія ймовірностей)

У теорії ймовірностей дві випадкові події називаються незалежними, якщо настання однієї з них не змінює імовірність настання іншої. Аналогічно, дві випадкові величини називають незалежними якщо значення однієї з них не впливає на розподіл значень іншої[1].

Незалежні події[2]

ред.

Вважатимемо, що дано фіксований ймовірнісний простір  .

Означення 1. Дві події   називають незалежними, якщо

 .

Зауваження 1. В тому випадку, якщо ймовірність однієї події, скажімо  , ненульова, тобто  , визначення незалежності еквівалентне:

 ,

тобто умовна ймовірність події   за умови   дорівнює безумовній імовірності події  .

Означення 2. Нехай є сімейство (скінченне або нескінченне) випадкових подій  , де   — довільна індексна множина. Тоді ці події є попарно незалежними, якщо будь-які дві події з цього сімейства незалежні, тобто

 .

Означення 3. Нехай є сімейство (скінчене або нескінчене) випадкових подій  . Тоді ці події сукупно незалежні, якщо для будь-якого кінцевого набору цих подій   вірно:

 .

Приклад 1. Монета кидається двічі. Ймовірність появи герба в першому випробуванні не залежить від появи чи відсутності герба в другому випробуванні. В свою чергу, ймовірність того, що герб випаде в другому випробуванні не залежить від результатів першого випробування. Отже, події А — «поява герба в першому випробуванні» і В — «поява герба в другому випробуванні» — незалежні.

Приклад 2. В урні 5 білих і 4 чорних кульки. Із неї навмання беруть кульку. Ймовірність появи білої кульки (подія А) дорівнює  . Взяту кульку повертають в урну і продовжують випробування. Ймовірність появи білої кульки при другому випробуванні (подія В), також дорівнює  . В свою чергу, ймовірність витягти білу кульку при першому випробуванні, не залежить від другого випробування. Отже, події А і В — незалежні.

Приклад 3. Хай кинуто три урівноважені монети. Визначимо події таким чином:

  •  : монети 1 і 2 впали однією і тією ж стороною;
  •  : монети 2 і 3 впали однією і тією ж стороною;
  •  : монети 1 і 3 впали однією і тією ж стороною;

залежні, бо знаючи, наприклад, що події   сталися, ми знаємо точно, що   також сталося.

Те що три і більше події попарно незалежні, не означає, що вони незалежні в сукупності. Дивіться приклад Бернштейна.

Незалежні σ-алгебри

ред.

Означення 4. Нехай   дві сигма-алгебри на одному і тому ж ймовірнісному просторі. Вони називаються незалежними, якщо будь-які їх представники незалежні між собою, тобто:

 .

Якщо замість двох є ціле сімейство (можливо нескінчене) сигма-алгебр, то для нього визначається попарна і спільна незалежність очевидним чином.

Спадкова незалежність

ред.

Теорема про спадковість незалежності випадкових величин. Якщо   та   - незалежні випадкові величини, а   - незалежні, невипадкові функції, які визначені на області можливих значень   та   відповідно, то   та   - незалежні випадкові величини.

  • Нехай   - розподіл випадкового вектора  ,   - розподіл   і   - розподіл  . Тоді   незалежними тоді і лише тоді, коли
 ,

де   позначає (прямий) добуток мір;

  • Нехай   - кумулятивні функції розподілу   відповідно. Тоді   незалежні тоді і лише тоді, коли
 ;
  • Нехай випадкові величини   дискретні. Тоді вони незалежні тоді і лише тоді, коли
 .
  • Нехай випадкові величини   спільно абсолютно безперервні тобто їх спільний розподіл має щільність  . Тоді вони незалежні тоді і лише тоді, коли
 ,

де   - щільність випадкових величин   і   відповідно.

Див. також

ред.

Джерела

ред.

Примітки

ред.
  1. Сеньо П. С. Теорія ймовірностей та математична статистика: Підручник. — 2-ге вид., перероб. і доп. — К.: Знання, 2007. — С. 291.
  2. Patrick Billingsley — Probability and Measure. Second edition. (New York: John Wiley and Sons, 1986). MR 80h:60001.