Теорія ймовірностей

(Перенаправлено з Теорія ймовірності)

Тео́рія ймові́рностей[1] (імові́рностей[2]), тео́рія імові́рності[3] — розділ математики, що вивчає закономірності випадкових явищ: випадкові події, випадкові величини, їхні функції, властивості й операції над ними. Математичні моделі в теорії ймовірності описують з деяким ступенем точності випробування (експерименти, спостереження, вимірювання), результати яких неоднозначно визначаються умовами випробування.

Математичним апаратом теорії ймовірності є комбінаторика та теорія міри.

Теорія ймовірностей виникла і спершу розвивалася як прикладна дисципліна (зокрема, для розрахунків в азартних іграх). Пов'язана з іменами Х.Гюйґенса, Б.Паскаля, П.Ферма. Своїм теоретичним обґрунтуванням зобов'язана Я.Бернуллі, П.Лапласу, П. Л. Чебишову, А. М. Ляпунову.[4][5][6] Систему аксіом теорії ймовірностей сформулював А. М. Колмогоров.[7] Теорія ймовірностей є підґрунтям математичної статистики. Широко вживається для опису й вивчення різноманітних технологічних процесів зважаючи на їх стохастичність.

Історія

ред.

Виникнення теорії ймовірностей як науки відносять до середньовіччя і перших спроб математичного аналізу азартних ігор. Спочатку її основні поняття не мали строго математичного вигляду, до них можна було ставитися як до емпіричних фактів, властивостей реальних подій, і формулювалися вони в наочних уявленнях. Найперші наукові праці в галузі теорії ймовірностей належать до XVII століття. Досліджуючи прогнозування виграшу в азартних іграх, Блез Паскаль і П'єр Ферма відкрили перші ймовірнісні залежності, що виникають під час кидання гральних кубиків.

Вважають, що вперше Паскаль взявся за теорію ймовірностей під впливом питань, поставлених перед ним одним з придворних французького двору Шевальє де Мере (1607—1648), що був азартним гравцем, але гра для нього теж була приводом для досить глибоких роздумів. Де Мере запропонував Паскалю два відомі питання, перше з яких він спробував вирішити сам. Питання були такими:[8]

1. Скільки разів треба кинути два гральних кубика, щоб випадків випадання відразу двох шісток було більше половини від загальної кількості кидків?

2. Як справедливо розділити поставлені двома гравцями гроші, якщо вони з якихось причин припинили гру передчасно?

Ці задачі обговорювалися в листуванні Б. Паскаля і П. Ферма (1601—1665) і послужили приводом для запровадження поняття математичного сподівання, і спроб формулювання основних теорем додавання й добутку ймовірностей. Під впливом поставлених і розглянутих питань вирішенням тих же задач зайнявся Християн Гюйгенс. Він не був знайомий із листуванням Паскаля та Ферма, тому методику розв'язку винайшов самостійно. Його працю, в якій запроваджено основні поняття теорії ймовірностей (поняття ймовірності як величини шансу; математичне сподівання для дискретних випадків, у вигляді ціни шансу), а також використані теореми додавання і множення ймовірностей (не сформульовані явно), було надруковано 1657 року, на двадцять років раніше листів Паскаля і Ферма (1679 рік).

Справжню наукову основу теорії ймовірностей заклав великий математик Якоб Бернуллі (1654—1705). Його праця «Мистецтво припущень»[en] стала першим ґрунтовним трактатом з теорії ймовірностей. Вона містила загальну теорію перестановок і поєднань. А сформульований Бернуллі закон великих чисел дав можливість встановити зв'язок між імовірністю будь-якої випадкової події та частотою її появи, яка спостерігається безпосередньо з досвіду. У першій половині XIX століття теорія ймовірностей починає застосовуватися до аналізу похибок спостережень; Лаплас і Пуассон довели перші граничні теореми. У другій половині XIX століття значний доробок зробили російські вчені: П. Л. Чебишов, А. А. Марков і О. М. Ляпунов. Тоді було доведено закон великих чисел, центральну граничну теорему, а також розроблено теорію ланцюгів Маркова. Сучасного вигляду теорія ймовірностей набула завдяки аксіоматизації, яку запропонував Андрій Миколайович Колмогоров.[9]

Значний внесок в теорію ймовірностей зробив українсько-російський математик, академік НАН України, директор Інституту математики НАН України, лауреат премії імені П. Чебишева Гнєденко Борис Володимирович. Йому вдалося довести в остаточному формулюванні локальну граничну теорему для незалежних, однаково розподілених гратчастих доданків (1948 р.). В Україні він почав дослідження непараметричних методів статистики, закінчив роботу над підручником «Курс теорії ймовірностей»[10] (перше видання — 1949 р.) і монографією «Граничні розподіли для сум незалежних випадкових величин».

Врешті-решт теорія ймовірностей набула чіткого математичного вигляду та остаточно стала сприйматися як один із розділів математики.

Основні положення

ред.

Під випробуванням мається на увазі здійснення запланованих дій і отримання результату за виконання певного комплексу умов S. При цьому припускається, що ці умови є фіксованими; вони або об'єктивно існують, або створюються штучно й можуть бути відтворені необмежену кількість разів.

Прикладами випробування: виготовлення деталі або виробу, кидання монети або грального кубика, розігрування лотереї, проведення аукціону.

Предметом дослідження теорії ймовірності є особливі залежності, притаманні результатам масових однорідних (для яких зберігається комплекс умов S) випробувань. При цьому досліджуються випробування, які характеризуються статистичною регулярністю, хоча наслідки випробувань у кожному випадку можуть бути різними.

Результатом випробування є подія. Події поділяються на: достовірні/правдиві (однозначно відбудуться) та неможливі, сумісні та несумісні, еквівалентні/тотожні та протилежні. Позначаються великими латинськими літерами, наприклад, А, B, С.

Основні об'єкти дослідження теорії ймовірностей:

  1. випадкова подія та її ймовірність;
  2. випадкова величина та її функція розподілу;
  3. випадковий процес та його ймовірнісна характеристика.

Поняття події краще розглядати в теоретико-множинному контексті.[кому?]

Приклад

ред.

Нехай події Ai, (i = 1, 2, 3, 4, 5, 6) полягають у тому, що при одному киданні грального кубика випало   очок ; подія А — парна кількість очок. Тоді подія А є множиною подій, елементами якої є події A2, A4, A6, тобто A = {A2, A4, A6}. Якщо при реалізації такої сукупності умов S відбулася одна з подій A2, A4, A6, то це означає, що відбулася подія А (випала парна кількість очок). Отже події A2, A4, A6 є реалізаціями, проявами події А.

Дискретні розподіли ймовірностей

ред.
 
Розподіл Пуассона, дискретний розподіл ймовірностей.

Дискретна теорія ймовірностей розглядає події, які виникають у зліченних просторах подій.

Наприклад: кидання гральних кісточок, експерименти із колодою карт, випадкове блукання, і підкидання монет

Класичне визначення: Спочатку ймовірність події визначали як кількість випадків, у яких може трапитися подія, із загальної кількості можливих випадків у рівноймовірнісному просторі подій: див. класичне визначення ймовірності.

Наприклад, якщо подією є те, «що при киданні гральної кістки випаде парне число», то ймовірність становитиме  , оскільки 3 грані з 6 мають нанесені на них парні числа, і кожна грань має однакову ймовірність випадання.

Сучасне визначення: Сучасне визначення починається зі скінченної або зліченної множини, що називають простором елементарних подій, яка відповідає множині всіх можливих випадків у класичному розумінні, і яку позначають через  . Тоді вважають, що кожному елементові   відповідає істинне значення «ймовірності»  , яке задовольняє наступним властивостям:

  1.  
  2.  

Таким чином, функція ймовірностей   набуває значень між нулем та одиницею для кожного значення   у просторі подій  , а сума   за всіма значеннями   у просторі подій   дорівнює 1. Випадкова подія визначається як будь-яка підмножина   простору елементарних подій  . Ймовірність події   визначають як

 

Таким чином, ймовірність повного простору подій дорівнює 1, а ймовірність нульової події дорівнює 0.

Функцію  , що відображає точку в просторі подій на значення «ймовірності», називають функцією маси ймовірності, скорочено ФМІ. Сучасне визначення не намагається дати відповідь, як отримувати функції маси імовірності; натомість, воно вибудовує теорію, яка передбачає їхнє існування.

Неперервні розподіли ймовірностей

ред.
 
Нормальний розподіл, неперервна розподіл ймовірностей.

Неперервна теорія ймовірностей вивчає випадки, що виникають у неперервному просторі подій.

Класичне визначення: При стиканні з неперервним випадком класичне визначення не вибудовується. Див. парадокс Бертрана.

Сучасне визначення: Якщо вихідний простір випадкової величини X є множиною дійсних чисел ( ) або її підмножиною, то існує функція, що називають кумулятивною функцією розподілу ймовірностей (КФР)  , і визначають як  . Функція F(x) повертає значення ймовірності, що відповідає тому що величина X є меншою або рівною x.

КФР обов'язково задовольняє наступним властивостям:

  1.   є монотонною не спадною, рівномірно неперервною функцією;
  2.  
  3.  

Якщо   є абсолютно неперервною, тобто, існує її похідна, а інтегрування її похідної функції знову дає КФР, то кажуть, що випадкова величина X має функцію густини імовірності, або ФГІ, або просто густину  

Для множини   ймовірність того, що значення випадкової величини X знаходиться в  , дорівнює

 

У випадку існування функції густини це можливо записати як

 

В той час як ФГІ існує лише для неперервних випадкових величин, КФР існує для всіх випадкових величин (в тому числі й для дискретних), що набувають значень в  

Ці поняття можливо узагальнити й для багатовимірних випадків у просторі   та інших неперервних просторів подій.

Збіжність випадкових величин

ред.

У теорії ймовірності існують декілька різних визначень збіжності випадкових величин. Вони перераховані нижче у порядку своєї суворості, тобто, будь-яке наступне поняття збіжності означає виконання збіжності попередніх.

Слабка збіжність
Послідовність випадкових величин   слабко збігається до випадкової величини   якщо їх відповідні кумулятивні функції розподілу   збігаються до кумулятивної функції розподілу   величини  , де   є неперервною. Слабку збіжність також називають збіжністю за розподілом.
Найбільш поширена скорочена нотація:  
Збіжність за ймовірністю
Говорять, що послідовність випадкових величин   збігається до випадкової величини   за ймовірністю якщо   для кожної ε > 0.
Найбільш поширена скорочена нотація:  
Сильна збіжність
Кажуть, що послідовність випадкових величин   збігається до випадкової величини   сильно якщо  . Сильну збіжність також називають збіжністю за нормою або майже певною збіжністю.
Найбільш поширена скорочена нотація:  

Як зрозуміло із назв слабка збіжність є менш строгою ніж сильна збіжність. По суті, сильна збіжність передбачає збіжність за імовірністю, а збіжність за імовірністю передбачає слабку збіжність. Обернене твердження не завжди буде мати місце.

Закон великих чисел

ред.

Інтуїтивно можна передбачити, що якщо монету підкинути багато разів, тоді приблизно половину разів вона падатиме чіт до гори, а іншу половину разів до гори випаде лишка. Крім того, чим більше разів підкидати монети, тим ймовірніше співвідношення кількості випадіння чіт до кількості лишків буде наближатися до одиниці. Сучасна теорія ймовірності надає формальне визначення цієї інтуїтивної здогадки, що відоме як закон великих чисел. Цей закон є визначальним, оскільки він не є припущенням яке лежить в основі теорії ймовірностей, а є теоремою, що доведена із її аксіом. Оскільки він пов'язує теоретично виведені ймовірності на основі частоти їх фактичного виникнення при реальному спостереженні, закон великих чисел є одним із найважливішим в історії статистичної теорії і має широке застосування.[11]

Закон великих чисел стверджує, що вибіркове середнє

 

послідовності незалежних і однаково розподілених випадкових величин   збігається до їх спільного сподівання  , за умови що математичне сподівання   є скінченним.

Різні форми збіжності випадкових величин визначають як наслідок дві форми закону великих чисел: слабкий і сильний

Слабкий закон:   для  
Сильний закон:   для  

Із закону великих чисел випливає, що навіть якщо ймовірність p є результатом спостережень за повторюваними незалежними експериментами, співвідношення частоти спостереження за цією подією до загальної кількості повторень експерименту буде збігатися до значення p.

Наприклад, якщо   є незалежними випадковими величинами Бернуллі, що можуть приймати значення 1 із ймовірністю p і значення 0 із ймовірністю 1-p, тоді   для всіх i, так що   майже напевно збігається до p.

Центральна гранична теорема

ред.

Центральна гранична теорема є одним із видатних результатів математики.[12] Вона пояснює всюдисуще існування нормального розподілу в природі.

Теорема стверджує, що середнє багатьох незалежних і однаково розподілених випадкових величин із скінченною дисперсією прямує до нормального розподілу незалежно від розподілу, якому слідує початкова випадкова величина. Формально, нехай   є незалежними випадковими величинами із середнім   та дисперсією   Тоді послідовність випадкових величин

 

збігається за розподілом до випадкової величини із стандартним нормальним розподілом.

Теми теорії ймовірностей

ред.

Особливість теорії ймовірностей

ред.
  • У теорії ймовірностей випадкову змінну вважають відомою.[13]

Ця особливість відрізняє предмет і методи теорії ймовірностей від предмету і методів математичної статистики, де випадкову змінну досліджують після одержання статистичного матеріалу.

Див. також

ред.

Примітки

ред.
  1. Ймові́рностей тео́рія [Архівовано 23 квітня 2016 у Wayback Machine.] // Енциклопедія сучасної України / ред. кол.: І. М. Дзюба [та ін.] ; НАН України, НТШ. — К. : Інститут енциклопедичних досліджень НАН України, 2001­–2024. — ISBN 966-02-2074-X.
  2. Імові́рностей тео́рія // Українська радянська енциклопедія : у 12 т. / гол. ред. М. П. Бажан ; редкол.: О. К. Антонов та ін. — 2-ге вид. — К. : Головна редакція УРЕ, 1979. — Т. 4 : Електрод — Кантаридин. — С. 360.
  3. Імовірність // Словник української мови : в 11 т. — Київ : Наукова думка, 1970—1980.
  4. Hald, Anders (2003). A History of Probability and Statistics and Their Applications before 1750. Hoboken, NJ: Wiley. ISBN 0-471-47129-1. (англ.)
  5. Hald, Anders (1998). A History of Mathematical Statistics from 1750 to 1930. New York: Wiley. ISBN 0-471-17912-4. (англ.)
  6. Гнєденко Б. В. Нарис з історії теорії ймовірностей // Курс теорії ймовірностей. — К.: Видавничо-поліграфічний центр «Київський університет», 2010. — 464с. С. 351—428.
  7. Колмогоров, А. Н. «Основные понятия теории вероятностей», М.: Наука, 1974 (рос.)
  8. Стройк Д. Я. Краткий очерк истории математики. — Изд. 3-е. — М.: Наука, 1984. — 285 с.
  9. Колмогоров, А. Н. «Основные понятия теории вероятностей», М.: Наука, 1974 (рос.)
  10. Гнєденко Б. В. Курс теорії ймовірностей. — К.: ВПЦ Київський університет, 2010. — 464 с.
  11. Leithner & Co Pty Ltd - Value Investing, Risk and Risk Management - Part I. Leithner.com.au. 15 вересня 2000. Архів оригіналу за 26 січня 2014. Процитовано 12 лютого 2012. [Архівовано 2014-01-26 у Wayback Machine.]
  12. Chapter 18 in David Williams, «Probability with martingales», Cambridge 1991/2008
  13. Сеньо П. С. Теорія ймовірностей та математична статистика: Підручник. — 2-ге вид., перероб. і доп. — К.: Знання, 2007. — С. 291.

Література

ред.

Посилання

ред.