Тест Куйпера використовується в статистиці для перевірки того чи даний розподіл, або сімейство розподілів, не має підстав у вибірці даних. Названий на честь голландського математика Ніколаса Койпера[1].

Тест Куйпера тісно пов'язаний з більш відомим тестом Колмогорова – Смирнова (або як його часто називають КС тестом). Як і у випадку з тестом КС, статистика розбіжностей D+ і D позначає абсолютні значення найбільших позитивних і найбільших негативних похибок між двома порівнюваними функціями розподілу. Хитрість тесту Куйпера полягає у використанні величини D+   +   D як тестової статистики. Ця невеличка зміна робить тест Куйпера настільки ж чутливим у хвостах як в медіані, а також робить його інваріантним до циклічних перетворень незалежної змінної. Тест Андерсона-Дарлінга - инший тест, що забезпечує однакову чутливість в хвостах і медіані, проте він не гарантує циклічної інваріантності.

Ця інваріантність до циклічних перетворень робить тест Куйпера неоціненним при тестуванні циклічних варіацій за часом року або днем тижня або часу доби, і взагалі для тестування відповідності і відмінностей між кільцевими розподілами ймовірностей .

Означення ред.

 
Ілюстрація двовимірної статистики тесту Куйпера. Кожна з червоних і синіх ліній відповідає емпіричній функції розподілу, а чорні стрілки показують відстані точок, які складають статистику Куйпера.

Тестова статистика, V, тесту Куйпера визначена так: нехай F неперервна функція розподілу, яку приймають за нульову гіпотезу. Позначимо вибірку даних, що є незалежними реалізаціями випадкових величин, з функцією розподілу F, xi (i=1,...,n). Далі визначають[2]

 
 

і, нарешті,

 

Таблиці критичних значень тестової статистики доступні[3] і до них належать деякі випадки, коли тестований розподіл цілком не відомий, тож параметри сімейства розподілів оцінюють.

Якщо тестована гіпотеза правильна, то статистика   прямує до розподілу[1]:

  .

Аби зменшити залежність розподілу статистики від розміру вибірки, можна в критерії використовувати модифікацію статистики вигляду[4]

  ,

чи модифікацію статистики типу[5]

  .

У першому випадку розбіжностями між розподілом статистики від граничного розподілу можна знехтувати при  , у другому — при  .

При перевірці простих гіпотез критерій не залежить від розподілу, тобто не залежить від типу тестованого розподілу.

Гіпотезу відхиляють при великих значеннях статистики.

Приклад ред.

Спробуємо перевірити гіпотезу, що комп'ютери ламаються частіше в певний проміжок в році ніж решту часу. Щоб перевірити це, потрібно зібрати дати коли комп'ютери ламаються і побудувати емпіричну функцію розподілу. Тоді нульова гіпотеза полягає в тому, що невдачі є рівномірно розподіленими. Статистика Куйпера не змінюється, якщо ми змінюємо початок року і для нього не потрібно групувати несправності за місяцями чи щось такого штибу[1][6]. Ще один приклад тестової статистики з такою ж властивістю статистика Уотсона[2][6], яка пов'язана з тестом Крамера–фон Мізеса.

Однак, якщо збої стаються в основному у вихідні, багато тестів рівномірного розподілу, такі як K-С і Куйпера б не здатні цього виявити, оскільки вихідні трапляються протягом року. Ця неможливість відрізнити гребінце-подібні розподіли від неперервного рівномірного розподілу -- є наріжною проблемою статистистик варіацій К-С тесту. Тест Куйпера, застосований до часових подій з модулем один тиждень здатний виявити таку закономірність. Застосовуючи до промодулювані в часі подій К-С тест може дати різні результати, в залежності від фазування даних. У такому прикладі К-С тест може виявляти нерівномірність вибірки даних, якщо починати тиждень в суботу, але не в змозі виявити нерівномірність, якщо вважати початком тижня середу.

Див. також ред.

Джерела ред.

  1. а б в Kuiper, N. H. (1960). Tests concerning random points on a circle. Proceedings of the Koninklijke Nederlandse Akademie van Wetenschappen, Series A. 63: 38—47. (англ.)
  2. а б Pearson, E.S., Hartley, H.O. (1972) Biometrika Tables for Statisticians, Volume 2, CUP. ISBN 0-521-06937-8 (page 118)
  3. Pearson, E.S., Hartley, H.O. (1972) Biometrika Tables for Statisticians, Volume 2, CUP. ISBN 0-521-06937-8 (Table 54)
  4. Stephens M. A. EDF statistics for goodness of fit and some comparisons // J. American Statistic. Association. 1974. V. 69. N 347. P. 730—737. (англ.)
  5. Лемешко Б. Ю., Горбунова А. А. О применении и мощности непараметрических критериев согласия Купера, Ватсона и Жанга // Измерительная техника. 2013. № 5. — С.3-9. (рос.)
  6. а б Watson, G.S. (1961) "Goodness-Of-Fit Tests on a Circle", Biometrika, 48 (1/2), 109–114 JSTOR 2333135