Інформаційна ентропія: відмінності між версіями

[перевірена версія][перевірена версія]
Вилучено вміст Додано вміст
Немає опису редагування
Рядок 276:
: <math>\Eta_n\bigg(\underbrace{\frac{1}{n}, \ldots, \frac{1}{n}}_{n}\bigg) = \log_b(n) < \log_b (n+1) = \Eta_{n+1}\bigg(\underbrace{\frac{1}{n+1}, \ldots, \frac{1}{n+1}}_{n+1}\bigg).</math>
 
Для безперервних випадкових змінних розподілом із максимальною {{нп|[[Диференціальна ентропія|диференціальною ентропією||Differential entropy}}]] є [[багатовимірний нормальний розподіл]].
 
=== Адитивність ===
Рядок 337:
 
=== Диференціальна ентропія ===
{{Докладніше1|{{нп|Диференціальна ентропія|||Differential entropy}}}}
 
Ентропію Шеннона обмежено випадковими величинами, які набувають дискретних значень. Відповідна формула для неперервної випадкової величини з [[Функція густини ймовірності|функцією густини ймовірності]] {{math|''f''(''x'')}} зі скінченною або нескінченною областю визначення <math>\mathbb X</math> на дійсній осі визначається аналогічно, з допомогою наведеного вище вираження ентропії як математичного сподівання:
Рядок 343:
: <math>h[f] = \operatorname{E}[-\ln (f(x))] = -\int_\mathbb X f(x) \ln (f(x))\, dx.</math>
 
Цю формулу зазвичай називають '''непере́рвною ентропі́єю''' ({{lang-en|continuous entropy}}), або {{нп|[[Диференціальна ентропія|диференціальною ентропією||Differential entropy}}]]. Попередником неперервної ентропії {{math|''h''[''f'']}} є вираз функціоналу {{math|''Η''}} в {{нп|Η-теорема Больцмана|Η-теоремі Больцмана||H-theorem}}.
 
Хоча аналогія між обома функціями й наводить на роздуми, мусить бути поставлено наступне питання: чи є диференціальна ентропія обґрунтованим розширенням дискретної ентропії Шеннона? Диференціальній ентропії бракує ряду властивостей, якими володіє дискретна ентропія Шеннона,&nbsp;— вона навіть може бути від'ємною,&nbsp;— і відтак було запропоновано поправки, зокрема, {{нп|взяття границі щільності дискретних точок|||Limiting density of discrete points}}.
Рядок 410:
=== Нерівність Люміса&nbsp;— Уїтні ===
 
Простим прикладом цього є альтернативне доведення {{нп|Нерівність Люміса — УїтніВітні|нерівності Люміса&nbsp;— УїтніВітні||Loomis–Whitney inequality}}: для будь-якої підмножини {{math|''A'' ⊆ '''Z'''<sup>''d''</sup>}} ми маємо
 
: <math> |A|^{d-1}\leq \prod_{i=1}^{d} |P_{i}(A)|</math>
Рядок 525:
* [http://www.shannonentropy.netmark.pl Інтерактивний інструмент для обчислення ентропії (простого тексту ASCII)]
* [//servertest.online/entropy Інтерактивний інструмент для обчислення ентропії (двійкового входу)]
 
 
{{Методи стиснення даних}}