В теорії інформації умо́вна ентропі́я (або ухи́льність, англ. conditional entropy, equivocation) — це оцінка кількості інформації, необхідної, щоб описати вихід випадкової змінної , враховуючи, що значення іншої випадкової змінної  є відомим. Тут інформація вимірюється в шеннонах, натах або гартлі. Ентропія , обумовлена записується як .

Діаграма Венна, що показує адитивні та різницеві відношення серед різних мір інформації, пов'язаних із корельованими змінними та . Область, яка міститься в обох колах, є спільною ентропією . Коло ліворуч (червоний і фіолетовий) є особистою ентропією , в якому червоне є умовною ентропією . Коло праворуч (синій та фіолетовий) є , а синє в ньому є . Фіолетове є взаємною інформацією .

Означення ред.

Нехай   є ентропією дискретної випадкової змінної  , обумовленою набуванням дискретною випадковою змінною   певного значення  . Нехай   має функцію маси ймовірності  . Безумовна ентропія   обчислюється як  , тобто,

 

де   є інформаційним вмістом набування результатом[en]   значення  . Ентропію  , обумовлену набуванням випадковою змінною   значення  , визначено аналогічно до умовного математичного сподівання:

 

  є результатом усереднювання   над усіма можливими значеннями  , що їх може набувати  .

Для заданих дискретних випадкових змінних   з носієм   та   з носієм   умовну ентропію   відносно   визначають як зважену суму   для кожного з можливих значень   із застосуванням   як вагових коефіцієнтів:[1]:15

 

Примітка: Зрозуміло, що вирази   та   для фіксованих   слід вважати рівними нулеві.

Властивості ред.

Нульова умовна ентропія ред.

  якщо і лише якщо значення   повністю визначається значенням  .

Умовна ентропія незалежних випадкових змінних ред.

І навпаки,   якщо і лише якщо   та   є незалежними випадковими змінними.

Ланцюгове правило ред.

Припустімо, що об'єднана система, яку визначають дві випадкові змінні   та  , має спільну ентропію  , тобто, нам потрібно в середньому   біт інформації, щоби описати її точний стан. Тепер, якщо ми спочатку дізналися значення  , ми отримали   біт інформації. Щойно   стало відомим, нам потрібно лише   біт, щоб описати стан системи в цілому. Ця величина в точності дорівнює  , що дає нам ланцюгове правило умовної ентропії:

 [1]:17

Ланцюгове правило випливає з вищенаведеного означення умовної ентропії:

 

В загальному випадку ланцюгове правило для декількох випадкових змінних стверджує, що

 [1]:22

Воно має вигляд, подібний до ланцюгового правила в теорії ймовірностей, за винятком того, що замість множення використовується додавання.

Правило Баєса ред.

Правило Баєса для умовної ентропії стверджує, що

 

Доведення.   і  . Через симетрію,  . Віднімання цих двох рівнянь має наслідком правило Баєса.

Якщо   є умовно незалежною[en] від   за заданої  , то ми маємо

 

Інші властивості ред.

Для будь-яких   та  

 

де   є взаємною інформацією   та  .

Для незалежних   та  

  та  

Хоча конкретно-умовна ентропія   і може бути або меншою, або більшою за   для заданої випадкової варіати[en]   змінної  , але   ніколи не може перевищувати  .

Умовна диференціальна ентропія ред.

Означення ред.

Наведене вище означення є для дискретних випадкових змінних, але в випадку неперервних випадкових змінних воно чинним не є. Неперервну версію дискретної умовної ентропії називають умовною диференціальною (або неперервною) ентропією (англ. conditional differential (continuous) entropy). Нехай   та   є неперервними випадковими змінними з функцією густини спільної ймовірності[en]  . Диференціальну умовну ентропію   означують як

 .[1]:249

Властивості ред.

На противагу до умовної ентропії дискретних випадкових змінних, умовна диференціальна ентропія може бути від'ємною.

Як і в дискретному випадку, для диференціальної ентропії існує ланцюгове правило:

 [1]:253

Зауважте, проте, що це правило може не виконуватися, якщо залучені диференціальні ентропії не існують, або є нескінченними.

Спільну диференціальну ентропію також використано в означенні взаємної інформації між неперервними випадковими змінними:

 

 , з рівністю якщо і лише якщо   та   є незалежними.[1]:253

Стосунок до похибки оцінювача ред.

Умовна диференціальна ентропія дає нижню межу математичного сподівання квадратичної похибки оцінювача. Для будь-якої випадкової змінної  , спостереження   та оцінювача   виконується наступне:[1]:255

 

Це стосується принципу невизначеності в квантовій механіці.

Узагальнення до квантової теорії ред.

У квантовій теорії інформації умовна ентропія узагальнюється до умовної квантової ентропії[en]. Остання, на відміну від свого класичного аналога, може набувати від'ємних значень.

Див. також ред.

Примітки ред.

  1. а б в г д е ж T. Cover; J. Thomas (1991). Elements of Information Theory. ISBN 0-471-06259-6. (англ.)