У теорії ймовірностей та теорії інформації взає́мна інформа́ція (англ. mutual information, MI) двох випадкових змінних — це міра взаємної залежності між цими двома змінними. Конкретніше, вона визначає «кількість інформації» (в таких одиницях, як шеннони, що зазвичай називають бітами), отримуваної про одну випадкову змінну через спостерігання іншої випадкової змінної. Поняття взаємної інформації нерозривно пов'язане з ентропією випадкової змінної, фундаментальним поняттям теорії інформації, яке кількісно оцінює очікувану «кількість інформації», що міститься у випадковій змінній.

Діаграма Венна, що показує адитивні та різницеві відношення різних мір інформації, пов'язаних із корельованими змінними та . Область, яка міститься в обох колах, є спільною ентропією . Коло ліворуч (червоний і фіолетовий) є особистою ентропією , в якому червоне є умовною ентропією . Коло праворуч (синій та фіолетовий) є , а синє в ньому є . Фіолетове є взаємною інформацією .

Не обмежуючись, як коефіцієнт кореляції, дійснозначними випадковими змінними, взаємна інформація є загальнішою, і визначає, наскільки подібним є спільний розподіл до добутків розкладених відособлених розподілів . Взаємна інформація — це математичне сподівання поточкової взаємної інформації (англ. pointwise mutual information, PMI).

Визначення ред.

Формально взаємну інформацію двох дискретних випадкових змінних   та   може бути визначено як[1]:20

 

де   є функцією спільного розподілу ймовірностей   та  , а   та   є функціями відособлених розподілів імовірності   та   відповідно.

У випадку неперервних випадкових змінних підсумовування замінюється визначеним подвійним інтегралом:[1]:251

 

де   тепер є функцією густини спільної ймовірності   та  , а   та   є функціями густини відособлених імовірностей   та   відповідно.

Якщо застосовується логарифм за основою 2, то одиницею вимірювання взаємної інформації є біт.

Обґрунтування ред.

Інтуїтивно, взаємна інформація вимірює інформацію, яку поділяють   та  : вона вимірює, наскільки знання однієї з цих змінних зменшує невизначеність щодо іншої. Наприклад, якщо   та   є незалежними, то знання   не дає жодної інформації про  , і навпаки, тому їхня взаємна інформація дорівнює нулеві. З іншого боку, якщо   є детермінованою функцією від  , і   є детермінованою функцією від  , то вся інформація, що передає змінна  , є спільною з  : знання   визначає значення  , і навпаки. В результаті, в цьому випадку взаємна інформація є тим же, що й невизначеність, яка міститься окремо в   (або  ), а саме ентропія   (або  ). Більше того, ця взаємна інформація і є такою ж, як і ентропія   та як ентропія  . (Дуже особливим випадком цього є такий, коли   та   є однією й тією ж випадковою змінною.)

Взаємна інформація є мірою притаманної залежності, вираженої в спільному розподілі   та  , по відношенню до спільного розподілу   та   за припущення незалежності. Взаємна інформація відтак вимірює залежність у наступному сенсі:  , якщо і лише якщо   та   є незалежними випадковими змінними. Це легко побачити в одному напрямку: якщо   та   є незалежними, то  , і тому

 

Крім того, взаємна інформація є невід'ємною (тобто,  , див. нижче) і симетричною (тобто,  , див. нижче).

Відношення до інших величин ред.

Невід'ємність ред.

Застосувавши нерівність Єнсена до визначення взаємної інформації, ми можемо показати, що   є невід'ємною, тобто,[1]:28

 

Симетричність ред.

 

Відношення до умовної та спільної ентропій ред.

Взаємну інформацію може бути рівнозначно виражено як

 

де   та   є відособленими ентропіями,   та   є умовними ентропіями, а   є спільною ентропією   та  . Зверніть увагу на аналогію з об'єднанням, різницею та перетином двох множин, яку показано в діаграмі Венна. В термінах каналу зв'язку, в якому вихід   є зашумленою версією входу  , ці відношення узагальнено на малюнку нижче.

 
Відношення між величинами теорії інформації

Оскільки   є невід'ємною, як наслідок,  . Тут ми наводимо докладне виведення  :

 

Доведення інших наведених вище тотожностей є схожими на це.

Інтуїтивно, якщо ентропію   розглядати як міру невизначеності випадкової змінної, то   є мірою того, що   не каже про  . Це є «кількістю невизначеності  , яка залишається після того, як стала відомою  », і, отже, праву частину другого з цих рівнянь можливо читати як «кількість невизначеності   за вирахуванням кількості невизначеності  , яка залишається після того, як стала відомою  », що рівнозначно «кількість невизначеності  , яка усувається, коли стає відомою  ». Це підтримує інтуїтивне значення взаємної інформації як кількості інформації (тобто, зниження невизначеності), яке знання однієї з змінних забезпечує стосовно іншої.

Зауважте, що в дискретному випадку   і, отже,  . Таким чином,  , і можна сформулювати основний принцип, що змінна містить про себе щонайменше стільки ж інформації, скільки могла би забезпечити будь-яка інша змінна. Це відповідає подібним пов'язаним результатам.

Відношення до відстані Кульбака — Лейблера ред.

Взаємну інформацію також може бути виражено як відстань Кульбака — Лейблера добутку   відособлених розподілів двох випадкових змінних   та   від спільного розподілу цих випадкових змінних  :

 

Крім того, нехай  . Тоді

 

Зауважте, що тут відстань Кульбака — Лейблера передбачає інтегрування лише за випадковою змінною  , і вираз   тепер є випадковою змінною в  . Таким чином, взаємну інформацію можна також розуміти як математичне сподівання відстані Кульбака — Лейблера одновимірного розподілу[en]   змінної   від умовного розподілу   змінної   відносно  : що більш відмінними в середньому є розподіли   та  , то більшим є приріст інформації.

Баєсове оцінювання взаємної інформації ред.

Як робити баєсове оцінювання взаємної інформації спільного розподілу на основі зразків цього розподілу, є добре зрозумілим. Першою працею про те, як це робити, яка також показала, як робити баєсове оцінювання багато чого іншого в теорії інформації, понад взаємну інформацію, була праця Волперта 1995 року.[2] Наступні дослідники цей аналіз перевивели[3] та розширили.[4] Див. нещодавню працю[5] на основі апріорного, спеціально пристосованого для оцінювання взаємної інформації як такої.

Припущення про незалежність ред.

Формулювання взаємної інформації в термінах відстані Кульбака — Лейблера ґрунтується на зацікавленні в порівнянні   з повністю розкладеним діадним добутком  . В багатьох задачах, таких як розклад невід'ємних матриць, цікавлять менш екстремальні розклади, а саме, хочуть порівнювати   з низькоранговим матричним наближенням у якійсь невідомій змінній  , тобто, до якої міри можна мати

 

Або ж може цікавити дізнатися, скільки інформації несе   понад свій розклад. В такому випадку додаткова інформація, що несе повний розподіл   відносно цього матричного розкладу, задається відстанню Кульбака — Лейблера:

 

Стандартне визначення взаємної інформації відтворюється в екстремальному випадку, коли процес   має для   лише одне значення.

Різновиди ред.

Для задоволення різних потреб було запропоновано кілька варіацій взаємної інформації. Серед них є нормалізовані варіанти та узагальнення до понад двох змінних.

Метрика ред.

Багато застосувань вимагають метрики, тобто міри відстань між парами точок. Величина

 

задовольняє властивості метрики (нерівність трикутника, невід'ємність, нерозрізнюваність[en] та симетрію). Ця метрика відстані також відома як різновидність інформації[en].

Якщо   є дискретними випадковими змінними, то всі члени ентропії є невід'ємними, тому   і можливо визначити унормовану відстань

 

Метрика   є універсальною метрикою, в тому сенсі, що якщо будь-яка інша міра відстані розмістить   та   поруч, то й   також розглядатиме їх як близькі.[6][сумнівно ]

Підключення визначень показує, що

 

У теоретико-множинній інтерпретації інформації (див. малюнок в умовній ентропії) це є фактично відстанню Жаккара між   та  .

Нарешті,

 

також є метрикою.

Умовна взаємна інформація ред.

Детальніші відомості з цієї теми ви можете знайти в статті Умовна взаємна інформація[en].

Іноді корисно виражати взаємну інформацію двох випадкових змінних відносно третьої.

 

що може бути спрощено як

 

Обумовлювання третьою випадковою змінною може збільшувати або зменшувати взаємну інформацію, але для дискретних спільно розподілених випадкових змінних   завжди залишається істинним

 

Цей результат застосовувався як основний будівельний блок для доведення інших нерівностей в теорії інформації[en].

Багатовимірна взаємна інформація ред.

Детальніші відомості з цієї теми ви можете знайти в статті Багатовимірна взаємна інформація[en].

Було запропоновано декілька узагальнень взаємної інформації для понад двох випадкових змінних, такі як повна кореляція[en] та інформація взаємодії[en]. Якщо розглядати ентропію Шеннона як знакозмінну міру в контексті інформаційних діаграм[en], як описано в статті «Теорія інформації та теорія міри[en]», то єдиним визначенням багатовимірної взаємної інформації, яке має сенс,[джерело?] є наступне:

 

і для  

 

де (як вище) ми визначаємо

 

(Це визначення багатовимірної взаємної інформації є ідентичним визначенню інформації взаємодії[en], за винятком зміни знаку, коли число випадкових змінних є непарним.)

Застосування ред.

Сліпе застосування інформаційних схем для виведення вищевказаного визначення[джерело?] зазнавало критики,[чиєї?] і дійсно, воно знайшло досить обмежене практичне застосування, оскільки важко уявити або зрозуміти значення цієї кількості для великого числа випадкових змінних. Вона може бути нульовою, додатною або від'ємною для будь-якого непарного числа змінних  

Одна зі схем багатовимірного узагальнення, яка максимізує взаємну інформацію між спільним розподілом та іншими цільовими змінними, виявилася корисною в обиранні ознак.[7]

Взаємну інформацію також застосовують в галузі обробки сигналів як міру подібності двох сигналів. Наприклад, метрика взаємної інформації ознак (англ. FMI, feature mutual information)[8] — це міра продуктивності злиття зображень, яка застосовує взаємну інформацію для вимірювання кількості інформації, яку злите зображення містить про первинні зображення. Код MATLAB для цієї метрики можна знайти за адресою [9].

Спрямована інформація ред.

Спрямована інформація[en],  , вимірює кількість інформації, що протікає з процесу   до  , де   позначує вектор  , а   позначує  . Термін «спрямована інформація» (англ. directed information) було започатковано Джеймсом Мессі, й визначено як

 .

Зауважте, що якщо  , то спрямована інформація стає взаємною інформацією. Спрямована інформація має багато застосувань у задачах, в яких важливу роль відіграє причинність, таких як пропускна здатність каналу зі зворотним зв'язком.[10][11]

Унормовані варіанти ред.

Унормовані варіанти взаємної інформації забезпечуються коефіцієнтами обмеження,[12] коефіцієнтом невизначеності[en][13] або вправністю (англ. proficiency):[14]

  та  

Ці два коефіцієнти не обов'язково дорівнюють один одному. В деяких випадках може бути бажаною симетрична міра, така як наступна міра надмірності (англ. redundancy):[джерело?]

 

яка досягає нульового мінімуму, коли змінні є незалежними, і максимального значення

 

коли одна зі змінних стає абсолютно надмірною при знанні іншої. Див. також надмірність інформації. Іншою симетричною мірою є симетрична невизначеність (Witten та Frank, 2005), яку задають як

 

що представляє середнє гармонійне двох коефіцієнтів невизначеності  .[13]

Якщо розглядати взаємну інформацію як окремий випадок повної кореляції[en] або двоїстої повної кореляції[en], то унормованими версіями відповідно є

  та  

Ця унормована версія також відома як показник якості інформації (англ. Information Quality Ratio, IQR), що дає кількісну оцінку інформації змінної на основі іншої змінної відносно повної невизначеності:[15]

 

Існує унормування,[16] яке випливає з першого розгляду взаємної інформації як аналогу коваріації (таким чином, ентропія Шеннона є аналогом дисперсії). Потім унормована взаємна інформація розраховується подібно до коефіцієнту кореляції Пірсона,

 

Зважені варіанти ред.

В традиційному формулюванні взаємної інформації

 

кожна подія чи об'єкт, вказані як  , зважуються відповідною ймовірністю  . Це передбачає, що всі об'єкти або події є рівнозначними без врахування ймовірностей їх настання. Проте в деяких застосуваннях може бути так, що певні об'єкти або події є більш значущими, ніж інші, або що деякі шаблони зв'язків є семантично важливішими за інші.

Наприклад, детерміноване відображення   може розглядатися як сильніше за детерміноване відображення  , хоча ці відношення видадуть однакову взаємну інформацію. Це відбувається тому, що взаємна інформація взагалі не чутлива до жодного природного впорядкування значень змінних ((Cronbach, 1954), (Coombs, Dawes та Tversky, 1970), (Lockhead, 1970)), і тому взагалі не чутлива до форми відносного відображення між зв'язаними змінними. Якщо бажано, щоби перше відношення — яке показує узгодженість за всіма значеннями змінних — оцінювалося вище, ніж друге відношення, то можна використовувати наступну зважену взаємну інформацію (Guiasu, 1977).

 

яка поміщає вагу   на імовірність кожного збігу значень змінних,  . Це дозволяє робити так, щоби деякі ймовірності могли нести більше або менше важливості за інші, тим самим дозволяючи кількісно виразити відповідні чинники цілісності (англ. holistic) або виразності (нім. Prägnanz). У наведеному вище прикладі застосування більших відносних ваг для  ,   і   матиме ефект вищої оцінки інформативності для відношення  , ніж для відношення  , що може бути бажаним в деяких випадках розпізнавання образів тощо. Ця зважена взаємна інформація є вираженням зваженої відстані Кульбака — Лейблера, яка, як відомо, може набувати від'ємних значень для деяких входів,[17] і є приклади, де зважена взаємна інформація також набуває від'ємних значень.[18]

Скоригована взаємна інформація ред.

Детальніші відомості з цієї теми ви можете знайти в статті Скоригована взаємна інформація[en].

Розподіл імовірності можна розглядати як розбиття множини. Можна запитати: якщо множину було розбито випадковим чином, яким буде розподіл імовірностей? Яким буде математичне сподівання взаємної інформації? Скоригована взаємна інформація[en] (англ. adjusted mutual information, AMI) віднімає математичне сподівання взаємної інформації таким чином, що вона дорівнює нулеві, коли два різних розподіли носять випадковий характер, і одиниці, коли два розподіли збігаються. Скоригована взаємна інформація визначається за аналогією зі скоригованим індексом Ренда[en] двох різних розбиттів множини.

Абсолютна взаємна інформація ред.

З допомогою ідей колмогоровської складності можна розглядати взаємну інформацію двох послідовностей незалежно від будь-якого розподілу ймовірностей:

 

Встановлення того, що ця величина є симетричною з точністю до логарифмічного множника ( ), потребує ланцюгового правила для колмогоровскої складності[en] (Li та Vitányi, 1997). Наближення цієї величини через стиснення може застосовуватися для визначення міри відстані для виконання ієрархічного кластерування послідовностей без жодного знання про предметну область цих послідовностей (Cilibrasi та Vitányi, 2005).

Лінійна кореляція ред.

На відміну від коефіцієнтів кореляції, наприклад, коефіцієнту кореляції моменту добутку, взаємна інформація містить інформацію про всю залежність — лінійну й нелінійну, — а не просто про лінійну залежність, як міри коефіцієнтів кореляції. Тим не менш, у вузькому випадку, в якому спільний розподіл   та   є двовимірним нормальним розподілом (за припущення, зокрема, що обидва відособлені розподіли розподілені нормально), існує точний взаємозв'язок між   та коефіцієнтом кореляції   (Гельфанд та Яглом, 1957).

 

Наведене вище рівняння може бути виведено для двовимірного нормального розподілу наступним чином:

 

Отже,

 

Для дискретних даних ред.

Коли   та   обмежено перебуванням у дискретному числі станів, то дані спостережень підсумовують до таблиці спряженості зі змінною рядків   (або  ) та змінною стовпців   (або  ). Взаємна інформація є однією з мір асоційовності або кореляції між змінними рядків і стовпців. До інших мір асоційовності належать статистики критерію хі-квадрат Пірсона, статистики G-критерію[en] тощо. Фактично, взаємна інформація дорівнює статистиці G-критерію[en], поділеній на  , де   є розміром вибірки.

Застосування ред.

В багатьох застосуваннях потрібно максимізувати взаємну інформацію (тим самим збільшуючи взаємозалежність), що часто рівнозначне мінімізації умовної ентропії. До прикладів належать:

Див. також ред.

Примітки ред.

  1. а б в Cover, T.M.; Thomas, J.A. (1991). Elements of Information Theory (вид. Wiley). ISBN 978-0-471-24195-9. (англ.)
  2. Wolpert, D.H.; Wolf, D.R. (1995). Estimating functions of probability distributions from a finite set of samples. Physical Review E. (англ.)
  3. Hutter, M. (2001). Distribution of Mutual Information. Advances in Neural Information Processing Systems 2001. (англ.)
  4. Archer, E.; Park, I.M.; Pillow, J. (2013). Bayesian and Quasi-Bayesian Estimators for Mutual Information from Discrete Data. Entropy. (англ.)
  5. Wolpert, D.H; DeDeo, S. (2013). Estimating Functions of Distributions Defined over Spaces of Unknown Size. Entropy. (англ.)
  6. Kraskov, Alexander; Stögbauer, Harald; Andrzejak, Ralph G.; Grassberger, Peter (2003). «Hierarchical Clustering Based on Mutual Information». arXiv:q-bio/0311039.  (англ.)
  7. Christopher D. Manning; Prabhakar Raghavan; Hinrich Schütze (2008). An Introduction to Information Retrieval. Cambridge University Press. ISBN 0-521-86571-9. (англ.)
  8. Haghighat, M. B. A.; Aghagolzadeh, A.; Seyedarabi, H. (2011). A non-reference image fusion metric based on mutual information of image features. Computers & Electrical Engineering. 37 (5): 744—756. doi:10.1016/j.compeleceng.2011.07.012. (англ.)
  9. Feature Mutual Information (FMI) metric for non-reference image fusion - File Exchange - MATLAB Central. www.mathworks.com. Архів оригіналу за 16 квітня 2014. Процитовано 4 квітня 2018. (англ.)
  10. Massey, James (1990). Causality, Feedback And Directed Informatio (ISITA). Архів оригіналу за 7 квітня 2018. Процитовано 16 грудня 2018. (англ.)
  11. Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory. 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. (англ.)
  12. Coombs, Dawes та Tversky, 1970.
  13. а б Press, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007). Section 14.7.3. Conditional Entropy and Mutual Information. Numerical Recipes: The Art of Scientific Computing (вид. 3). New York: Cambridge University Press. ISBN 978-0-521-88068-8. (англ.)
  14. White, Jim; Steingold, Sam; Fournelle, Connie. Performance Metrics for Group-Detection Algorithms (PDF). Архів оригіналу (PDF) за 5 липня 2016. Процитовано 28 червня 2016. (англ.)
  15. Wijaya, Dedy Rahman; Sarno, Riyanarto; Zulaika, Enny. Information Quality Ratio as a novel metric for mother wavelet selection. Chemometrics and Intelligent Laboratory Systems. 160: 59—71. doi:10.1016/j.chemolab.2016.11.012. (англ.)
  16. Strehl, Alexander; Ghosh, Joydeep (2002), Cluster Ensembles – A Knowledge Reuse Framework for Combining Multiple Partitions (PDF), The Journal of Machine Learning Research, 3 (Dec): 583—617, архів оригіналу (PDF) за 3 серпня 2016, процитовано 28 червня 2016 (англ.)
  17. Kvålseth, T. O. (1991). The relative useful information measure: some comments. Information sciences. 56 (1): 35—38. doi:10.1016/0020-0255(91)90022-m. (англ.)
  18. Pocock, A. (2012). Feature Selection Via Joint Likelihood [Архівовано 5 листопада 2018 у Wayback Machine.] (PDF) (Thesis). (англ.)
  19. Parsing a Natural Language Using Mutual Information Statistics [Архівовано 25 лютого 2014 у Wayback Machine.] by David M. Magerman and Mitchell P. Marcus (англ.)
  20. Hugh Everett Theory of the Universal Wavefunction [Архівовано 16 жовтня 2012 у Wayback Machine.], Thesis, Princeton University, (1956, 1973), pp 1–140 (page 30) (англ.)
  21. Everett, Hugh (1957). Relative State Formulation of Quantum Mechanics. Reviews of Modern Physics. 29: 454—462. Bibcode:1957RvMP...29..454E. doi:10.1103/revmodphys.29.454. Архів оригіналу за 27 жовтня 2011. Процитовано 28 червня 2016. (англ.)
  22. GlobalMIT на Google Code
  23. Keys, Dustin; Kholikov, Shukur; Pevtsov, Alexei A. (February 2015). Application of Mutual Information Methods in Time Distance Helioseismology. Solar Physics. 290 (3): 659—671. arXiv:1501.05597. Bibcode:2015SoPh..290..659K. doi:10.1007/s11207-015-0650-y. (англ.)

Джерела ред.

Література ред.

  • Габидулин, Э. М., Пилипчук, Н. И. Лекции по теории информации. — М.: МФТИ, 2007. — 214 с. — ISBN 5-7417-0197-3 (рос.)