Ентропійне кодування: відмінності між версіями

нема опису редагування
[неперевірена версія][неперевірена версія]
(додав посилання)
Немає опису редагування
'''Ентропі́йне кодува́ння''' - кодування послідовності значень з можливістю однозначного відновлення з метою зменшення обсягу даних (довжини послідовності) за допомогою усереднення ймовірностей появи елементів у закодованій послідовності.
 
Передбачається, що до кодування окремі елементи послідовності мають різну ймовірність появи. Після кодування в результуючій послідовності ймовірності появи окремих символів практично однакові (ентропія на символ максимальна).
 
Розрізняють декілька варіантів кодів:
* Зіставлення кожному елементу вхідної послідовності різного числа елементів результуючої послідовності.<br> Чим більше вірогідність появи вхідного елемента, тим коротше відповідна результуюча послідовність. Прикладом можуть служити [[Алгоритм Шеннона-Фано|код Шеннона - Фано]], [[код Хаффмана]].
* Зіставлення кількох елементів вхідної послідовності фіксованого числа елементів кінцевої послідовності.<br> Прикладом є [[код Танстола]].
* Інші структурні коди, засновані на операціях з послідовністю символів.<br> Прикладом є кодування довжин серій.
 
Прикладом є кодування довжин серій. Якщо приблизні характеристики ентропії потоку даних попередньо відомі, може бути корисний більш простий статичний код, такий як [[Унарне кодування]], [[гамма-код Еліаса]], [[код Фібоначчі]], [[код Голомба]] або [[кодування Райса]].
*Зіставлення кожному елементу вхідної послідовності різного числа елементів результуючої послідовності.<br> Чим більше вірогідність появи вхідного елемента, тим коротше відповідна результуюча послідовність. Прикладом можуть служити [[Алгоритм Шеннона-Фано|код Шеннона - Фано]], [[код Хаффмана]]
*Зіставлення кількох елементів вхідної послідовності фіксованого числа елементів кінцевої послідовності.<br> Прикладом є [[код Танстола]].
*Інші структурні коди, засновані на операціях з послідовністю символів.<br> Прикладом є кодування довжин серій.
Якщо приблизні характеристики ентропії потоку даних попередньо відомі, може бути корисний більш простий статичний код, такий як [[Унарне кодування]], [[гамма-код Еліаса]], [[код Фібоначчі]], [[код Голомба]] або [[кодування Райса]].
 
Згідно з [[Теорема Шеннона — Гартлі|теоремою Шеннона]], існує межа стиснення без втрат, що залежить від ентропії джерела. Чим більш передбачувані одержувані дані, тим краще їх можна стиснути. Випадкова незалежна рівноймовірна послідовність стисненню без втрат не піддається.
 
== Посилання ==
* [https://books.google.ru/books?id=s3H8s8rdsHkC&pg=PA41 Digital Signal Compression: Principles and Practice] (By William A. Pearlman, Amir Said, 2011, ISBN 9780521899826), Chapter 4 "Entropy coding techniques" pp41-76
{{без джерел}}
 
 
{{Методи стиснення даних}}