Ентропійне кодування: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[неперевірена версія][неперевірена версія]
Вилучено вміст Додано вміст
додав посилання
Немає опису редагування
Рядок 1: Рядок 1:
'''Ентропі́йне кодува́ння''' - кодування послідовності значень з можливістю однозначного відновлення з метою зменшення обсягу даних (довжини послідовності) за допомогою усереднення ймовірностей появи елементів у закодованій послідовності.
'''Ентропі́йне кодува́ння''' кодування послідовності значень з можливістю однозначного відновлення з метою зменшення обсягу даних (довжини послідовності) за допомогою усереднення ймовірностей появи елементів у закодованій послідовності.


Передбачається, що до кодування окремі елементи послідовності мають різну ймовірність появи. Після кодування в результуючій послідовності ймовірності появи окремих символів практично однакові (ентропія на символ максимальна).
Передбачається, що до кодування окремі елементи послідовності мають різну ймовірність появи. Після кодування в результуючій послідовності ймовірності появи окремих символів практично однакові (ентропія на символ максимальна).


Розрізняють декілька варіантів кодів:
Розрізняють декілька варіантів кодів:
* Зіставлення кожному елементу вхідної послідовності різного числа елементів результуючої послідовності. Чим більше вірогідність появи вхідного елемента, тим коротше відповідна результуюча послідовність. Прикладом можуть служити [[Алгоритм Шеннона-Фано|код Шеннона Фано]], [[код Хаффмана]].
* Зіставлення кількох елементів вхідної послідовності фіксованого числа елементів кінцевої послідовності. Прикладом є [[код Танстола]].
* Інші структурні коди, засновані на операціях з послідовністю символів.


Прикладом є кодування довжин серій. Якщо приблизні характеристики ентропії потоку даних попередньо відомі, може бути корисний більш простий статичний код, такий як [[Унарне кодування]], [[гамма-код Еліаса]], [[код Фібоначчі]], [[код Голомба]] або [[кодування Райса]].
*Зіставлення кожному елементу вхідної послідовності різного числа елементів результуючої послідовності.<br> Чим більше вірогідність появи вхідного елемента, тим коротше відповідна результуюча послідовність. Прикладом можуть служити [[Алгоритм Шеннона-Фано|код Шеннона - Фано]], [[код Хаффмана]]
*Зіставлення кількох елементів вхідної послідовності фіксованого числа елементів кінцевої послідовності.<br> Прикладом є [[код Танстола]].
*Інші структурні коди, засновані на операціях з послідовністю символів.<br> Прикладом є кодування довжин серій.
Якщо приблизні характеристики ентропії потоку даних попередньо відомі, може бути корисний більш простий статичний код, такий як [[Унарне кодування]], [[гамма-код Еліаса]], [[код Фібоначчі]], [[код Голомба]] або [[кодування Райса]].


Згідно з [[Теорема Шеннона — Гартлі|теоремою Шеннона]], існує межа стиснення без втрат, що залежить від ентропії джерела. Чим більш передбачувані одержувані дані, тим краще їх можна стиснути. Випадкова незалежна рівноймовірна послідовність стисненню без втрат не піддається.
Згідно з [[Теорема Шеннона — Гартлі|теоремою Шеннона]], існує межа стиснення без втрат, що залежить від ентропії джерела. Чим більш передбачувані одержувані дані, тим краще їх можна стиснути. Випадкова незалежна рівноймовірна послідовність стисненню без втрат не піддається.


== Посилання ==
== Посилання ==
* [https://books.google.ru/books?id=s3H8s8rdsHkC&pg=PA41 Digital Signal Compression: Principles and Practice] (By William A. Pearlman, Amir Said, 2011, ISBN 9780521899826), Chapter 4 "Entropy coding techniques" pp41-76
{{без джерел}}



{{Методи стиснення даних}}
{{Методи стиснення даних}}

Версія за 06:30, 25 червня 2018

Ентропі́йне кодува́ння — кодування послідовності значень з можливістю однозначного відновлення з метою зменшення обсягу даних (довжини послідовності) за допомогою усереднення ймовірностей появи елементів у закодованій послідовності.

Передбачається, що до кодування окремі елементи послідовності мають різну ймовірність появи. Після кодування в результуючій послідовності ймовірності появи окремих символів практично однакові (ентропія на символ максимальна).

Розрізняють декілька варіантів кодів:

  • Зіставлення кожному елементу вхідної послідовності різного числа елементів результуючої послідовності. Чим більше вірогідність появи вхідного елемента, тим коротше відповідна результуюча послідовність. Прикладом можуть служити код Шеннона — Фано, код Хаффмана.
  • Зіставлення кількох елементів вхідної послідовності фіксованого числа елементів кінцевої послідовності. Прикладом є код Танстола.
  • Інші структурні коди, засновані на операціях з послідовністю символів.

Прикладом є кодування довжин серій. Якщо приблизні характеристики ентропії потоку даних попередньо відомі, може бути корисний більш простий статичний код, такий як Унарне кодування, гамма-код Еліаса, код Фібоначчі, код Голомба або кодування Райса.

Згідно з теоремою Шеннона, існує межа стиснення без втрат, що залежить від ентропії джерела. Чим більш передбачувані одержувані дані, тим краще їх можна стиснути. Випадкова незалежна рівноймовірна послідовність стисненню без втрат не піддається.

Посилання