Ентропія Реньї

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

У теорії інформації ентропія Реньї — узагальнення ентропії Шеннона — є сімейством функціоналів, використовуваних як міра кількісної різноманітності, невизначеності або випадковості деякої системи. Названо на честь Альфреда Реньї.

Якщо деяка система має дискретну множину доступних станів , якій відповідає розподіл імовірностей для (тобто  — ймовірності перебування системи в станах ), то ентропія Реньї з параметром (при і ) системи визначається як

,

де кутовими дужками позначено математичне очікування за розподілом ( — ймовірність перебування системи в деякому стані як випадкова величина), логарифм береться за основою 2 (для рахунку в бітах) чи іншою зручною основою (більшою від 1). Основа логарифма визначає одиницю вимірювання ентропії. Так, у математичній статистиці зазвичай використовується натуральний логарифм.

Якщо всі ймовірності , тоді за будь-якого ентропія Реньї . Інакше -ентропія спадає як функція . Причому вищі значення (що прямують до нескінченності) надають ентропії Реньї значення, більшою мірою визначені лише найвищими ймовірностями подій (тобто внесок в ентропію малоймовірних станів зменшується). Проміжний випадок у границі дає ентропію Шеннона, яка має особливі властивості. Нижчі значення (що прямують до нуля), дають значення ентропії Реньї, яке зважує можливі події рівномірніше, менше залежно від їх імовірностей. А при отримуємо максимально можливу -ентропію, рівну незалежно від розподілу (тільки аби ).

Сенс параметра можна описати, кажучи неформальною мовою, як сприйнятливість функціоналу до відхилення стану системи від рівноважного: що більше , то швидше зменшується ентропія за відхилення системи від рівноважного стану. Сенс обмеження полягає в тому, щоб забезпечувалося збільшення ентропії за наближення системи до рівноважного (більш імовірного) стану. Ця вимога є природною для поняття «ентропія». Слід зауважити, що для ентропії Цалліса, яка еквівалентна ентропії Реньї з точністю до незалежного від монотонного перетворення[en], відповідне обмеження часто опускають, при цьому для від'ємних значень параметра замість максимізації ентропії використовують її мінімізацію.

Ентропія Реньї відіграє важливу роль в екології і статистиці, визначаючи так звані індекси різноманітності. Ентропія Реньї також важлива в квантовій інформації, її можна використовувати як міру складності. У ланцюжку Гейзенберга ентропію Реньї розраховано в термінах модулярних функцій, що залежать від . Вони також призводять до спектру показників фрактальної розмірності.

Ηα для деяких конкретних значень α[ред. | ред. код]

Деякі окремі випадки[ред. | ред. код]

  • при ентропія Реньї не залежить від імовірностей станів (вироджений випадок) і дорівнює логарифму числа станів (логарифму потужності множини ):
.

Цю ентропію іноді називають ентропією Гартлі[en]. Вона використовується, наприклад, у формулюванні принципу Больцмана.

  • У границі при , можна показати, використовуючи правило Лопіталя, що збігається до ентропії Шеннона. Таким чином, сімейство ентропій Реньї можна довизначити функціоналом
.
  • Квадратична ентропія, іноді звана ентропією зіткнень, — це ентропія Реньї з параметром :
,

де і  — незалежні випадкові величини, однаково розподілені на множині з імовірністю (). Квадратична ентропія використовується у фізиці, обробці сигналів, економіці.

  • Існує границя
,

яку називають min-ентропією[en], тому що це найменше значення . Ця ентропія також є виродженим випадком, оскільки її значення визначається тільки найбільш імовірним станом.

Нерівності для різних значень α[ред. | ред. код]

Два останніх випадки пов'язані співвідношенням . З іншого боку, ентропія Шеннона може бути як завгодно високою для розподілу X із фіксованою min-ентропією.

тому що .
, тому що .
відповідно до нерівності Єнсена .

Розходження (дивергенції) Реньї[ред. | ред. код]

Крім сімейства ентропій, Реньї також визначив спектр мір розходжень (дивергенцій), які узагальнюють розходження Кульбака — Лейблера. Формули цього розділу записано в загальному вигляді — через логарифм за довільною основою. Тому потрібно розуміти, що кожна наведена формула являє собою сімейство еквівалентних функціоналів, визначених з точністю до сталого (додатного) множника.

Розходження Реньї з параметром , де і , розподілу відносно розподілу (або «відстань від до ») визначається як

або (формально, без урахування нормування ймовірностей)

,
.

Як і розходження Кульбака — Лейблера, розходження Реньї є невід'ємним для .

Деякі окремі випадки[ред. | ред. код]

  • При дивергенція Реньї не визначена, однак сімейство дивергенцій можна довизначити елементом
 : мінус логарифм від суми ймовірностей , таких що відповідні .
  •  : розходження Кульбака — Лейблера (дорівнює математичному сподіванню відносно розподілу логарифма відношення ймовірностей ).
  •  : логарифм математичного сподівання за розподілом відношення ймовірностей . Це розходження з точністю до монотонного перетворення еквівалентне розходженню хі-квадрат[en] .
  •  : Логарифм найбільшого відношення ймовірностей .

Чому випадок  — особливий[уточнити][ред. | ред. код]

Значення , яке відповідає ентропії Шеннона і розходженню Кульбака — Лейблера, є особливим, тому що тільки в цьому випадку можна виділити змінні A і X зі спільного розподілу ймовірностей, такі що виконується

для ентропії, і

-

для дивергенції.

Останнє означає, що якщо ми шукатимемо розподіл , який зводить до мінімуму розходження деяких основоположних мір , і отримаємо нову інформацію, яка впливає тільки на розподіл , то розподіл не буде залежати від змін .

У загальному випадку розходження Реньї з довільними значеннями задовольняють умовам незаперечності, неперервності та інваріантності відносно перетворення координат випадкових величин. Важливою властивістю будь-яких ентропії і дивергенції Реньї є адитивність: коли і незалежні, з випливає

і

.

Найсильніші властивості випадку , які передбачають визначення умовної інформації і взаємної інформації з теорії зв'язку, можуть бути дуже важливими в інших застосуваннях або зовсім не важливими, залежно від вимог цих застосувань.

Перехресна ентропія Реньї[ред. | ред. код]

Перехресна ентропія від двох розподілів з імовірностями і () в загальному випадку може визначатися по-різному (залежно від застосування), але має задовольняти умові . Один з варіантів визначення (аналогічну властивість має перехресна ентропія Шеннона):

.

Інше визначення, запропоноване А. Реньї, можна отримати з таких міркувань. Визначимо ефективне число станів системи як середнє геометричне зважене від величин з вагами :

.

Звідси випливає вираз для перехресної ентропії Шеннона

.

Міркуючи аналогічно, визначимо ефективне число станів системи як середнє степеневе зважене від величин з вагами і параметром :

.

Таким чином, перехресна ентропія Реньї має вигляд

.
  • Легко бачити, що в разі, якщо розподіли ймовірностей і збігаються, перехресна ентропія Реньї збігається з ентропією Реньї.
  • Також при перехресна ентропія Реньї збігається до перехресної ентропії Шеннона.
  • властивість , істинна для перехресної ентропії Шеннона, в загальному випадку не має місця. Перехресна ентропія Реньї може бути як більшою, так і меншою від ентропії Реньї.

Неперервний випадок[ред. | ред. код]

Для формального узагальнення ентропії Шеннона на випадок неперервного розподілу служить поняття диференціальна ентропія. Цілком аналогічно визначається диференційна ентропія Реньї:

.

Розходження (дивергенція) Реньї в неперервному випадку також є узагальненням розходження Кульбака — Лейблера і має вигляд

.

Визначення перехресної ентропії, запропоноване А. Реньї, в неперервному випадку має вигляд

.

У наведених формулах і  — деякі функції густини розподілу ймовірностей, визначені на інтервалі , і покладається , .

Література[ред. | ред. код]

  • https://web.archive.org/web/20130517085559/http://digitalassets.lib.berkeley.edu/math/ucb/text/math_s4_v1_article-27.pdf (PDF). Proceedings of the 4th Berkeley Symposium on Mathematics, Statistics and Probability 1960. 1961. с. 547—561. Архів оригіналу (PDF) за 17 травня 2013. Процитовано 14 травня 2021. {{cite conference}}: Пропущений або порожній |title= (довідка)
  • A. O. Hero, O.Michael and J. Gorman. Alpha-divergences for Classification, Indexing and Retrieval. — 2002. — 30 April. Архівовано з джерела 11 лютого 2012. Процитовано 14 травня 2021.
  • F. Nielsen and S. Boltz. The Burbea-Rao and Bhattacharyya centroids. — 2010. — 30 April. Архівовано з джерела 21 лютого 2022. Процитовано 14 травня 2021.
  • OA Rosso EEG analysis using wavelet-based information tools. Journal of Neuroscience Methods 153 (2006) 163—182
  • Rényi entropy as a measure of entanglement in quantum spin chain: F. Franchini, AR Its, VE Korepin, Journal of Physics A: Math. Theor. 41 (2008) 025302 [1]