Діаграма Венна, що показує адитивні та різницеві відношення серед різних
мір інформації, пов'язаних із корельованими змінними

та

. Область, яка міститься в обох колах, є
спільною ентропією 
. Коло ліворуч (червоний і фіолетовий) є
особистою ентропією 
, в якому червоне є
умовною ентропією 
. Коло праворуч (синій та фіолетовий) є

, а синє в ньому є

. Фіолетове є
взаємною інформацією 
.
В теорії інформації умо́вна ентропі́я (або ухи́льність, англ. conditional entropy, equivocation) — це оцінка кількості інформації, необхідної, щоб описати вихід випадкової змінної
, враховуючи, що значення іншої випадкової змінної
є відомим. Тут інформація вимірюється в шеннонах, натах або гартлі. Ентропія
, обумовлена
записується як
.
Нехай
є ентропією дискретної випадкової змінної
, обумовленою набуванням дискретною випадковою змінною
певного значення
. Нехай
має функцію маси ймовірності
. Безумовна ентропія
обчислюється як
, тобто,

де
є інформаційним вмістом набування результатом[en]
значення
. Ентропію
, обумовлену набуванням випадковою змінною
значення
, визначено аналогічно до умовного математичного сподівання:
![{\displaystyle \mathrm {H} (Y|X=x)=\mathbb {E} [\operatorname {I} (Y)|X=x]=-\sum _{i=1}^{n}{\Pr(Y=y_{i}|X=x)\log _{2}{\Pr(Y=y_{i}|X=x)}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bcac23d77dcc6a01cc367830184893bd13eda9f9)
є результатом усереднювання
над усіма можливими значеннями
, що їх може набувати
.
Для заданих дискретних випадкових змінних
з носієм
та
з носієм
умовну ентропію
відносно
визначають як зважену суму
для кожного з можливих значень
із застосуванням
як вагових коефіцієнтів:[1]:15

Примітка: Зрозуміло, що вирази
та
для фіксованих
слід вважати рівними нулеві.
Нульова умовна ентропія[ред. | ред. код]
якщо і лише якщо значення
повністю визначається значенням
.
Умовна ентропія незалежних випадкових змінних[ред. | ред. код]
І навпаки,
якщо і лише якщо
та
є незалежними випадковими змінними.
Припустімо, що об'єднана система, яку визначають дві випадкові змінні
та
, має спільну ентропію
, тобто, нам потрібно в середньому
біт інформації, щоби описати її точний стан. Тепер, якщо ми спочатку дізналися значення
, ми отримали
біт інформації. Щойно
стало відомим, нам потрібно лише
біт, щоб описати стан системи в цілому. Ця величина в точності дорівнює
, що дає нам ланцюгове правило умовної ентропії:
[1]:17
Ланцюгове правило випливає з вищенаведеного означення умовної ентропії:
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)&=\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log \left({\frac {p(x)}{p(x,y)}}\right)\\[4pt]&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log(p(x,y))+\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}{p(x,y)\log(p(x))}\\[4pt]&=\mathrm {H} (X,Y)+\sum _{x\in {\mathcal {X}}}p(x)\log(p(x))\\[4pt]&=\mathrm {H} (X,Y)-\mathrm {H} (X).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2baddbd85be799629ae27dd729e3b067363aac06)
В загальному випадку ланцюгове правило для декількох випадкових змінних стверджує, що
[1]:22
Воно має вигляд, подібний до ланцюгового правила в теорії ймовірностей, за винятком того, що замість множення використовується додавання.
Правило Баєса для умовної ентропії стверджує, що

Доведення.
і
. Через симетрію,
. Віднімання цих двох рівнянь має наслідком правило Баєса.
Якщо
є умовно незалежною[en] від
за заданої
, то ми маємо

Для будь-яких
та

де
є взаємною інформацією
та
.
Для незалежних
та
та 
Хоча конкретно-умовна ентропія
і може бути або меншою, або більшою за
для заданої випадкової варіати[en]
змінної
, але
ніколи не може перевищувати
.
Умовна диференціальна ентропія[ред. | ред. код]
Наведене вище означення є для дискретних випадкових змінних, але в випадку неперервних випадкових змінних воно чинним не є. Неперервну версію дискретної умовної ентропії називають умовною диференціальною (або неперервною) ентропією (англ. conditional differential (continuous) entropy). Нехай
та
є неперервними випадковими змінними з функцією густини спільної ймовірності[en]
. Диференціальну умовну ентропію
означують як
.[1]:249
На противагу до умовної ентропії дискретних випадкових змінних, умовна диференціальна ентропія може бути від'ємною.
Як і в дискретному випадку, для диференціальної ентропії існує ланцюгове правило:
[1]:253
Зауважте, проте, що це правило може не виконуватися, якщо залучені диференціальні ентропії не існують, або є нескінченними.
Спільну диференціальну ентропію також використано в означенні взаємної інформації між неперервними випадковими змінними:

, з рівністю якщо і лише якщо
та
є незалежними.[1]:253
Стосунок до похибки оцінювача[ред. | ред. код]
Умовна диференціальна ентропія дає нижню межу математичного сподівання квадратичної похибки оцінювача. Для будь-якої випадкової змінної
, спостереження
та оцінювача
виконується наступне:[1]:255
![{\displaystyle \mathbb {E} \left[{\bigl (}X-{\widehat {X}}{(Y)}{\bigr )}^{2}\right]\geq {\frac {1}{2\pi e}}e^{2h(X|Y)}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ab916a1ac9b14193bf90b79742772b686bb771c3)
Це стосується принципу невизначеності в квантовій механіці.
Узагальнення до квантової теорії[ред. | ред. код]
У квантовій теорії інформації умовна ентропія узагальнюється до умовної квантової ентропії[en]. Остання, на відміну від свого класичного аналога, може набувати від'ємних значень.