Дифференциальная энтропия
Дифференциальная энтропия (относительная энтропия[1], энтропия непрерывной случайной величины[1]) — обобщение понятия информационной энтропии для случая непрерывной случайной величины. В теории информации интерпретируется как средняя информация непрерывного источника.
Формула дифференциальной энтропии
В случае одномерной случайной величины дифференциальная определяется по формуле:
где — плотность распределения случайной величины [1].
Дифференциальная энтропия, в отличие от энтропии дискретной случайной величины, неинвариантна к преобразованию координат[2].
Дифференциальную энтропию можно определить как разность энтропий двух отличающих на бесконечно малую величину квантованных значений случайной величины, имеющей равномерное распределение на интервале, равном единице. Отсюда название энтропии — дифференциальная, то есть разностная[1].
Условная дифференциальная энтропия
Условная дифференциальная энтропия для случайной величины при заданной случайной величине определяется по формуле[3]:
где — совместная плотность вероятности случайных величин и , — условная плотность вероятности случайной величины при заданном значении случайной величины .
Безусловная и условная дифференциальные энтропии могут быть как положительными, так и отрицательными величинами.
Для дифференциальной энтропии справедливы равенства, аналогичные для энтропии дискретного источника[4]:
- (для независимых случайных величин — равенство)
- .
Примеры дифференциальных энтропий
- Случайная величина имеет равномерное распределение на интервале :
В этом случае дифференциальная энтропия принимает максимальное значение среди всех распределений случайных величин, значения которых находятся в интервале , равное [5].
- Случайная величина имеет нормальное распределение на интервале :
- .
В этом случае дифференциальная энтропия принимает максимальное значение среди всех распределений случайных величин, значения которых находятся в интервале [6], равное [7].
- Случайная величина имеет экспоненциальное распределение на интервале :
- .
В этом случае дифференциальная энтропия принимает максимальное значение среди всех распределений случайных величин, значения которых находятся в интервале [6], равное .
Примечания
- 1 2 3 4 Тарасенко, 1963, с. 77.
- ↑ Колмогоров, 1987, с. 39—41.
- ↑ Тарасенко, 1963, с. 78.
- ↑ Тарасенко, 1963, с. 84.
- ↑ Тарасенко, 1963, с. 78—79.
- 1 2 Тарасенко, 1963, с. 86.
- ↑ Варгаузин В. А., Цикин И. А. Методы повышения энергетической и спектральной эффективности цифровой радиосвязи, 2013. — С. 31.
Литература
- Вернер М. 8.1 Дифференциальная энтропия // Основы кодирования = Information und Codierung / пер. Д.К. Зигангирова. — ЗАО «РИЦ „Техносфера“», 2004. — С. 109—114. — (Мир программирования). — 3 000 экз. — ISBN 5-94836-019-9.
- Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — 304 с.
- Тарасенко Ф. П. Введение в курс теории информации. — Томск.: Изд-во Томского университета, 1963. — 240 с.