Энтропийная скорость
Энтропийная скорость случайного процесса — в теории информации — величина, показывающая скорость возрастания энтропии при увеличении длины последовательности случайных величин, для которых она рассчитывается[1].
Формула
Энтропийная скорость является пределом совместной энтропии случайных величин , поделённым на , при стремлении к бесконечности[1]:
- ,
если предел существует. Альтернативно связанной величиной является[2]:
- .
Величины и соответствуют двум различным понятиям скорости энтропии. Первая — это энтропия на символ случайных величин, а вторая — условная энтропия последней случайной величины, учитывая прошлые. Для стационарных случайных процессов выполняется равенство [2]. Энтропийную скорость можно рассматривать как общее свойство случайных эргодических источников, то есть свойство асимптотической равнораспределенности[3].
Энтропийную скорость можно использовать для оценки сложности случайных процессов. Она используется в различных приложениях от описания сложности языков, слепого разделения сигналов до оптимизации преобразователей и алгоритмов сжатия данных. Например, критерий максимальной энтропийной скорость может быть использован для отбора признаков в машинном обучении[4].
Примеры
Рассмотрим последовательности из случайных величин, принимающих значений[1].
- Если значения случайных величин равновероятны, то, так как количество различных последовательностей равно , получаем , и энтропийная скорость равна бит на символ.
- .
- Если независимые, но не одинаково распределённые случайные величины, то
- .
- Тогда
- ,
- однако этот предел может не существовать.
Энтропийная скорость для марковских цепей
Для стационарной цепи Маркова, определённой на счётном числе состояний, заданных матрицей переходов , энтропийная скорость задаётся выражением[3]:
- ,
где является решением системы уравнений:
для всех .
Если цепь Маркова неприводима и непериодична, то она имеет единственное стационарное распределение на состояниях, и любое начальное распределение стремится к стационарному распределению при . В этом случае, даже если начальное распределение не является стационарным распределением, скорость энтропии, которая определяется в терминах долгосрочного поведения, равна [5].
См. также
Примечания
- 1 2 3 Cover T., Thomas J. Elements of Information Theory. John Wiley and Sons, Inc. Second Edition, 2006. — P. 74.
- 1 2 Cover T., Thomas J. Elements of Information Theory. John Wiley and Sons, Inc. Second Edition, 2006. — P. 75.
- 1 2 Cover T., Thomas J. Elements of Information Theory. John Wiley and Sons, Inc. Second Edition, 2006. — P. 77.
- ↑ Einicke, 2018, с. 1097—1103.
- ↑ Cover T., Thomas J. Elements of Information Theory. John Wiley and Sons, Inc. Second Edition, 2006. — P. 78.
Литература
- Einicke G. A. Maximum-Entropy Rate Selection of Features for Classifying Changes in Knee and Ankle Dynamics During Running // IEEE Journal of Biomedical and Health Informatics. — 2018. — Т. 28, вып. 4. — doi:10.1109/JBHI.2017.2711487.
- Cover T., Thomas J. Elements of Information Theory. — John Wiley and Sons, Inc., 2006. — ISBN 0-471-24195-4.