Энтропия в теории информации
Энтропи́я в теории информации, мера неопределённости какого-либо опыта (испытания), который в зависимости от случая может заканчиваться различными исходами. При этом предполагают, что имеются определённые вероятности появления того или иного исхода. Пусть – различные исходы опыта, – соответствующие вероятности Тогда энтропия определяется выражением считается, что
Свойства энтропии: энтропия равна нулю в том случае, когда одно число из равно единице, а остальные равны нулю, т. е. когда исход опыта достоверен; энтропия достигает максимального значения при данном когда все исходы равновероятны; энтропия объединения двух независимых опытов равна сумме их энтропий. Функция от является единственной, удовлетворяющей этим и ещё нескольким, столь же естественным, требованиям. Однако ценность понятия энтропии определяется не этим обстоятельством, а тем, что она играет важную роль в теории информации.
Для теории информации особый интерес представляет случай, когда суть сообщения некоторого источника информации, передаваемые по каналу связи. Сообщения при этом рассматривают как временны́е последовательности элементов (букв), выбираемых с некоторыми вероятностями из какой-то определённой совокупности (алфавита). Выводы теории информации касаются сообщений, являющихся «достаточно длинными» (в принципе неограниченно длинными) последовательностями букв, что соответствует предположению о весьма длительной работе источников сообщений и каналов связи. Поэтому энтропия источника на символ (или скорость передачи сообщений, измеряемая в двоичных единицах на символ) определяется некоторым предельным переходом. С этой целью, наряду с сообщениями, представленными в виде неограниченных последовательностей букв некоторого -буквенного алфавита, рассматривают «урезанные» сообщения длины т. е. цепочки Выбирая в определении энтропии в качестве эти -членные цепочки и в качестве – соответствующие вероятности, получают некоторую величину Отношение даёт энтропию на букву для -членных цепочек. В теории информации устанавливается, что при очень широком допущении устойчивости вероятностных закономерностей во времени (стационарность источника) величина убывая, стремится к пределу называемому энтропией сообщения на символ. Если все символы имеют некоторую длительность и – их средняя длительность, то отношение даёт энтропию источника на единицу времени. Эти две величины и являются основными информационными характеристиками источника сообщений. Так, позволяет оценить максимально возможную степень «сжатия» сообщения при использовании того же алфавита (см. Избыточность сообщений, Кодирование).
Соотношение между скоростью создания сообщений и ёмкостью какого-либо канала с тем же входным алфавитом, что использован при записи сообщений, определяет возможность «почти безошибочной» передачи этих сообщений по каналу (см. теорема Шеннона).
Энтропию испытания с бесконечным числом исходов можно попытаться определить с помощью предельного перехода. Но этот путь приводит, как правило, к бесконечному значению энтропии. Поэтому задаются определённым уровнем точности и определяют так называемую ε-энтропию как описываемого с точностью до исхода опыта.