Информация в математике
Информа́ция в математике, общее название понятий, играющих фундаментальную роль в информатике, теории информации, кибернетике, а также в математической статистике. В каждой из этих дисциплин интуитивное представление об информации относительно каких-либо величин или явлений требует своего уточнения и формализации.
Кибернетика изучает машины и живые организмы исключительно с точки зрения их способности воспринимать определённую информацию, сохранять эту информацию в памяти, передавать её по каналам связи и перерабатывать её в сигналы, направляющие их деятельность. В некоторых случаях возможность сравнения различных данных по содержащейся в них информации столь же естественна, как и возможность сравнения плоских фигур по площади: независимо от способа измерения площадей можно сказать, что фигура имеет не бóльшую площадь, чем , если может быть целиком помещена в Более глубокий факт – возможность выразить площадь числом и на этой основе сравнивать между собой фигуры произвольной формы – является результатом развития геометрии. Подобно этому фундаментальным результатом теории информации является утверждение о том, что в определённых, весьма широких условиях можно пренебречь качественными особенностями информации и выразить её количество числом. Только этим числом определяются возможности передачи информации по каналам связи и её сохранения в запоминающих устройствах.
Пример 1. Результаты произведённых независимых измерений какой-либо физической величины, хотя и содержат ошибки, дают информацию о её точном значении. Увеличение числа измерений увеличивает эту информацию. Среднее арифметическое результатов наблюдений также содержит некоторую информацию относительно рассматриваемой величины. В математической статистике установлено, что в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит ту же информацию о точном значении, что и все наблюдения.
Пример 2. Пусть на входе канала связи имеется некоторая случайная величина которая при передаче искажается, в результате чего на выходе получают величину , где не зависит от (в смысле теории вероятностей). Выход даёт информацию о входе , причём естественно ожидать, что эта информация тем меньше, чем больше рассеяние значений
В приведённых примерах данные можно сравнить по содержащейся в них информации. Смысл этого сравнения требует уточнения. Это уточнение даётся соответственно математической статистикой и теорией информации.
В основе теории информации лежит предложенный в 1948 г. К. Шенноном способ измерения количества информации, содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества информации числом. Проще всего количество информации определяется в случае, когда случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть – случайная величина, принимающая значения с вероятностями а – случайная величина, принимающая значения с вероятностями Тогда количество информации , содержащееся в относительно , определяется формулойгде – вероятность совмещения событий и . Величина является энтропией случайной величины Справедливо равенство Величина обладает рядом свойств, которые естественно требовать от меры количества информации. Так, всегда и равенство справедливо тогда и только тогда, когда при всех и т. е. когда случайные величины и независимы. Всегда справедливо неравенство , и равенство справедливо тогда и только тогда, когда есть функция от например,
Понятие энтропии относится к числу основных понятий теории информации. Количество информации и энтропия связаны соотношением где – энтропия пары , т. е. Величина энтропии оценивает сверху среднее число двоичных знаков и необходимое для различения (записи) возможных значений случайной величины при наиболее экономном кодировании, и отличается от него не более чем на Это обстоятельство позволяет понять роль количества информации при хранении информации в запоминающих устройствах. Если случайные величины и независимы, то можно считать, что для записи значений требуется в среднем двоичных знаков, для записи значений требуется двоичных знаков, а для пары требуется двоичных знаков. Если же случайные величины и зависимы, то среднее число двоичных знаков, необходимое для записи пары оказывается меньше суммы т. к.
С помощью более глубоких утверждений выясняется роль количества информации в вопросах передачи информации по каналам связи. Основная информационная характеристика, т. н. пропускная способность канала связи, определяется через количество информации.
Если совместное распределение случайных величин и имеет плотность вероятности, то определяется равенством где и обозначают соответствующие плотности вероятности. Эта формула получается из с помощью предельного перехода. При этом энтропии и не существуют, но справедлива формула, аналогичная где – дифференциальная энтропия случайной величины и определяются аналогично.
Пример 3. Пусть в условиях примера 2 независимые случайные величины и имеют нормальные распределения вероятностей с нулевыми средними значениями и дисперсиями, равными соответственно и Тогда формулы или приводят к равенству Таким образом, количество информации в принятом сигнале относительно переданного сигнала стремится к нулю при возрастании уровня помех т. е. при и неограниченно возрастает при исчезающе малом влиянии помех т. е. при
Особенный интерес для теории информации представляет случай, когда в обстановке примеров 2 и 3 случайные величины и заменяются случайными функциями (или, как говорят, случайными процессами) и которые описывают изменение во времени некоторой величины на входе и на выходе передающего устройства. Количество информации в относительно при заданном уровне помех (шумов) может служить критерием качества передающего устройства.
В задачах математической статистики также пользуются понятием информации, введённым Р. Фишером (1921). Однако как по своему формальному определению, так и по своему назначению оно отличается от того, что используется в теории информации. Математическая статистика имеет дело с большим числом результатов наблюдений и заменяет обычно их полное перечисление указанием некоторых сводных характеристик (см. пример 1). Иногда при такой замене происходит потеря информации, но при некоторых условиях сводные характеристики содержат всю информацию, имеющуюся в полных данных.
Пример 4. Пусть – результаты независимых наблюдений некоторой величины, распределённые по нормальному закону с плотностью вероятностигде параметры и (среднее и дисперсия) неизвестны и должны быть оценены по результатам наблюдений. Достаточными статистиками (так называются функции от результатов наблюдений, содержащие всю информацию о неизвестных параметрах) в этом примере являются среднее арифметическое и эмпирическая дисперсия
Если параметр известен, то достаточной статистикой для параметра будет только (ср. пример 1). Смысл выражения «вся информация» состоит в следующем. Пусть имеется какая-либо функция неизвестных параметров и пусть – какая-либо её оценка, не имеющая систематической ошибки, т. е. математическое ожидание совпадает с Пусть качество оценки, т. е. её точность, измеряется, как это обычно делается в задачах математической статистики, дисперсией разности Тогда существует другая оценка зависящая не от отдельных величин а только от сводных характеристик и не имеющая систематической ошибки и для которой дисперсия разности не превосходит дисперсии разности