Энтропия - это производное понятие от понятия "состояние объекта" или "фазовое пространство объекта". Она характеризует степень вариативности микросостояния объекта. Качественно, чем выше энтропия, тем в большем числе существенно различных микросостояний может находиться объект при данном макросостоянии.
Исторически первым примером была энтропия нагретого физического тела, которая интерпретируется как неопределенность положений и импульсов молекул при данной температуре, играющей роль макросостояния. При вычислении энтропии требуется математическая модель объекта и его фазового пространства.
Математическая модель содержит атрибуты двух типов. Атрибуты, инвариантные относительно всех допустимых преобразований модели, называются структурными. Они образуют структуру модели. К ним относятся уравнения, описывающие объект, пространство, из которого берут свои значения переменные, алгебра и топология на этом пространстве, система начальных, граничных условий и т.п.
Другие атрибуты математической модели могут изменять свои значения при разных преобразованиях. Это вариативные параметры. К ним относятся значения переменных, координатные системы, в которых записаны уравнения, изменяемые связи между частями модели, границы областей, где ищутся решения и т. п. Полная совокупность всех вариативных параметров называется фазовым состоянием модели (его общей записью), а набор конкретных значений этих параметров - фазовой точкой или микросостоянием.
Совокупность всех возможных фазовых точек называется фазовым пространством модели. Обычно, на таком пространстве можно ввести естественную метрику или топологию.
Цель данной работы заключается в анализе энтропии как термодинамической функции, ее вероятностных характеристик, мер информации и сложности, что тесно связаны с понятием энтропии.
Для этого необходимо решить следующие задачи: дать характеристику функции энтропии, связать исследуемое понятие с биосистемами, определить математическую модель определения энтропии и ее типы, рассмотреть обобщенную энтропию и негэнтропию, а также изучить методы измерения информации.
|