Введение
В новых природных и производственных условиях человек нередко испытывает влияние весьма необычных, чрезмерных и жестких факторов среды, генетически неадекватных его природе. Причем речь идёт не только о микроклиматических, геофизических, социальных условиях, но и о методах, используемых для инвазивной и неинвазивной диагностики заболеваний организма человека.
Адаптированность человека к новым природным и производственным условиям можно кратко охарактеризовать как совокупность социально-биологических свойств и особенностей, необходимых для устойчивого существования организма человека в конкретной экологической среде.
В новых условиях необходимо добиться гармонии взаимодействия людей с физической средой их жизни, адекватной человеческой природе. В решении этой фундаментальной задачи первостепенная роль принадлежит медико-биологической науке, которая должна не столько прогнозировать возникновение заболевания, сколько способствовать сохранению и укреплению здоровья настоящих поколений, а также гарантировать здоровье будущих поколений. При этом становится всё более очевидным, что в решении данной задачи теория адаптации играет важнейшую роль.
Адаптивные возможности проявляются лишь в реальных условиях жизни. Именно в конкретных естественных или искусственных условиях среды обитания возможности организма, когда для выживания и сохранения жизнедеятельности потребуются максимальная мобилизация и напряжение его потенциальных адаптивных возможностей. Следовательно, свойство адаптации живой системы есть, по сути, мера индивидуального здоровья.
Не всегда предоставляется возможность получить полную картину, как о состоянии здоровья человека, так и о параметрах окружающей среды,
характеризуемых значениями различных показателей и характеристик. Поэтому для оценки состояния человека используют особые информационные показатели, способные выявить скрытые закономерности процессов биосистемы и оценить динамику их изменения.
1.Информация и энтропия
Рассмотрим такую категорию, как энтропия. Энтропия – одно из важнейших и фундаментальных понятий, выдвинутых наукой за последнее столетие. Сегодня энтропия заняла прочное место в самых различных областях науки и техники и является одним из краеугольных камней нашего миропонимания.
Функция, названная энтропией, была введена Клаузиусом в 1850 г. И связана со вторым началом термодинамики, или принципом Карно. В термодинамике энтропия определяется как энергия, необходимая для того, чтобы после адиабатического и обратимого процесса, завершающегося при температуре, соответствующей начальному состоянию, возвратить рабочее тело обратимым путем в это начальное состояние. Процессы, протекающие в изолированной среде, т.е. в системе, не обменивающейся ни теплом, ни работой с окружающей средой, сопровождаются возрастанием энтропии.
Связь между энтропией и вероятностью установлена Л.Больцманом и выражается знаменитой формулой, носящей имя этого ученого,
H=a∙lnW,
где H — энтропия, W — термодинамическая вероятность состояния.
Согласно принципу Клаузиуса, всякая система эволюционирует так, что энтропия ее возрастает, с другой стороны, эта эволюция, естественно, направлена к более вероятным состояниям. Иначе говоря, вероятность последовательных состояний системы растет вместе с энтропией этих стояний.
Больцман вводит понятие «термодинамическая вероятность состояния», которая определяется числом комплексов, позволяющих реализовать это состояние. Комплекс означает некоторое распределение элементов системы.
Вывод уравнения Больцмана:
H=f(W),
где W — вероятность состояния; f — некоторая возрастающая функция. Энтропия системы равна сумме энтропий, составляющих ее частей,
H=Hi.
Вероятность состояния системы равна произведению вероятностей состояния ее частей W=Wi. Если число компонент системы равно двум, то
H=H1+H2, W=W1+W2.
f(W)=f(W1)+f(W2).
Чтобы решить это функциональное уравнение, достаточно продифференцировать его последовательно по W1 и W2.
W2∙f'(W1W2)=f'(W1),
f'W1W2=W1∙W2∙f''W1W2=0
или
f'W+W∙f''W=0.
Общее решение этого дифференциального уравнения
fW=a∙lnW+C,
где a и C — постоянные интегрирования.
С целью упрощения задачи можно заменить в рассуждениях термодинамическую вероятность W на математическую Р, которая определяется отношением числа комплексов, соответствующих данному состоянию, к полному числу возможных комплексов. Эта вероятность всегда выражается числом, меньшим единицы.
Энтропия и вероятность — столь несхожие величины, что открытие связи между ними (и очень простой связи) несомненно, важнейшее научное достижение. Связь устанавливает соотношения между величинами различной природы. Энтропия — величина физическая, и ее численное значение эависит от выбранной системы единиц. Термодинамическая вероятность — величина математическая, ибо она определяется числом способов, которыми может быть реализовано данное состояние.
Больцман, связав второй принцип термодинамики с теорией вероятностей, показал, что убывание энтропии не является более невозможным, а только чрезвычайно маловероятным. Формула Больцмана имеет несомненный теоретический интерес. Из нее следует, что изменение энтропии в одном определенном направлении есть статистическая закономерность. Но хотя формула Больцмана выражает закон эволюции, она не включает основного для любого закона параметра — времени. Для каждой конкретной эволюции формула указывает только направление, а не скорость эволюции.
Статистическая интерпретация Больцманом понятия энтропии базировалась на молекулярных представлениях, но фактически могла быть распространена и на внемолекулярные явления, обладающие тем же типом статистики, что и тепловые процессы.
Данное микроскопическое состояние системы может быть реализовано с помощью некоторого числа распределений элементов. Переход от упорядоченного состояния к беспорядку является источником необратимости, этот переход всегда связан с увеличением энтропии. Повышение упорядоченности системы ведет к уменьшению числа возможных микросостояний (комплексий) и, следовательно, к уменьшению энтропии.
Таким образом, введение понятия «термодинамическая вероятность» позволило рассматривать энтропию не только как меру энергии, необходимую для возвращения данной системы в некоторое начальное состоянии, но и как меру беспорядка, царящего в системе, меру неопределенности наших знаний внутренней структуры системы.
Если количество разнообразия элементов системы определяет степени ее сложности, а количество разнообразия отношений порядка определяет степень ее упорядоченности, то количество разнообразия любых типов отношений и любых типов связей определяет степень организации системы. Возможность измерения степени упорядочения, степени организации системы при помощи энтропии была осознана еще до создания теории информации.
Физическая энтропия является мерой упорядоченности объектов и представляет собой функцию от числа возможных микросостояний объекта. Повышение упорядоченности движения микрочастиц ведет к уменьшению числа возможных микросостояний объекта и снижению его термодинамической энтропии.
Термодинамическая энтропия есть мера упорядоченности микрочастиц, а энтропия в широком смысле — мера упорядоченности объекта по любым признакам. Причем различные уровни упорядоченности могут находиться в любой зависимости друг от друга или вовсе быть независимыми.
Такое определение энтропии позволяет, рассматривая эволюцию как изменение структуры системы, использовать энтропию в качестве параметра, характеризующего уровень развития системы.
Состояние системы определяется распределением ее элементов, обладающих данным признаком, мерой их упорядоченности.
Пусть элементами структуры служат относительные численности Ci, i=1, 2, 3, …, n,