ПРИМЕНЕНИЕ ЭНТРОПИЙНЫХ КРИТЕРИЕВ В ОЦЕНКЕ СОЦИАЛЬНЫХ И МЕДИЦИНСКИХ СИСТЕМ - Студенческий научный форум

VI Международная студенческая научная конференция Студенческий научный форум - 2014

ПРИМЕНЕНИЕ ЭНТРОПИЙНЫХ КРИТЕРИЕВ В ОЦЕНКЕ СОЦИАЛЬНЫХ И МЕДИЦИНСКИХ СИСТЕМ

Мурзина С.С. 1
1Томский политехнический университет
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Введение

В новых природных и производственных условиях человек нередко испытывает влияние весьма необычных, чрезмерных и жестких факторов среды, генетически неадекватных его природе. Причем речь идёт не только о микроклиматических, геофизических, социальных условиях, но и о методах, используемых для инвазивной и неинвазивной диагностики заболеваний организма человека.

Адаптированность человека к новым природным и производственным условиям можно кратко охарактеризовать как совокупность социально-биологических свойств и особенностей, необходимых для устойчивого существования организма человека в конкретной экологической среде.

В новых условиях необходимо добиться гармонии взаимодействия людей с физической средой их жизни, адекватной человеческой природе. В решении этой фундаментальной задачи первостепенная роль принадлежит медико-биологической науке, которая должна не столько прогнозировать возникновение заболевания, сколько способствовать сохранению и укреплению здоровья настоящих поколений, а также гарантировать здоровье будущих поколений. При этом становится всё более очевидным, что в решении данной задачи теория адаптации играет важнейшую роль.

Адаптивные возможности проявляются лишь в реальных условиях жизни. Именно в конкретных естественных или искусственных условиях среды обитания возможности организма, когда для выживания и сохранения жизнедеятельности потребуются максимальная мобилизация и напряжение его потенциальных адаптивных возможностей. Следовательно, свойство адаптации живой системы есть, по сути, мера индивидуального здоровья.

Не всегда предоставляется возможность получить полную картину, как о состоянии здоровья человека, так и о параметрах окружающей среды,

характеризуемых значениями различных показателей и характеристик. Поэтому для оценки состояния человека используют особые информационные показатели, способные выявить скрытые закономерности процессов биосистемы и оценить динамику их изменения.

1.Информация и энтропия

Рассмотрим такую категорию, как энтропия. Энтропия – одно из важнейших и фундаментальных понятий, выдвинутых наукой за последнее столетие. Сегодня энтропия заняла прочное место в самых различных областях науки и техники и является одним из краеугольных камней нашего миропонимания.

Функция, названная энтропией, была введена Клаузиусом в 1850 г. И связана со вторым началом термодинамики, или принципом Карно. В термодинамике энтропия определяется как энергия, необходимая для того, чтобы после адиабатического и обратимого процесса, завершающегося при температуре, соответствующей начальному состоянию, возвратить рабочее тело обратимым путем в это начальное состояние. Процессы, протекающие в изолированной среде, т.е. в системе, не обменивающейся ни теплом, ни работой с окружающей средой, сопровождаются возрастанием энтропии.

Связь между энтропией и вероятностью установлена Л.Больцманом и выражается знаменитой формулой, носящей имя этого ученого,

H=a∙lnW,

где H — энтропия, W — термодинамическая вероятность состояния.

Согласно принципу Клаузиуса, всякая система эволюционирует так, что энтропия ее возрастает, с другой стороны, эта эволюция, естественно, направлена к более вероятным состояниям. Иначе говоря, вероятность последовательных состояний системы растет вместе с энтропией этих стояний.

Больцман вводит понятие «термодинамическая вероятность состояния», которая определяется числом комплексов, позволяющих реализовать это состояние. Комплекс означает некоторое распределение элементов системы.

Вывод уравнения Больцмана:

H=f(W),

где W — вероятность состояния; f — некоторая возрастающая функция. Энтропия системы равна сумме энтропий, составляющих ее частей,

H=Hi.

Вероятность состояния системы равна произведению вероятностей состояния ее частей W=Wi. Если число компонент системы равно двум, то

H=H1+H2, W=W1+W2.

f(W)=f(W1)+f(W2).

Чтобы решить это функциональное уравнение, достаточно продифференцировать его последовательно по W1 и W2.

W2∙f'(W1W2)=f'(W1),

f'W1W2=W1∙W2∙f''W1W2=0

или

f'W+W∙f''W=0.

Общее решение этого дифференциального уравнения

fW=a∙lnW+C,

где a и C — постоянные интегрирования.

С целью упрощения задачи можно заменить в рассуждениях термодинамическую вероятность W на математическую Р, которая определяется отношением числа комплексов, соответствующих данному состоянию, к полному числу возможных комплексов. Эта вероятность всегда выражается числом, меньшим единицы.

Энтропия и вероятность — столь несхожие величины, что открытие связи между ними (и очень простой связи) несомненно, важнейшее научное достижение. Связь устанавливает соотношения между величинами различной природы. Энтропия — величина физическая, и ее численное значение эависит от выбранной системы единиц. Термодинамическая вероятность — величина математическая, ибо она определяется числом способов, которыми может быть реализовано данное состояние.

Больцман, связав второй принцип термодинамики с теорией вероятностей, показал, что убывание энтропии не является более невозможным, а только чрезвычайно маловероятным. Формула Больцмана имеет несомненный теоретический интерес. Из нее следует, что изменение энтропии в одном определенном направлении есть статистическая закономерность. Но хотя формула Больцмана выражает закон эволюции, она не включает основного для любого закона параметра — времени. Для каждой конкретной эволюции формула указывает только направление, а не скорость эволюции.

Статистическая интерпретация Больцманом понятия энтропии базировалась на молекулярных представлениях, но фактически могла быть распространена и на внемолекулярные явления, обладающие тем же типом статистики, что и тепловые процессы.

Данное микроскопическое состояние системы может быть реализовано с помощью некоторого числа распределений элементов. Переход от упорядоченного состояния к беспорядку является источником необратимости, этот переход всегда связан с увеличением энтропии. Повышение упорядоченности системы ведет к уменьшению числа возможных микросостояний (комплексий) и, следовательно, к уменьшению энтропии.

Таким образом, введение понятия «термодинамическая вероятность» позволило рассматривать энтропию не только как меру энергии, необходимую для возвращения данной системы в некоторое начальное состоянии, но и как меру беспорядка, царящего в системе, меру неопределенности наших знаний внутренней структуры системы.

Если количество разнообразия элементов системы определяет степени ее сложности, а количество разнообразия отношений порядка определяет степень ее упорядоченности, то количество разнообразия любых типов отношений и любых типов связей определяет степень организации системы. Возможность измерения степени упорядочения, степени организации системы при помощи энтропии была осознана еще до создания теории информации.

Физическая энтропия является мерой упорядоченности объектов и представляет собой функцию от числа возможных микросостояний объекта. Повышение упорядоченности движения микрочастиц ведет к уменьшению числа возможных микросостояний объекта и снижению его термодинамической энтропии.

Термодинамическая энтропия есть мера упорядоченности микрочастиц, а энтропия в широком смысле — мера упорядоченности объекта по любым признакам. Причем различные уровни упорядоченности могут находиться в любой зависимости друг от друга или вовсе быть независимыми.

Такое определение энтропии позволяет, рассматривая эволюцию как изменение структуры системы, использовать энтропию в качестве параметра, характеризующего уровень развития системы.

Состояние системы определяется распределением ее элементов, обладающих данным признаком, мерой их упорядоченности.

Пусть элементами структуры служат относительные численности Ci, i=1, 2, 3, …, n,

 

Просмотров работы: 1007