Комбинаторная мера количества информации - Студенческий научный форум

XIV Международная студенческая научная конференция Студенческий научный форум - 2022

Комбинаторная мера количества информации

Ильченко Д.С. 1
1ФГБОУ ВО Брянский государственный университет и м. ак. И. Г. Петровского
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Комбинаторная мера количества информации (структурная мера)- процесс обработки информации как сообщения. Первая часть заявления - это примета. Объединенные вместе символы называются словами.

Информация всегда отображается в виде текстовых сообщений. Первый знак текста - это символ. Сигналы, собранные в группу, называются звуками. Сообщения в форме голоса или индивидуальных сигналов регулярно передаются в форме и форме мощности (световые сигналы, световые сигналы, звуковые сигналы и т. Д.) (рис 10)

Рисунок 10 - Комбинаторная мера количества информации

Максимально возможное количество информации в заданных структурах отражает информационную емкость модели (системы), которая определяется как сумма дискретных значений по всем измерениям (координатам)–2,4,8 и т.д.

В комбинаторной мере количество информации вычисляется как количество различных комбинаций элементов, содержащихся в сообщении.

В большинстве случаев случайное сообщение можно рассматривать как слово, которое включает в себя количество элементов n, заданных в алфавитном порядке с m, где m - буквами, цифрами или символами.

Давайте посмотрим на количество различных сообщений, которые можно создать с использованием заданного алфавита. Если сообщение состоит из двух объектов (n = 2), то можно сформировать максимум 2 метра различных счетчиков. Например, используя 10 чисел 0, 1, ..., 9 (m = 10), можно сформировать 100 чисел, отличных от 00 до 99. Если количество текстовых элементов равно трем, то количество различных сообщений будет m=3 , и так далее.

Таким образом, имеется количество из n элементов, количество возможных различных L сообщений определяется как

L = мин

Чем больше L, тем больше вероятность того, что сообщение может быть передано источником. Следовательно, значение L можно принять как меру количества информации. Однако выбор L в качестве меры количества информации связан с другими ошибками. Таким образом, при n = 0 фактически сообщение не передается и объем передаваемой информации равен нулю, но значение равно L = m0 = 1.

Выбор L в качестве меры информации неудобен еще и тем, что при сложении количества информации от нескольких независимых источников сообщений не выполняется условие линейного сложения количеств информации, т. е. условие аддитивности. Действительно, если первый источник характеризуется числом L1=mn1 различных сообщениями, а второй — L2=mn2, то общее число различных сообщений, полученных от двух источников, определится произведением

L = L1 ´L2 =mn1´mn2= mn1+n2.

Для k различных источников общее число возможных различных сообщений равно

L = L1 ´L2 ´... ´Lk.

Например

Предположим, вы хотите позвонить в город по шестизначному номеру - или внутреннему номеру - номеру телефона. Если вы не знаете нужный номер телефона, то в первом случае велика неопределенность. Очевидно, что если вы используете 10-значное число (числа от 0 до 9), неопределенность номера города в 100 раз (100 = 106/104) больше, чем неопределенность внутреннего телефонного номера. Таким образом, полученное сообщение (требуемый номер телефона) устраняет значительные неудобства и, таким образом, несет в себе в сто раз больше информации.

Ценность этой меры не увеличивается (не говоря уже об объеме информации и длине сообщения). Нам было бы легко определить объем информации или сообщения, которое, например, удваивается, несет вдвое больше информации.

Измерение информации определяется следующей осью.

Аксиома 1. Количество информации, необходимое для устранения неопределенности системного мира, является функцией, которая увеличивает количество регионов системы.

В качестве общей меры знаний можно напрямую определить размер системы Nx, которая является единственной характеристикой X.

Однако такое определение непросто с точки зрения его эффективности. Следовательно, теория познания предлагает другую меру измерения знания, которая является функцией Nx. Эта форма обслуживания позволяет нам создавать Аксиому 2.

Аксиома 2. Глобальная неопределенность сложной системы с двумя системами, равная степени незнания земной коры.

Для широкого круга источников информации необходимы следующие приоритеты:

1. Количество информации в событии - нулевое сообщение.

2. Количество информации, содержащейся в двух независимых словах, должно быть равно количеству информации в каждом случае, то есть количество информации должно иметь дополнительную ценность.

3. Объем информации не должен зависеть от качества контента. Если на уровне ценности или помощи получателю.

В зависимости от требования 2 или для устранения неоднозначности первой системы требуется объем информации, а для второй подсистемы объем информации равен, а затем устраняется неоднозначность сложной системы, объем информации равен к

,

где — число состояний первой подсистемы; — число состояний второй подсистемы; —число состояний слож­ной системы.

Единственным решением полученного функционального уравнения является логарифмическая функция

,

которая определяет количество информации как логарифм числа состояний системы. Основание логарифма определяет единицу измерения количества информации. В зависи­мости от значения единицы измерения называются двоич­ными ( =2), троичными ( =3) и в общем случае -ичными. В дальнейшем под символом будем понимать двоичный логарифм.

Каждое передаваемое слово из букв, записанное в алфавите, содержащем N букв, можно рассматривать как отдельное «укрупненное» состояние источника сообщений. Всего таких состояний (слов) будет

.

Это информационная емкость, или количество информации в сообщении, характеризующая его потенциальное структурное разнообразие.

Структурная мера (мера Хартли) количества информации определяется

.

Выбор уровня логарифма не имеет значения, так как переход от одного логарифма к другому сводится только к увеличению логарифма с основанием, предоставленным соответствующим объектом. Он равен 1,4443 при переходе от натурального логарифма к двоичному и 3,32 при переходе от десятичного числа к двоичному. При использовании цифровых вычислений количество информации определяется в цифровых измерениях - it. Ящиками удобно пользоваться при проверке работоспособности устройств, работающих в выбранной системе счисления. При использовании натуральных логарифмов стандартной единицей измерения является натуральная единица - бит. В случае двоичных логарифмов количество информации измеряется в двоичных единицах - битах.

При =2 за единицу информации принято количество информации, которое содержится в сообщении из одного элемента ( =1), принимающего одно из двух равновероятных значений (N=2), т.е. . Эта единица измерения называется «БИТ» (сокращенно от английского термина «binary unit» - двоичная единица).

Итак, количество информации в рассматриваемом случае равно логарифму длиной :

, [бит].

Известно, что любая информация, полученная заказчиком после получения сообщения, т.е. в результате мероприятия. Сообщение, полученное на принимающей стороне, несет полезную информацию только тогда, когда есть неопределенность в отношении статуса сообщения. Мера степени неопределенности энтропийных условий. Термин и концепция энтропии передаются и используются поразному в физике (термодинамика) и кибернетике (информационные технологии).

В теоретической теории энтропия рассматривается как мера неопределенности разнообразия. Среднее значение неопределенности в событиях каждого возможного сообщения (скажем, событиях) принимается в качестве меры неопределенности (H). Математика отображается следующим образом:

, бит/символ.

При N=1, Н=0, т.е. количество информации в сообщении, элементы которого могут принимать лишь одно значение, равно нулю.

Необходимо отметить, что структурная мера (мера Хартли) количества информации не связана со смыслом передаваемого сообщения (семантикой) и тем влиянием, которое оно может оказать на получателя сообщения.

Пусть, например, информационная емкость некоторой системы равна тысяче: Q=103, I=log2103=3log210»10 [бит], это значит, что в двоичной системе данное число можно закодировать 10 разрядным числом, т.е. для его описания достаточно 10 бит.

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

Андерсон, Дж. Дискретная математика и комбинаторика/ Дж. Андерсон. –М.:Диалектика, 2019.-960 с.

Вечтомов, Е. М. Математика: логика, теория множеств и комбинаторика : учебное пособие для среднего профессионального образования / Е. М. Вечтомов, Д. В. Широков. — 2-е изд. — Москва : Издательство Юрайт, 2020. — 243 с. — (Профессиональное образование). — ISBN 978-5-534-06616-6. — Текст : электронный // ЭБС Юрайт [сайт]. — URL: https://urait.ru/bcode/454951 (дата обращения: 09.08.2021).

Гусева, А.И. Дискретная математика: Учебник / А.И. Гусева, В.С. Киреев, А.Н. Тихомирова. - М.: Курс, 2017. - 320 c.

Коростелёва, Л.А. Дискретная математика: Учебное пособие / Л.А. Коростелёва, А.Г. Кощаев. - СПб.: Лань, 2016. - 592 c.

Соболева, Т.С. Дискретная математика: Учебник / Т.С. Соболева; под ред. А.В. Чечкина. - М.: Academia, 2017. - 40 c

Просмотров работы: 27