Студопедия  
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Количество элементарной информации.

Читайте также:
  1. II. Перечень дисциплин модуля «Челюстно-лицевой хирургии, оториноларингологии и офтальмологии» и количество часов по каждой дисциплине
  2. N – количество дат;
  3. U26. Я буду зачитывать Вам высказывания, а Вы для каждого высказывания назовите магазины, которым оно подходит. Вы можете назвать любое количество магазинов?
  4. А. Количество избирателей для назначения проведения общероссийского референдума не менее ...
  5. А. Количество избирателей для назначения проведения общероссийского референдума не менее ...
  6. Абсолютная адсорбция (А) - количество адсорбата на единице поверхности адсорбента.
  7. Акустические каналы утечки информации.
  8. Алгоритм, виды алгоритмов. Алгоритмизация поиска правовой информации.
  9. Анализ статистической информации.
  10. Балансовый метод обобщения информации. Определение бухгалтерского баланса. Структура и принципы построения бухгалтерских балансов. Классификация бухгалтерских балансов.

В основу количественного сравнения элементарных информаций, положен разработанный в теории связи и передачи информации энтропийный подход. Количественная мера информации определяется относительно пользователя, т.е. с учётом уже имеющейся начальной информации у пользователя.

Пусть Х – произвольное множество, L – некоторая решётка понятий для Х, с атомарной шкалой Ш = {альфа катая; к принадлежит К} и для каждой Х0 распределено дискретное распределение достоверностей, заданное на шкале, т.е. определена числовая не отрицательная функция Р(альфа катая, Х0)>=0, альфа катая принадлежит Ш, с условием нормировки сумма(р(альфа катая, Х(0)=1).

Такое распределение является начальным распределением достоверностей для точки Х0, относительно решётки понятий L.

Определённая для любого подмножества дельта, принадлежащая L, называется достоверностью фактов, что Х0 принадлежит дельта. 0<=p<=1. Если р=1, то Х0 принадлежит дельта – истина. Если р=0, высказывание – ложь, Х0 принадлежит дельта’.

Выше приведенные формулы относятся к случаю, когда решётка L представляет собой конечное множество.

Если решётка L представляет собой несчётное множество (в случае непрерывного распределения величины), начальное распределение достоверности для точки Х0, принадлежащей Х, задаётся интегрируемой функцией плотности f(Х,Х0)>=0 с условием нормировки. Интеграл. В этом случае предполагается, что решётка подмножеств L состоит из измеримых подмножеств, величина - интеграл с p - определена для любого элемента дельта, принадлежащего L и трактуется как Х0 принадлежащее дельта.

Конкретизация начального распределения Р(альфа катая, Х0), для справки (f(Х,Х0)) для точки Х0 зависит от пользователя, и характеризует имеющуюся у него начальную информацию о точке Х0.

Если не имеется никаких начальных сведений о точке Х0, задаётся либо равномерное, либо нормальное распределения.

Пусть задано начальное распределение достоверности Р(альфа катая, Х0) для точки Х0, альфа катая принадлежит Ш принадлежит L. L – решётка понятий для Х, с конечной или счётной атомарной шкалой Ш, для любого сведения дельта(Х0) о точке Х0, при условии, что дельта принадлежит L, определяется вторичное распределение достоверностей для точки Х0 по формуле Байеса.

Энтропия (Н) – мера неопределённости. Величина изменения энтропии для начального и вторичного распределения называется количеством информации, принесенной сведением дельта(Х0), и обозначается

I[дельта(Х0)]=H[Х(Х0)]-Н[дельта(Х0)] (1)

Если начальное распределение для точки Х0 относительно решётки понятий L равномерная, то для любого сведения дельта(Х0) о точке Х0 при условии дельта принадлежит L, справедливо равенство:

I[дельта(Х0)] = log2(M\m)>=0 (2)

В случае дискретной решётки M – число атомов решётки, m – число атомов, составляющих подмножество дельта.

В случае (2) равенство 0 достигается в том случае, когда сведения наиболее общие.

I[Х(Х0)]=0

Дельта(Х0)=Х(Х0)=>Н[дельта(Х0)]=Н[Х(Х0)]=>I[Х(Х0)]=0

Для любых двух сведений дельта1(Х0) и дельта2(Х0), при условии, что они оба принадлежат L, и дельта1 > дельат2, выполняется неравенство:

I[дельта1(Х0)]<=I[дельта2(Х0)]

Более общее сведение несёт меньшую информацию.

Пусть начальное распределение для точки Х0, относительно решётки понятий L, равномерное и ДЕЛЬТА1(Х0), ДЕЛЬТА2(Х0) – два эквивалентных носителя, любые сведения которых таковы, что дельта1(Х0) принадлежит ДЕЛЬТА1(Х0), дельта2(Х0) принадлежит ДЕЛЬТА2(Х0) любые сведения которых дельта1, дельта2 принадлежат L, тогда количество информации от этих сведений одинаково:

I[ДЕЛЬТА1(Х0)]=I[ДЕЛЬТА(Х0)]

Вывод. Количество одной и той же информации зависит от начального распределения, т.е. от пользователя, но не зависит от носителя этой информации.

Наиболее удобным носителем для вычисления количества информации являются данные о точке, относительно разложения решётки понятий, произведения подрешёток с атомарными шкалами. В случае, когда появляются бесконечные или большие значения количества информации, принесенные данными, эти значения можно уменьшить, если учесть имеющиеся начальные сведения о точке.

 




Дата добавления: 2015-01-12; просмотров: 16 | Поможем написать вашу работу | Нарушение авторских прав




lektsii.net - Лекции.Нет - 2014-2024 год. (0.008 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав