Читайте также:
|
|
В основу количественного сравнения элементарных информаций, положен разработанный в теории связи и передачи информации энтропийный подход. Количественная мера информации определяется относительно пользователя, т.е. с учётом уже имеющейся начальной информации у пользователя.
Пусть Х – произвольное множество, L – некоторая решётка понятий для Х, с атомарной шкалой Ш = {альфа катая; к принадлежит К} и для каждой Х0 распределено дискретное распределение достоверностей, заданное на шкале, т.е. определена числовая не отрицательная функция Р(альфа катая, Х0)>=0, альфа катая принадлежит Ш, с условием нормировки сумма(р(альфа катая, Х(0)=1).
Такое распределение является начальным распределением достоверностей для точки Х0, относительно решётки понятий L.
Определённая для любого подмножества дельта, принадлежащая L, называется достоверностью фактов, что Х0 принадлежит дельта. 0<=p<=1. Если р=1, то Х0 принадлежит дельта – истина. Если р=0, высказывание – ложь, Х0 принадлежит дельта’.
Выше приведенные формулы относятся к случаю, когда решётка L представляет собой конечное множество.
Если решётка L представляет собой несчётное множество (в случае непрерывного распределения величины), начальное распределение достоверности для точки Х0, принадлежащей Х, задаётся интегрируемой функцией плотности f(Х,Х0)>=0 с условием нормировки. Интеграл. В этом случае предполагается, что решётка подмножеств L состоит из измеримых подмножеств, величина - интеграл с p - определена для любого элемента дельта, принадлежащего L и трактуется как Х0 принадлежащее дельта.
Конкретизация начального распределения Р(альфа катая, Х0), для справки (f(Х,Х0)) для точки Х0 зависит от пользователя, и характеризует имеющуюся у него начальную информацию о точке Х0.
Если не имеется никаких начальных сведений о точке Х0, задаётся либо равномерное, либо нормальное распределения.
Пусть задано начальное распределение достоверности Р(альфа катая, Х0) для точки Х0, альфа катая принадлежит Ш принадлежит L. L – решётка понятий для Х, с конечной или счётной атомарной шкалой Ш, для любого сведения дельта(Х0) о точке Х0, при условии, что дельта принадлежит L, определяется вторичное распределение достоверностей для точки Х0 по формуле Байеса.
Энтропия (Н) – мера неопределённости. Величина изменения энтропии для начального и вторичного распределения называется количеством информации, принесенной сведением дельта(Х0), и обозначается
I[дельта(Х0)]=H[Х(Х0)]-Н[дельта(Х0)] (1)
Если начальное распределение для точки Х0 относительно решётки понятий L равномерная, то для любого сведения дельта(Х0) о точке Х0 при условии дельта принадлежит L, справедливо равенство:
I[дельта(Х0)] = log2(M\m)>=0 (2)
В случае дискретной решётки M – число атомов решётки, m – число атомов, составляющих подмножество дельта.
В случае (2) равенство 0 достигается в том случае, когда сведения наиболее общие.
I[Х(Х0)]=0
Дельта(Х0)=Х(Х0)=>Н[дельта(Х0)]=Н[Х(Х0)]=>I[Х(Х0)]=0
Для любых двух сведений дельта1(Х0) и дельта2(Х0), при условии, что они оба принадлежат L, и дельта1 > дельат2, выполняется неравенство:
I[дельта1(Х0)]<=I[дельта2(Х0)]
Более общее сведение несёт меньшую информацию.
Пусть начальное распределение для точки Х0, относительно решётки понятий L, равномерное и ДЕЛЬТА1(Х0), ДЕЛЬТА2(Х0) – два эквивалентных носителя, любые сведения которых таковы, что дельта1(Х0) принадлежит ДЕЛЬТА1(Х0), дельта2(Х0) принадлежит ДЕЛЬТА2(Х0) любые сведения которых дельта1, дельта2 принадлежат L, тогда количество информации от этих сведений одинаково:
I[ДЕЛЬТА1(Х0)]=I[ДЕЛЬТА(Х0)]
Вывод. Количество одной и той же информации зависит от начального распределения, т.е. от пользователя, но не зависит от носителя этой информации.
Наиболее удобным носителем для вычисления количества информации являются данные о точке, относительно разложения решётки понятий, произведения подрешёток с атомарными шкалами. В случае, когда появляются бесконечные или большие значения количества информации, принесенные данными, эти значения можно уменьшить, если учесть имеющиеся начальные сведения о точке.
Дата добавления: 2015-01-12; просмотров: 16 | Поможем написать вашу работу | Нарушение авторских прав |