Читайте также:
|
|
Количество информации; при различных вероятностях событий количество информации может быть измерено по формуле К. Шеннона: ,
где a - априорные сведения о системе;
H(a) - энтропия системы после получения сообщения В;
- количество информации о системе, полученной в сообщении В.
Энтропия системы может рассматриваться как мера недостатка информации до полного исчерпывающего знания о системе. n
N=mn, где Pi-вероятность того, что система находится в i –ом состоянии;
N-число состояний системы;
-равновероятные состояния системы.
Тезаурус-совокупность сведений, которыми располагает пользователь или система. Максимальное количество семантической информации потребитель получает при согласовании смыслового содержания со своим тезаурусом. Сообщение может иметь смысл для компетентного пользователя и быть бесполезным для некомпетентного.
Дата добавления: 2015-01-30; просмотров: 81 | Поможем написать вашу работу | Нарушение авторских прав |