Студопедия  
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Синтаксическая мера информации

Читайте также:
  1. C. Движение информации и ее трансформация от исходной в командную
  2. Flash –носители информации
  3. I. Изучите блок теоретической информации: учебник стр. 89-105, конспект лекций № 12-13.
  4. Internet, его функции. Web-броузеры. Поиск информации в Internet.
  5. SIB3233 - Защита информации в Интернете
  6. X. Порядок обеспечения доступа к информации о деятельности Правительства
  7. XML - синтаксическая основа Semantic Web
  8. Автоматизированные системы обработки информации на транспорте
  9. Автоматизированные системы обработки информации на транспорте
  10. АИТ в обработке табличной информации

Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных.

Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы).

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. Мерой его неосведомленности о системе является функция H(α).

После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию Iβ(α), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы стала Hβ(α).

Тогда количество информации Iβ(α) о системе, полученной в сообщении β, определяется как:

т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если неопределенность Hβ(α) обращается в нуль, то первоначальное неполное знание изменится в полное знание и количество информации Iβ(α)= Hβ(α). Иными словами энтропия системы H(α) может рассматриваться как мера недостающей информации.

Энтропия системы H(α), имеющая N возможных состояний, согласно формуле Шеннона равна:

где Pi - вероятность того, что система находится в i-м состоянии.

Задние 2: Вычислить энтропию слова, состоящего из двух букв.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны, ее энтропия определяется соотношением

Часто информация копируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что модно представить в виде соотношения

N=mn

где N - число всевозможных отображаемых состояний, m - основание системы счисления (разнообразие символов, применяемых в арифметике);

n - число разрядов (символов) в сообщении.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

, причем 0<Y<I

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.




Дата добавления: 2014-12-20; просмотров: 38 | Поможем написать вашу работу | Нарушение авторских прав




lektsii.net - Лекции.Нет - 2014-2024 год. (0.006 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав