Студопедия  
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Количество информации I на синтаксическом уровне определяется через понятие энтропии системы.

Читайте также:
  1. A) Схватив окно за заголовок левой кнопкой мыши или через системное меню
  2. A) хранения информации.
  3. Amp;C) популяционные и экосистемы.
  4. C) Скоба - утолщение слиз оболочки, лежащее позади слепого отв на уровне второй и третьей жаберных дуг.
  5. C. Движение информации и ее трансформация от исходной в командную
  6. Flash –носители информации
  7. I . Понятие и признаки правовых норм.
  8. I. Диагностика: понятие, цели, задачи, требования, параметры
  9. I. Доказывание, понятие и общая характеристика
  10. I. Изучите блок теоретической информации: учебник стр. 89-105, конспект лекций № 12-13.

В основе методик количественных исследований всегда лежат четкие математические и статистические модели, что позволяет в результате иметь не мнения и предположения, а точные количественные (числовые) значения изучаемых показателей. На основе результатов количественных исследований можно рассчитывать необходимые объемы производства, рентабельность, формировать цену, параметры продукта, находить незанятые ниши рынка и многое другое.

Особенность этой группы методов заключается в их высокой формализованности, т.е. используемый инструментарий состоит из переменных, заданных исследователем заранее, он достаточно «жесткий» и практически не может меняться в рамках уже запущенного проекта. Высокая степень формализации количественных методик сочетается с их ориентацией на массовый сбор первичных данных и их статистическую обработку. При использовании количественных методов сбора информации исходной позицией является выборочная совокупность (выборка) и принцип репрезентативности.

Количественные характеристики информации делятся на синтаксическую (объем данных, количество информации), семантическую (количество информации) и прагматическую меры информации.

Синтаксическая мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации.

Объём данных (VД) понимается в техническом смысле этого слова как информационный объём сообщения или как объём памяти, необходимый для хранения сообщения без каких-либо изменений. Информационный объём сообщения измеряется в битах и равен количеству двоичных цифр (0 и 1), которыми закодировано сообщение.

В компьютерной практике слово «бит» используется также как единица измерения объёма памяти. Ячейка памяти размером в 1 бит может находиться в двух состояниях («включено» и «выключено») и в неё может быть записана одна двоичная цифра (0 или 1). Понятно, что бит – слишком маленькая единица измерения информации, поэтому пользуются кратными ей величинами. Основной единицей измерения информации является байт. 1 байт равен 8 битам. В ячейку размером в 1 байт можно поместить 8 двоичных цифр, то есть в одном байте можно хранить 28 = 256 различных чисел. Для измерения ещё больших объёмов информации используются такие величины:

1 Килобайт = 210 байт = 1024 байт.

1 Мегабайт = 210 Килобайт = 1024 Килобайт.

1 Гигабайт = 210 Мегабайт = 1024 Мегабайт.

1 Терабайт = 210 Гигабайт = 1024 Гигабайт.

Количество информации I на синтаксическом уровне определяется через понятие энтропии системы.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a. Мерой его неосведомленности о системе является функция H (a), которая в то же время служит и мерой неопределенности состояния системы. После получения некоторого сообщения b получатель приобрел некоторую дополнительную информацию I b(a), уменьшившую его априорную неосведомленность так, что неопределенность состояния системы после получения сообщения b стала H b(a). Тогда количество информации I b(a) о системе, полученной в сообщении b, определится как I b(a) = H (a) – H b(a), т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность H b(a) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации I b(a) = H (a). Иными словами, энтропия системы H (a) может рассматриваться как мера недостающей информации.

Энтропия системы H (a), имеющей N возможных состояний, согласно формуле Шеннона, равна:

,




Дата добавления: 2015-01-29; просмотров: 36 | Поможем написать вашу работу | Нарушение авторских прав




lektsii.net - Лекции.Нет - 2014-2024 год. (0.006 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав