Студопедия  
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Цель работы. 1.Андреева Г. М. Социальная психология

Читайте также:
  1. D. Требования к структуре и оформлению курсовой работы.
  2. E. Порядок защиты курсовой работы.
  3. I ОРГАНИЗАЦИОННО-МЕТОДИЧЕСКИЕ УКАЗАНИЯ ПО ВЫПОЛНЕНИЮ КУРСОВОЙ РАБОТЫ
  4. I Принцип работы клавиатур
  5. I. ОБЩИЕ ПОЛОЖЕНИЯ ПО ВЫПОЛНЕНИЮ КОНТРОЛЬНОЙ РАБОТЫ
  6. I. Общие рекомендациик написанию курсовой работы
  7. I. Основные задачи и направления работы библиотеки
  8. I. ОСНОВНЫЕ ПОЛОЖЕНИЯ. РУКОВОДСТВО ПОДГОТОВКОЙ И НАПИСАНИЕМ КУРСОВОЙ РАБОТЫ
  9. I. Теоретическая часть лабораторной работы
  10. II. ВЫБОР ТЕМЫ КУРСОВОЙ РАБОТЫ. ПОДБОР И ОЗНАКОМЛЕНИЕ С ЛИТЕРАТУРОЙ ПО ВЫБРАННОЙ ТЕМЕ

1. Андреева Г. М. Социальная психология. М., 1980.

2. Атватер И. Я Вас слушаю. М., 1984.

3. Богомолов Н. Н. Доктрина "человеческих отношений". М., 1970.

4. Бодалев А. А. Личность и общество. М., 1983.

5. Дерябо С. Д., Ясвин В. А. Гроссмейстер общения. М., 1996.

6. Добрович А. А. Общение: наука и искусство. М., 1997.

7. Крижанская Ю. С., Третьякова В. Н. Грамматика общения. Л.,1990.

8. Куницина В. Н. Стиль общения и его формирование. Л., 1985.

9. Леонтьев А. А. Психология общения. М., 1997.

10. Ночевник М. Н. Психология общения и бизнес. М., 1995.

11. Обозов Н. Н. Психология межличностных отношений. Киев, 1990.

12. Пиз А. Язык телодвижений. Н. Новгород, 1994.

13. Швальбе Б., Швальбс X. Личность. Карьера. Успех. М., 1993.

14. Ягер Дж. Деловой этикет: Как выжить и преуспеть в мире бизнеса. М., 1994.

15. Яккока Л. Карьера менеджера. М., 1990.

 


 

Цель работы

Освоить метод построения кодов дискретного источника информации используя конструктивный метод, предложенный К.Шенноном и Н.Фано. На примере показать однозначность раскодирования имеющегося сообщения.

При кодировании дискретных источников информации часто решается задача уменьшения избыточности, т.е. уменьшения количества символов, используемых для передачи сообщения по каналу связи, что позволяет повысить скорость передачи за счет уменьшения количества передаваемой информации, а в системах хранения уменьшение избыточности позволяет снизить требования к информационной емкости используемой памяти.

Для передачи и хранения информации, как правило, используется двоичное кодирование. Если алфавит A состоит из N символов, то для их двоичного кодирования необходимо слово разрядностью n, которая определяется

n =log2 N, где значение округляется до верхнего целого числа.

Это справедливо при использовании стандартных кодовых таблиц, например, ASCII, KOI-8 и т.п., обеспечивающих кодирование до 256 символов.

Если в используемом алфавите символов меньше, чем используется в стандартной кодовой таблице, то возможно использование некоторой другой таблицы кодирования если необходимо передавать или хранить сообщение, состоящее из символов кириллицы, цифр и семи символов разделителей {«.», «,», «:», «;», «!», «кавычки», «?»} (всего 50 символов), мы можем воспользоваться способами кодирования:

Ø Кодировать каждый символ в соответствии со стандартной кодовой таблицей, например, KOI-8R. По этой таблице n1 = 8;

Ø Составить и использовать отдельную кодовую таблицу, это может быть некоторый усеченный вариант стандартной таблицы, не учитывающую возможность кодирования символов, не входящих в передаваемое сообщение, тогда необходимый размер кодового слова n2 = log2 N= log2 50=6, где значение округляется так же, как и при определении основной формулы разрядности.

Эффективное кодирование базируется на основной теореме Шеннона для каналов без шума, в которой доказано, что сообщения, составленные из букв некоторого алфавита, можно закодировать так, что среднее число двоичных символов на букву будет сколь угодно близко к энтропии источника этих сообщений, но не меньше этой величины.

Код строится следующим образом:

буквы алфавита сообщений выписываются в таблицу в порядке убывания вероятностей. Затем они разделяются на две группы так, чтобы суммы вероятностей в каждой из групп были по возможности одинаковы. Всем буквам верхней половины в качестве первого символа приписывается 1, а всем нижним — 0. Каждая из полученных групп, в свою очередь, разбивается на две подгруппы с одинаковыми суммарными вероятностями и т. д. Процесс повторяется до тех пор, пока в каждой подгруппе останется по одной букве.

Можно вычислить среднее количество двоичных разрядов, используемых при кодировании символов по алгоритму Шеннона-Фано

где: A — размер (или объем) алфавита, используемого для передачи сообщения;

n(ai) — число двоичных разрядов в кодовой комбинации, соответствующей символу ai.

 

 

nср = 4,628325 бит

Iср = ∑ * p(ai) * n(ai), где p(ai) - вероятность p, n(ai) - число двоичных разрядов в кодовой комбинации, соответствующей символу ai.

nср =∑ p(ai)* n(ai),

где nср – среднее количество двоичных разрядов, используемых при кодировании символов по алгоритму Шеннона-Фано; n(ai) — число двоичных разрядов в кодовой комбинации, соответствующей символу ai.

 

 

Т – 0111

Е – 0100

Р – 10011

М – 10110

О – 001

М – 10100

Е – 0100

Т – 0111

Р - 10011

Слово Термометр «011101001001110110001101000100011110011»

 

Вывод: Освоила метод построения кодов дискретного источника информации используя конструктивный метод, предложенный К. Шенноном и Н. Фано. Показала на примере однозначность раскодирования сообщения.

 

 

Лабораторная работа №5 «Кодирование дискретных источников информации по методики Д.Хаффмана»




Дата добавления: 2014-12-19; просмотров: 23 | Поможем написать вашу работу | Нарушение авторских прав




lektsii.net - Лекции.Нет - 2014-2024 год. (0.008 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав