Читайте также:
|
|
7. Социальная информация имеет семантический (смысловой) характер.
Как правило, содержание, смысл информации для человека важнее, чем форма её представления.
8. Социальная информация имеет языковую природу (кроме некоторых видов эстетической информации, например, изобразительного искусства).
Одно и то же содержание может быть выражено на разных естественных (разговорных) либо специальных языках.
Пример. Многие алгоритмы, встречающиеся в профессиональной деятельности экономистов, технологов и т. п., могут быть представлены в словесной форме, записаны на языке математики — в виде математических формул, либо на языке блок-схем.
9. С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации (кумуляция — от латинского cumulatio — увеличение, скопление).
10. Свойство старения информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю информацию.
Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) — медленнее.
11. Логичность, компактность, удобная форма представления информации облегчает понимание и усвоение информации.
Пример. Грамотное, доказательное выступление, когда оратор логично переходит от одного вопроса (факта, предположения) к другому, воспринимается лучше, чем сумбурная речь.
Использование схем нередко лучше проясняет принцип работы технического устройства, чем многостраничные описания.
12. При восприятии и понимании текстов человеком важным свойством информации оказывается ее определенность (однозначность).
Пример. «И вскрикнул внезапно ужаленный князь!» Внезапно вскрикнул или внезапно ужаленный? «Сережа встретил Свету на поляне с цветами». С цветами был Сережа или с цветами была Света? А, может быть, цветы росли на поляне?
Многозначность слов, фраз, жестов нередко затрудняют общение, приводят к недоразумениям и конфликтам. Заметим, что в художественных произведениях многозначность, «игра слов» часто используется как литературный прием, повышающий интерес читателей, будящий их воображение, позволяющий посмотреть на описываемую ситуацию с разных точек зрения.
Пример. Один персидский царь, собираясь завоевать соседнее государство, обратился к оракулу с вопросом: «Что произойдет, если я со своим войском переправлюсь через пограничную реку?» Оракул ответил: «Государь, ты разрушишь великое царство». Удовлетворившись таким предсказанием, завоеватель переправился со своим войском через реку, и был разгромлен войском противной стороны. В гневе он обратился к оракулу, обвиняя того в обмане. На что оракул ответил: «Государь, а разветвое царство было не велико?». Следует определить свойства информации этого примера.
С одной стороны оракул выдал царю неполную информацию, не указав о каком «великом царстве» идет речь. Этого и не хватило для принятия правильного решения.
С другой стороны, можно отметить отсутствие определенности в его утверждении, оракул под великим мог понимать только свое государство, а персидский царь трактовал это определение шире.
Удобно представить виды информации и свойства в виде таблиц.
Виды информации.
По способу восприятия | По степени значимости | По форме представления |
Визуальная; аудиальная; обонятельная; тактильная; вкусовая | • Знания,умения; • прогнозы, планы; • чувства, инт уиция; • опыт, наследственная память | Текстовая; числовая; графическая; звуковая |
• Научная; • производственная; • техническая; • управленческая | ||
• Общественно-политическая; • научно-популярная; • обыденная; • эстетическая |
Объективность | Субъективность |
Достоверность | Недостоверность (ложность) |
Полнота* | Неполнота (недостаточность). • также избыточность |
Актуальность (своевременность) | Неактуальность (устаревание или преждевременность] |
Полезность (ценность) | Бесполезность |
Понятность | Непонятность |
1. Информация объективна, если она не зависит от чьего-либо мнения, суждения. 2. Информация достоверна, если она отражает истинное положение дел. 3. Информация полна, если ее достаточно для понимания и принятия решения. 4. Информация актуальна, если она важна, существенна для настоящего времени. 5. Полезность информации оценивается по тем задачам, которые мы можем решить с се помощью. 6. Информация понятна, если она выражена на языке, доступном для получателя. |
Свойства информации.
Задание 1
Приведите примеры:
а) информации, представленной в текстовой, числовой, графической формах;
б) использования числовой информации вместе с текстовой; графической вместе с числовой.
Задание 2
Приведите собственные примеры:
а) достоверной, но необъективной информации;
б) объективной, но недостоверной информации;
в) полной, достоверной, но бесполезной информации;
г) неактуальной информации;
д) актуальной, но непонятной информации.
Задание 3
В следующем примере определите свойства информации.
Дошкольник спрашивает у старшеклассника: «Как светит лампочка?». В ответ слышит: «Существует две теории света — волновая и корпускулярная. Согласно первой...».
Кодирование информации
Поскольку в информатике мы рассматриваем информацию как результат обработки данных адекватными методами, возникает вопрос о представлении данных. Сразу надо отметить, что за основу мы будем принимать дискретную форму представления сообщений, принятую в информатике.
Человечество давно решило эту проблему. Любое общение между людьми происходит именно благодаря тому, что они научились выражать образы, чувства и эмоции с помощью специально предназначенных для этого знаков и сигналов — звуков, жестов, букв и пр. Процесс представления информации в виде знаков называют кодированием. Одну и ту же информацию мы можем выразить разными способами.
Как отмечалось, за основу принят так называемый алфавитный способ представления информации. Дискретные сообщения представляют собой (конечные или бесконечные) последовательности знаков некоторого алфавита. При этом, исходя из соображений, связанных с физиологией органов чувств, или из чисто технических соображений, их обычно разбивают на конечные последовательности знаков, называемые словами.
Принято говорить, что если алфавит избран или зафиксирован, то слова строятся “над” этим алфавитом. Слова над двоичным набором знаков называются двоичными словами. Они не обязаны иметь постоянную длину азбука Морзе, например: A = • ─, S = •••, но если это так, т. е. все слова имеют длину n, то говорят об n-разрядных словах или кодах. Например, восьмиразрядный код ASCII.
Возникает вопрос, а если одна и та же информация представлена над разными алфавитами? На оживленном перекрестке регулировщик помогает избежать аварии с помощью жестов. В тоже время его жесты соответствуют определенным сигналам светофора. Просто, необходимо знать правило, по которому каждому знаку одного алфавита ставятся в соответствие знаки другого алфавита. Ясно, что при разной длине алфавитов взаимно однозначным соответствием здесь не обойтись, знаков одного из алфавитов может не хватить. В таком случае знакам одного алфавита ставятся в соответствие комбинации знаков другого алфавита, т. е. слова другого алфавита. Чаще всего при этом используются слова постоянной длины. Правило, устанавливающее соответствие называется правилом кодирования, или кодом.
Дадим точное определение.
Кодом называется правило, описывающее отображение одного набора знаков в другой набор знаков; также называют и множество образов при этом отображении. То есть термин «код» используется в двух смыслах — как правило кодирования и как множество, состоящее из наборов знаков, т.е. слов используемых для кодирования
Длина используемых слов так же называется еще длиной кода.
Код (фр. code — кодекс, свод законов). Начиная с середины XIX века это слово, помимо основного значения, означало книгу, в которой словам естественного языка сопоставлены группы цифр или букв.
Коды с постоянной длиной кодовых слов использовать технически проще, так как слова могут следовать друг за другом без делителей. Исходная группировка кодовых слов устанавливается с помощью отсчета.
Наиболее простым для кодирования является двоичный алфавит. Чем меньше знаков в алфавите, тем проще должна быть устроена «машина» для распознавания (дешифровки) информационного сообщения. Однако чем меньше знаков в алфавите, тем большее их количество (большая длина кода) требуется для кодирования информации. В качестве двоичного алфавита мы могли бы использовать, например такой {∆,}, но без особого напряжения воображения можно согласиться с применением известных нам арабских цифр {0,1}. Несложный подсчет показывает, что при длине кодового слова равной двум мы сможем закодировать 4 символа другого алфавита. Приведем одно из возможных объяснений. В каждой из 2-ух позиций может стоять один из 2-х знаков алфавита. Для первой позиции существует 2 возможности. Для каждой из этих возможностей рассмотрим 2 возможности для второй позиции, — всего будем иметь 2*2 = 4 возможностей, другими словами можем закодировать 4 символа. Рассуждая аналогично для случая, где длина слова равна трем, получим 2*2*2=23 возможностей, т.е. 8 слов. Обобщая, можно сделать вывод. При длине слова равной n знаками двоичного алфавита можно закодировать 2n различных состояний или символов. Если имеется алфавит, состоящий из k знаков, то в этом случае можно закодировать kn различных состояний.
Итак, если алфавит состоит из k знаков и используется код с постоянной длиной п, то можно закодировать
М = kn различных состояний.
В вычислительной технике в настоящее время широко используется двоичное кодирование с алфавитом {0,1}. Наиболее распространенными кодами являются ASCII (American standard code for information interchange — американский стандартный код для обмена информацией), ДКОИ-8, Win 1251.
Передача сообщений всегда осуществляется во времени. Процесс кодирования также требует определенного количества времени, которым зачастую нельзя пренебрегать. При кодировании могут ставиться определенные цели и применяться различные методы. Наиболее распространенные цели кодирования:
· экономность (уменьшение избыточности сообщения, повышение скорости передачи или обработки);
· надежность (защита от случайных искажений);
·:сохранность (защита от нежелательного доступа к информации);
· удобство физической реализации (двоичное кодирование информации в ЭВМ);
· удобство восприятия (схемы, таблицы).
Методы кодирования могут быть различными, так, например, при двоичном кодировании строят двоичное дерево. Из единого корня (узла) движение налево обозначают знаком 0, а движение направо – знаком 1. Доходя до первого узла, поступают аналогичным образом и так далее. При наличии у дерева 3-х узлов, каждой из восьми цифр от 0 до 7 можно сопоставить свой 3-хзначный двоичный код. См. рис.№, из которого видно, что 0 соответствует 000, 1 – 001, …, 7 – 111.
Рис. 5
Знание кодирования информации позволяет нам представлять ее в виде сообщения над некоторым алфавитом. Сообщение это всегда некоторая форма преставления информации. Однако следует различать сообщение и заключённую в нём информацию (смысл сообщения для источника и получателя). Одна и та же последовательность сигналов может нести для разных получателей различную информацию.
Измерение информации.
Умение представить информацию в виде сообщения приводит к мысли о том, а нельзя ли оценить количественно содержание информации в том или ином сообщении? Задумавшись над постановкой этого вопроса, приходишь к мысли о том, что взять за единицу измерения, и более того, а что, собственно, измерять? Ведь как мы отмечали ранее, существуют разные подходы к определению понятия информации.
1 Подход. Измерение информации на бытовом уровне.
Рассмотрим ту точку зрения, где информация рассматривается как новизна, и которая принята в быту. Очевидным является тот факт, что одно и то же сообщение обладает разным уровнем новизны для разных людей. Для инженера электронщика объяснение принципов работы компьютера вряд ли будет обладать новизной тогда, как для школьника она – новизна безусловно будет присутствовать. А вот абориген Южной Америки, не имеющий представления об электричестве, вообще не поймет в чем дело, так как объект рассмотрения не входит в его понятийный круг. Таким образом, количество информации в сообщении зависит от того, насколько ново это сообщение для получателя, насколько оно понятнот. е. носит субъективный характер. Но субъективные вещи не поддаются сравнению и анализу, для их измерения невозможно выбрать одну общую для всех единицу измерения.
Поэтому, когда информация рассматривается как новизна сообщения для получателя,вопрос об измерении количества информации не ставится.
2 Подход. Измерение информации в теории информации.
Получение информации (ее увеличение) одновременно означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределённости.
В теории информации для определения единицы измерения исходят из простой истины: увеличение информации ведет к уменьшению незнания или информационной неопределенности. Рассмотрим это на примерах.
1. Пусть в классе имеется 32 ученика, а мы желаем знать оценку конкретного ученика на экзамене по информатике. Неопределенность достаточно велика, и сообщение о том, что юноши класса не имеют «завалов» на экзамене по информатике уменьшает эту неопределенность.
2. Шарик находится в одной из восьми лунок. Информационная неопределенность равна восьми. Правильно сформулированный вопрос о местонахождении шарика может уменьшить эту неопределенность.
Было принято, что сообщение, уменьшающее неопределенность в два раза, содержит одну единицу информации. Бит - название единицы информации.
Вопрос о ценности этой информации для получателя здесь не поднимается — это уже из иной области.
Пример. Известно, что книга лежит на одной из двух полок — верхней или нижней. Сообщение о том, что книга лежит на верхней полке, уменьшает неопределённость ровно вдвое; в этом случае говорят, что оно несет 1 бит информации.
В соревновании участвуют 4 команды. Сообщение о том, что конкретная команда (вторая, например) выиграла, уменьшает первоначальную неопределённость ровно в 4 раза (дважды по два) и несет 2 бита информации.
Приближенно можно считать, что количество информации в сообщении о каком-то событии совпадает с количеством вопросов, которые надо задать относительно разрешения данной ситуации, и ответом, на которые могут быть лишь «да» или «нет». Причем события должны быть равновероятны.
Пример. Вернемся к примеру с экзаменом по информатике, уточнив в нем, что в классе занимаются 32 ученика, и девочек и мальчиков поровну. Сколько информации содержит сообщение об оценке конкретного ученика? Допустим, что вышедший с экзамена ученик знает оценку одного одноклассника, но не хочет называть его фамилию. Мы хотим выяснить результат этого ученика, не нарушая условий вышедшего. Неопределенности довольно много, но не так много как кажется.
Давайте задавать вопросы всякий раз, сокращая неопределенность в два раза, т.е. получая в ответ один бит информации. Спросим сначала, «Этот ученик девочка?" - "Да!» «В списке девочек ее фамилия находится в первой половине списка?" - "Нет!» и так далее... В результате за пять вопросов мы получим точную информацию. Следовательно, сообщение об оценке ученика несет 5 бит информации.
В приведенных примерах число равновероятных событий, об одном из которых идет речь в сообщении, кратно степени числа 2 (4 = 22, 32 = 25). Поэтому сообщение несет количество битов информации, являющееся целым числом. Но на практике могут встречаться и другие ситуации.
Пример. Сообщение о том, что на светофоре красный сигнал, несет в себе количество информации большее, чем 1 бит. Попробуйте объяснить, почему?
Пример. Известно, что Иванов живет на улице Весенней. Сообщение о том, что номер его дома есть число чётное, уменьшило неопределённость. Получив такую информацию, мы стали знать больше, но информационная неопределённость осталась, хотя и уменьшилась. Почему в этом случае мы не можем сказать, что первоначальная неопределённость уменьшилась вдвое (иными словами, что мы получили 1 бит информации)? Если вы не знаете ответа на этот вопрос, представьте себе улицу, на чётной стороне которой, например, четыре дома, а на нечётной — двадцать. Такие улицы не такая уж большая редкость.
Научный подход к оценке количества информации в сообщении был предложен еще в 1928 году Р. Хартли.
Если N - общее количество равновероятных исходов, то сообщение о том, что произошло одно из них, несет Iбит информации. Значение I вычисляется из уравнения:
2I = N
Решение этого уравнения выглядит так:
I =
N
Применим формулу к случаю с книжными полками N = 2 и I =
2 равняется 1бит.
Для примера с классом и экзаменом информатики N = 32 следовательно I =
32 и равняется 5 битам, ответы совпали.
Иногда формула Хартли записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность, то, обозначив вероятность буквой p, мыбудем иметь р = 1/N. Тогда N = 1/р и формула примет вид
I = log 2 (l/p) = - log 2 p
Этот новый вид формулы Хартли очень кстати. В примере, касающемся улицы, мы приходили к мысли о том, что события не всегда равновероятны. Как же быть в этом случае? Для этого нам надо познакомиться с более общим случаем вычисления количества информации, содержащемся в сообщении об одном из N, но уже не равновероятных событий.
Рассмотрим некоторый умозрительный эксперимент. Пусть имеется генератор, который на своем экране может демонстрировать любую из букв некоего алфавита, состоящего из k букв. Генерирование осуществляется в соответствии с заданным законом распределения. Закон представлен следующей таблицей:
Ai | A1 | A2 | … | Ak |
pi | P1 | P2 | … | pk |
Каждая из букв появляется на экране в соответствии с вероятностью ее появления.
За экраном ведется наблюдение: пусть на экране уже появилось N букв (N - достаточно большое число). Если мы заинтересуемся буквой Ai, то она на экране появится приблизительно (N·pi) раз. Каждое появление буквы Ai дает (- ) бит информации. Всего за все ее появления будет получено (-N pi
) бит информации.
Общее количество информации, которое следует суммировать после демонстрации всех N букв, равно:
I = -N
На одну букву в среднем приходится
I ср = - бит информации.
Эту формулу впервые вывел американский инженер и математик К. Шеннон в 1948 г.
Пример. Пусть в мешочке находятся 2 черных шара и 6 белых. Сколько информации несет сообщение о выборе конкретного шара? Вероятность вытащить черный шар равна 1/4, вероятность вытащить белый шар равна 3/4. Применим формулу Шеннона:
I = – = 0,8113
Формула Шеннона дает нам 0,8113 бита информации, т. е. меньше 1 бита информации. И это не удивительно, т. к. вероятность вытащить белый шар очень велика. Неопределенность соответственно мала, а значит, информационная ценность сообщения не велика.
Интересный факт, формула, предложенная Шенноном для среднего количества информации, приходящейся на один символ в сообщении, совпала с формулой Больцмана для энтропии. Это совпадение произвело большое впечатление на самого Шеннона, и он стал называть количество информации энтропией. Вероятностный же подход для определения количества информации стали называть энтропийным. В физике, энтропия – физическая величина, характеризующая внутреннюю неупорядоченность системы.
3 Подход. Измерение информации в технике, или объемный.
На практике, в технике связи под информацией принято понимать любую последовательность сигналов, которая хранится, передается или обрабатывается с помощью технических средств. Чаще всего эта информация представлена в знаковой, или как мы уже отмечали, языковой форме, в виде текста или звукового сообщения. Как же оценить объем получаемой информации в соответствии с введенной единицей? Поступают следующим образом. Для каждого конкретного языка определен свой алфавит. Для текста это может быть набор букв, устной речи - набор звуков, а вообще, совокупность знаков любой природы. Пусть количество знаков алфавита равняется N. Допустим, что их появление в сообщении равновероятно, на практике это не так, но мы упрощаем картину ради простоты понимания. Тогда один символ алфавита несет
N информации. Если в тексте содержится K символов, общее количество информации, содержащейся в нем равно K
N. Все достаточно просто!
Рассмотрим пример. В русском языке алфавит содержит 33 символа, добавим сюда знаки препинания, пробел, десять цифр, итого 54 знака. Значит, один символ несет
54=5.755 бит информации. В этом примере мы предположили, что все символы алфавита появляются в тексте с одинаковой вероятностью, что на самом деле является упрощением.
Пример. Ребята из кружка информатики послали письмо членам кружка математики. В этом письме содержалось 154 символа. Какое количество информации содержит письмо, если в алфавите, придуманном и использованном «информатиками», было лишь 10 знаков.
Подсчитаем информационную ценность одного символа, используя формулу Хартли. Для этого обозначим количество информации, приходящееся на один символ алфавита буквойМ, тогда
М = =3.322 (бит). Общее количество информации К в письме равняется
К=154´М=154´3.322=511.577 (бит)]
Алфавит компьютера содержит 256 символов, заметим 256=2 . Сделано это для того, чтобы иметь возможность вводить тексты на разных языках, вводить математические символы, специальные символы. Тогда каждый символ этого алфавита дает 8 бит. Это количество информации получило свое название - байт. В байтах легко подсчитывать объем информации в любом тексте, достаточно подсчитать число символов.
Более крупными единицами являются:
* килобайт - 1 Кбайт = 2 байт = 1024 байт;
* мегабайт - 1 Мбайт = 2 Кбайт = 1024 Кбайт;
* гигабайт - 1 Гбайт = 2 Мбайт = 1024Мбайт.
Вспомним, что каждому символу компьютерного алфавита соответствует двоичный код. Для нашего случая это 8-и разрядный двоичный код [существуют и 16-и разрядные коды]. И совпадение это не случайное - разрядность двоичного кода равна его информационной емкости. Действительно, т. к. знаков в двоичном алфавите только 2, по формуле Хартли выходит, что I = log 2 2 равняется единице, а это значит, что, сколько знаков в двоичном коде, столько информации он и несет.
Пример. Сигнальный прожектор с корабля в ночное время передает сообщения в виде коротких и длинных вспышек. Буква Ъ передается последовательностью, содержащей три коротких и три длинных вспышки. Сколько бит информации несет такое сообщение?
Решение. Фактически алфавит прожектора является двоичным, т. к. параметр сигнала принимает лишь два значения. Значит, разрядность двоичного кода равна его информационной емкости. В этом случае разрядность есть число вспышек. Поскольку последовательность вспышек состоит из 6 сигналов (3+3), то количество переданной информации равняется 6 бит.
Дата добавления: 2015-01-05; просмотров: 164 | Поможем написать вашу работу | Нарушение авторских прав |