Читайте также:
|
|
Информатика
Понятие информации, ее свойства, характеристики.
Термин «информация» происходит от латинского слова «informatio», что означает сведения, разъяснения, изложение.
Термин «информация» происходит от латинского слова «informatio», что означает сведения, разъяснения, изложение.
Информация - это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях.
В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше».
Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.
Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей - в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.
Характеристики информации:
1. Объективные
1) по смсылу, в том числе три основных характеристики - повседневная, научная и образная (искусство), каждая из которых имеет множество самостоятельных характеристик;
2) по способу восприятия информации людьми, т.е. в соответствии с нашими органами чувств (зрительная, слуховая, обонятельная, осязательная, вкусовая, чувство равновесия);
3) по способу представления (текстовая, графическая, объемная, звуковая и т.п.);
4) по объему;
5) по месту хранения (библиотеки, архивы, музеи и т.д.);
6) по способу кодирования
7) по вероятности появления
2. Субъективные
Информация обладает следующими свойствами, характеризующими ее качественные признаки: достоверность, полнота, ценность, своевременность, понятность, доступность, краткость и др. Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.
Понятие информационного общества
Информационное общество — общество, в котором большинство работающих занято производством, хранением, переработкой и реализацией информации, особенно высшей ее формы — знаний. Для этой стадии развития общества и экономики характерно:
(а) эффективное информационное взаимодействие людей
(б) их доступ к мировым информационным ресурсам
(в) удовлетворение их потребностей в информационных продуктах и услугах
3. Измерение информации, математическое понятие информации.
Информация, используемая человеком, очень часто нуждается в измерении, в определении ее количества. Так вот математическое понятие информации как раз и связано с ее измерением.
В теории информации принят энтропийный подход, который устанавливает ценность информации, содержащейся в сообщении для его получателя, и исходит из следующей модели. Получатель сообщения имеет представление о возможности наступления некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности, называемая энтропией, характеризуется некоторой математической зависимостью от совокупности этих вероятностей.
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. (Эта мера неопределенности в теории информации и есть энтропия.) Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).
Информация всегда имеет конкретное смысловое значение, которое связано с ее потребителем (в том числе потенциальным). Другими словами, субъективные характеристики потребителя информации определяют количество полезной (семантической) информации, и в одном и том же сообщении для разных потребителей будет содержаться различное количество информации.
В то же время с точки зрения статистических характеристик информация имеет количественную меру, абстрагированную от ее смысла играющую важную роль при оценке (измерении) объемов информации в различных сферах ее применения.
С некоторой условностью единицы измерения информации можно разделить на две группы: немашинные и машинные.
Немашинные измерители позволяют представить количество информации с помощью, например, количества форм документов, количества показателей, количества слов и т.д.
Чтобы получить представление о количестве информации в книге, переводимой с иностранного языка на русский, обычно подсчитывают общее количество знаков на одной странице. Для представления объема информации, который приходится перерабатывать бухгалтеру, можно подсчитать количество документов, поступающих к нему из цехов и отделов, и т.д.
Однако такие единицы количества информации не позволяют представить ее нам с позиций возможностей ЭВМ. Поэтому в технике часто используют более простой и грубый объемный способ измерения информации. Он основан на подсчете числа символов в сообщении, т.е. связан с длиной сообщения и не учитывает его содержания. Объемы информации, подлежащие обработке, оказывают значительное влияние на выбор методов и технических средств обработки, трудоемкость процесса перевода решения задач на ЭВМ. Забегая вперед, надо отметить, что и оперативная и внешняя память современных компьютеров хотя и может достигать колоссальных размеров, имеет предел. Это значит, что, обрабатывая на машине информацию, следует соизмерять ее объемы с объемами машинной памяти.
Сделать это позволяют машинные единицы измерения информации. Количество информации в ЭВМ принято измерять в битах.
Бит – это минимальная единица количества информации в ЭВМ, принимающая значение 0 или 1(или равная одному двоичному разряду).
Определенное количество бит составляет размер других единиц.
Группа из 8 битов информации называется байтом. Если бит –минимальная единица информации, то байт – ее основная единица. С помощью одного байта можно представить любую букву алфавита, цифру и специальный символ (.,:;+ –< > и т.д.), т.е. в одном байте можно кодировать один символиз 256 возможных на ЭВМ.
Для измерения количества информации используются и более крупные единицы:
1 машинное слово = 4 байт = 32 бит;
1 Кбайт (килобайт) = 2'°байт = 1024 байт;
1 Мбайт (мегабайт) =2'° Кбайт = 1024 Кбайт;
1 Гбайт (гигабайт) = 210 Мбайт = 1024Мбайт. Эти единицы чаще всего используются для указания объема памяти компьютера.
Дата добавления: 2015-01-30; просмотров: 85 | Поможем написать вашу работу | Нарушение авторских прав |