Студопедия
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Виды информации

Читайте также:
  1. II.1.1 Основные источники информации для оценки эффективности строительной организации
  2. XV. Церковь и светские средства массовой информации
  3. Актуальность проблемы защиты информации.
  4. Алгоритм, виды алгоритмов. Алгоритмизация поиска правовой информации.
  5. Алфавитный подход является объективным способом измерения информации в отличие от субъективного содержательногоподхода.
  6. Анализ документов как метод сбора вторичной информации.
  7. Аналоговое и дискретное представление информации
  8. Аудит и обзорные проверки отчетной финансовой информации (Audits and Reviews of Historical Financial Information).
  9. Аудиторская проверка должна проводиться таким образом, чтобы результатом ее стало получение объективной и полной информации о деятельности общества.
  10. Байт (англ. byte) – число из восьми бит (различные комбинации из восьми нулей и единиц). Байт являетсяединицей измерения информации.

в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве. Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека в мире окружает море информации различных видов.

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

• графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;

• звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте — http://radiomuseum.ur.ru/index9.html); ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;

• текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;

• числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными;

• видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.

свойства информации.

1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения.

Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может искажаться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта, и, таким образом, перестать быть объективной.

2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

Основные понятия (сигнал, энтропия, сообщение)

Сигнал

Сигнал является материальным носителем информации, которая передается от источника к потребителю. Он может быть дискретным инепрерывным (аналоговым).

 

Дискретный сигнал слагается из счетного множества (т.е. такого множества, элементы которого можно пересчитать) элементов (говорят – информационных элементов). Например, дискретным является сигнал “кирпич”. Он состоит из следующих двух элементов (это синтаксическая характеристика данного сигнала): красного круга и белого прямоугольника внутри круга, расположенного горизонтально по центру. Именно в виде дискретного сигнала представлена та информация, которую сейчас осваивает читатель. Можно выделить следующие ее элементы: разделы (например, “Информация”), подразделы (например, “Свойства”), абзацы, предложения, отдельные фразы, слова и отдельные знаки (буквы, цифры, знаки препинания и т.д.). Этот пример показывает, что в зависимости от прагматики сигнала можно выделять разные информационные элементы. В самом деле, для лица, изучающего информатику по данному тексту, важны более крупные информационные элементы, такие как разделы, подразделы, отдельные абзацы. Они позволяют ему легче ориентироваться в структуре материала, лучше его усваивать и готовиться к экзамену. Для того, кто готовил данный методический материал, помимо указанных информационных элементов, важны также и более мелкие, например, отдельные предложения, с помощью которых излагается та или иная мысль и которые реализуют тот или иной способ доступности материала. Набор самых “мелких” элементов дискретного сигнала называется алфавитом, а сам дискретный сигнал называют также сообщением.

 

Непрерывный сигнал – отражается некоторой физической величиной, изменяющейся в заданном интервале времени, например, тембром или силой звука. В виде непрерывного сигнала представлена настоящая информация для тех студентов – потребителей, которые посещают лекции по информатике и через звуковые волны (иначе говоря, голос лектора), носящие непрерывный характер, воспринимают материал.

 

Как мы увидим в дальнейшем, дискретный сигнал лучше поддается преобразованиям, поэтому имеет преимущества перед непрерывным. В то же время, в технических системах и в реальных процессах преобладает непрерывный сигнал. Это вынуждает разрабатывать способы преобразования непрерывного сигнала в дискретный.

 

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропи́я в теории информации — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Шеннон сформулировал энтропию как меру хаоса в противовес количеству информации как меры упорядоченности структур.

Рассмотрим некоторую сложную систему и проследим ее эволюцию. Пусть эта система представляет собой находящийся в сосуде газ, состоящий из огромного числа беспорядочно движущихся молекул. Мы не знаем точного положения и скорости в каждый момент времени каждой частицы газа, но нам известны макропараметры: давление, объем, температура и состав газа. Фактически мы должны рассчитать число способов, которыми можно осуществить внутренние перестройки в системе, чтобы наблюдатель не заметил изменений макросостояния системы. При этом предполагается неотличимость атомов друг от друга.

Если в системе, состоящей из одного атома, произошло его энергетическое возбуждение, нам это может стать известно по значению температуры. При этом возможно только одно распределение возбуждения в системе равному единице. Энтропия связана с распределением следующим образом: S=klnW. В нашем случае W=1, а значит система обладает нулевой энтропией.

В системе из ста атомов, распределение возбуждения может быть осуществлено ста способами, т.е. W=100, ln100=4,61. Энтропия системы выросла и стала хаотичной, поскольку мы не знаем, где находится в каждый момент возбужденный атом.

Принято считать, что любая система стремится к состоянию равновесия, т. е. растет энтропия системы. Однако второе начало термодинамики (закон сохранения энтропии и информации) требует компенсировать рост энтропии. Информация и является средством компенсации.

Сообщения - Сведение о какихто событиях.

 




Дата добавления: 2015-01-30; просмотров: 82 | Поможем написать вашу работу | Нарушение авторских прав




lektsii.net - Лекции.Нет - 2014-2025 год. (0.006 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав