Студопедия
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

СПИСОК ПРИМЕРНЫХ ТЕСТОВЫХ ЗАДАНИЙ

Читайте также:
  1. II. Список теоретических вопросов к экзамену
  2. III. Список практических вопросов к экзамену
  3. SELECT [ALL | DISTINCT] список_выбора
  4. Uses Список используемых модулей
  5. V. Соотношение содержания стандартов и примерных программ
  6. Алгоритм выполнения заданий С1 – С4
  7. Алфавитный способ группировки литературы используется в том случае, когда список невелик по объему (до 40 наименований).
  8. Банк заданий в тестовой форме для подготовки к комплексному экзамену №1
  9. Банк заданий по теме
  10. БАНК ТЕСТОВЫХ ЗАДАНИЙ

Операции над двоичными разрядами можно описать, как результат не арифметических, а логических действий.

Основной элемент в логике – высказывание. Это любое утверждение, про которое можно сказать, что оно либо верно (имеет значение "Истина"), либо неверно (значение "Ложь"), и не может иметь третьего значения – правило исключенного третьего.

Высказывание может относиться к элементам некоторого множества (Мн). Например, A>0 – высказывание относительно множества вещественных чисел. Оно истинно для положительных чисел и ложно для неположительных.

Тогда высказывание может выполняться для одних элементов Мн и не выполняться для других. Это можно проиллюстрировать т.н. диаграммой Эйлера-Венна (коротко говорят просто "диаграмма Венна")

 
 

 

Прямоугольник показывает Мн всех рассматриваемых элементов (фундаментальное). Заштриховано Мн элементов, для которых некое высказывание А имеет значение "Истина". Тогда для остальных элементов высказывание имеет значение "Ложь". Любой элемент фундаментального множества либо принадлежит подмножеству истинности А, либо не принадлежит ему (третьего не дано, см. выше).

Для простоты будем обозначать значение "Истина" цифрой 1, а значение "Ложь" – 0. Таким образом, логические значения можно сразу связать с двоичными числами. То, что высказывание истинно, запишется в этом случае равенством

 

А = 1.

 

Для элементов, для которых А = 0, имеет место противоположное утверждение. Оно обозначается , или ù А и называется отрицанием высказывания А.

На языке теории Мн элементы, для которых выполняется отрицание ù А, образуют дополнение Мн А до фундаментального.

Теперь рассмотрим 2 высказывания: А и В. Их различные сочетания могут давать новые сложные высказывания. Способы этих сочетаний соответствуют различным логическим операциям:

I. Логическое сложение (операция "ИЛИ", или дизъюнкция). Обозначается Ú:

 

А Ú В

 

Такое высказывание истинно, если истинно хотя бы одно из образующих его простых высказываний. Это можно проиллюстрировать таблицей истинности:

 

А В А Ú В
     
     
     
     

 

На диаграмме Венна дизъюнкция верна для заштрихованной области (эллипсы показывают Мн элементов, для которых верны соответственно А или В):

 

 

II. Логическое умножение (операция "И", или конъюнкция)

Обозначается Ù (также встречается обозначение &, этот символ ванглийском языке используется для обозначения союза "И"):

 

А Ù В

 

Такое высказывание истинно, если истинны оба образующих его простых высказывания. Таблица истинности

 

А В А Ù В
     
     
     
     

 

На диаграмме Венна конъюнкция верна для заштрихованной области:

 

 

(Для того, чтобы лучше запомнить термины и обозначения, можно применить мнемонические правила:

а) Количество букв "И" в словах "дизъюнкция" и "конъюнкция" такое же, как в соответствующих им союзах "ИЛИ" и "И");

б) Обозначение дизъюнкции "Ú" как бы неустойчивое, колеблется: "Что выбрать - А или В?". Обозначение конъюнкции устойчивое, твердое, не сомневается: "Оба сразу: А и В!").

 

III. Строгая дизъюнкция: А xor В ("исключающее ИЛИ"; в литературе имеет также разные символические обозначения и названия: дизъюнктивная сумма, исключающая альтернатива и др.).

Такое высказывание истинно, если истинно только одно из образующих его простых высказываний. Таблица истинности

 

А В А xor В
     
     
     
     

 

На диаграмме Венна строгая дизъюнкция верна для заштрихованной области:

 

 

В языке Паскаль такая операция существует для величин логического типа, она так и обозначается: xor.

 

Существуют другие логические операции, которые мы рассматривать не будем.

 

Законы математической логики:

 

Некоторые из них вполне очевидны:

 

а) Ассоциативность

 

А Ù (В Ù С) = (А Ù В) Ù С

А Ú (В Ú С) = (А Ú В) Ú С

 

б) Коммутативность (перестановочность):

 

А Ú В = В Ú А А Ù В = В Ù А

 

в) Идемпотентность ("Достоверность того же самого"):

 

А Ú А = А А Ù А = А

 

г) Свойства логических констант:

 

А Ú 0 = А А Ù 1 =А

 

(математический эквивалент: прибавление нуля или умножение на 1 не меняет результат)

 

д) Правило исключенного третьего

 

 

Отметим, что законы ассоциативности, коммутативности и свойства констант имеют точные аналогии в обычной числовой арифметике и алгебре, а идемпотентность и правило исключенного третьего – нет…

Далее идут менее очевидные законы:

 

е) Дистрибутивность (распределительные законы):

 

А Ú (В Ù С) = (А Ú В) Ù (А Ú С) (тут полное несовпадение с алгеброй!)

 

А Ù (В Ú С) = (А Ù В) Ú (А Ù С) – (а вот тут опять точная аналогия с алгеброй - общий множитель можно выносить за скобки)

ж) Поглощение

 

А Ù (А Ú В) = А А Ú (А Ù В) = А

 

з) Правила де Моргана:

 

А Ú В = А Ù В А Ù В = А Ú В

 

Примером применения правил де Моргана является запись факта, что некое число х не принадлежит отрезку [ a,b ]:

 

Можно записать так: ù(a £ x £ b), т.е., ù ((a £ x) Ù (х £ b))

А можно так: (x<a) Ú (x>b).

Содержание

Введение. Информационные процессы........................... 4

Тема №1...................................................

Сообщения, сигналы, данные, атрибутивные свойства информации,

показатели качества информации, формы представления

информации. Системы передачи информации

Сообщение.................................................. 5

Сигнал...................................................... 6

Данные..................................................... 9

Разграничение понятий "данные" и "информация"................. 11

Свойства информации......................................... 12

Формы представления информации.............................. 16

Системы передачи информации................................. 17

Тема №2....................................................

Меры и единицы количества и объема информации

Различные подходы к определению количества информации......... 19

Приставки КИЛО, МЕГА, ГИГА, ТЕРА и ПЕТА................... 23

Единицы скорости передачи данных............................. 24

Тема №3....................................................

Позиционные и непозиционные системы счисления

Системы счисления (СС) 24

Математические характеристики позиционных систем счисления.... 25

Примеры позиционных систем счисления, применяемых на практике. 26

Двоичная СС............................................ 26

Восьмеричная СС........................................ 27

Шестнадцатеричная СС................................... 28

Простой способ перевода из двоичной СС в восьмеричную и наоборот 28

Простой способ перевода из двоичной СС в шестнадцатеричную и

наоборот

О практическом применении восьмеричной и шестнадцатеричной СС 29

Преобразование чисел из одной СС в другую с помощью программы

«Калькулятор»

Тема №4....................................................

Логические основы ЭВМ

Логика...................................................... 30

Основные логические операции................................. 33

Логические элементы......................................... 35

Логические схемы............................................ 36

Рекомендуемая литература..................................... 384

Введение

Информационные процессы

Информатика – наука, изучающая все аспекты получения, хранения,

преобразования, передачи и использования информации. Процессы, связанные

с получением, хранением, обработкой (преобразованием) и передачей

информации, называются информационными процессами. Понятие

«информация» здесь можно определить как сведения об окружающем мире,

получаемые с помощью органов чувств (в технике – датчиков) и

дорабатываемые путём мышления (в технике – путём обработки

информации).

1. Сбор, получение, восприятие. Человек воспринимает окружающий

мир с помощью органов чувств. Техническая система получает информацию из

окружающего мира с помощью датчиков (например, датчик температуры,

датчик скорости вращения двигателя, датчик уровня горючего в баке) или с

помощью устройств ввода (видеокамеры, микрофона и др.).

2. Хранение. Получаемая извне информация сохраняется путем записи её

на тот или иной носитель (на бумагу, на дискету, в память человека и др.).

Хранение информации всегда следует организовывать так, чтобы впоследствии

можно было быстро находить нужную информацию.

3. Обработка, преобразование. Собранная и записанная информация

будет полезной тогда, когда её можно будет использовать для принятия

решения. Чтобы первичную информацию можно было использовать для

принятия решения, её всегда необходимо сначала обработать: выделить

главное, выполнить расчёты, оценить результаты... При работе с информацией

технических средств (компьютера) очень часто выполняются операции

преобразования – перевода информации из одной формы в другую:

кодирование, декодирование; модуляция, демодуляция; преобразование из

линейной структуры в табличную или иерархическую структуру, а затем

обратно в линейную; и другие операции.

4. Передача, воспроизведение. Человек может передавать информацию с

помощью речи, мимики и жестов. Технические системы могут передавать

информацию с помощью устройств вывода (например, монитор, звуковые

колонки и др.) и устройств связи (кабель локальной сети + сетевой адаптер или

модем + телефонная сеть). В обоих случаях передача информации 5

осуществляется путём передачи сигналов (электрических, световых, звуковых

или радиосигналов).

5. Использование. Информация используется для принятия решения – для

ответа на вопрос «что делать сейчас, если сейчас нужно получить то-то и то-

то». Человек также использует информацию как предмет развлечения,

воспитания, воздействия (эстетическая и моральная стороны информации).

Системы, реализующие все указанные информационные процессы,

называются информационными системами. Например, человек, компьютер,

системы автоматического управления, совокупность людей и техники,

работающих над общими информационными задачами.

Информатика занимается изучением информации и информационных

процессов с целью поиска, разработки и внедрения наиболее эффективных

методов работы с информацией.

Тема №1

Сообщения, сигналы, данные, атрибутивные свойства информации,

показатели качества информации, формы представления

информации. Системы передачи информации.

При реализации информационных процессов всегда происходит перенос

информации в пространстве и времени от источника информации к приёмнику

(получателю). При этом для передачи информации используют различные

знаки или символы, например, естественного или искусственного

(формального) языка, позволяющие выразить ее в некоторой форме,

называемой сообщением.

Сообщение

Сообщение – это форма представления информации в виде совокупности

знаков (символов), используемая для передачи.

Сообщение как совокупность знаков с точки зрения семиотики – науки,

занимающейся исследованием свойств знаков и знаковых систем, может

изучаться на трёх уровнях:

 Синтаксическом, где рассматриваются внутренние свойства сообщений,

т.е. отношения между знаками, отражающие структуру данной знаковой

системы. Внешние свойства изучают на семантическом и прагматическом

уровнях;6

 Семантическом, где анализируются отношения между знаками и

обозначаемыми ими предметами, действиями, качествами, т.е. смысловое

содержание сообщения, его отношение к источнику информации;

 Прагматическом, где рассматриваются отношения между сообщением и

получателем, т.е. потребительское содержание сообщения, его отношение

к получателю.

Таким образом, учитывая определенную взаимосвязь проблем передачи

информации с уровнями знаковых систем, их разделяют на три уровня:

синтаксический, семантический и прагматический.

Проблемы синтаксического уровня касаются создания теоретических

основ построения информационных систем, основные показатели

функционирования которых были бы близки к предельно возможным, а также

совершенствования существующих систем с целью повышения эффективности

их использования.

На этом уровне информацию, рассматриваемую только с синтаксических

позиций, обычно называют данными, так как смысловая сторона при этом не

имеет значения.

Проблемы семантического уровня связаны с формализацией и учётом

смысла передаваемой информации, определения степени соответствия образа

объекта и самого объекта. На данном уровне анализируются те сведения,

которые отражает информация, рассматриваются смысловые связи,

формируются понятия и представления, выявляется смысл, содержание

информации, осуществляется её обобщение.

На прагматическом уровне интересуют последствия от получения и

использования данной информации потребителем. Проблемы этого уровня

связаны с определением ценности и полезности использования информации

при выработке потребителем решения для достижения своей цели.

Основная сложность здесь состоит в том, что ценность, полезность

информации может быть совершенно различной для различных получателей и,

кроме того, она зависит от ряда факторов, таких, например, как

своевременность её доставки и использования.

Сигнал

Сигнал – это физический процесс, некоторая характеристика которого

несёт информационный смысл.7

Например, световой сигнал (поток света) характеризуется яркостью,

цветом, поляризационными свойствами, направлением распространения и др.

Информацию может нести как одна из этих характеристик, так и

одновременное сочетание нескольких характеристик.

Сигнал возникает в природе при взаимодействии материальных объектов и

несёт в себе информацию об этом взаимодействии. Сигнал способен

перемещаться, распространяться в некоторой материальной среде, тем самым,

обеспечивая пространственный перенос информации от объекта (источника

события) к субъекту (наблюдателю). Материальная среда, в которой

распространяется сигнал, называется носителем сигнала.

Виды сигналов

Сигналы различаются, прежде всего, по своей физической природе.

Примеры: световой сигнал, звуковой, электрический, радиосигнал...

В зависимости от порождающего их источника сигналы бывают

естественные или искусственные.

Естественные сигналы возникают в силу того, что где-то в живой или

неживой природе взаимодействуют материальные объекты. Это естественный

процесс, никак не связанный с деятельностью человека. Примеры: свечение

Солнца, пение птиц, распространение запаха цветов…

Искусственные сигналы инициируются человеком или возникают в

технических системах, созданных человеком. Примеры: электрические сигналы

телефонной линии; радиосигналы; сигнальная ракета или костёр; сигнал

светофора; сирена пожарной машины...

Формы сигналов

По форме сигналы бывают аналоговые, дискретные и цифровые.

Аналоговый (или непрерывный) сигнал представляет собой физический

процесс, информационная характеристика которого изменяется плавно.

Например, плавно изменяющийся электрический сигнал (рис.1). Другие

примеры: звуковой сигнал, естественный световой сигнал. Практически все

естественные сигналы аналоговые.

Особенностью аналогового сигнала является размытость границы между

двумя соседними его значениями. Общее число значений, которыми можно

характеризовать аналоговый сигнал, бесконечно велико.8

Дискретный сигнал представляет собой физический процесс,

информационная характеристика которого изменяется скачкообразно и может

принимать только некоторый ограниченный набор значений (рис.2).

Особенность дискретного сигнала – это чёткое разграничение между двумя

разными значениями сигнала. Общее число возможных значений, которые

может принимать дискретный сигнал, всегда ограничено.

Например, лампа, включенная в электрическую цепь. Лампа может либо

гореть, либо не гореть. Если лампа горит, это служит сигналом о том, что в

цепи есть ток. Если не горит – тока нет. Промежуточные значения (с какой

яркостью горит лампа) здесь не учитываются – значений только два: либо

горит, либо не горит.

Другой пример: по телеграфу передаётся некоторое сообщение.

Сообщение передаётся с помощью азбуки Морзе, использующей три разных

значения: точка, тире и пробел (пауза). Сигнал, который несёт это сообщение,

тоже будет иметь только три разных значения: короткий сигнал, длинный

сигнал и отсутствие сигнала. Поскольку количество возможных значений

сигнала ограничено – это дискретный сигнал.

Дискретные сигналы, как правило, искусственные (создаются человеком

или технической системой).

Цифровой сигнал

В современных устройствах, относящихся к вычислительной технике, для

передачи информации используется цифровой сигнал.

Цифровой сигнал – это частный случай дискретного сигнала, когда

информационная характеристика принимает только два возможных значения:

либо есть сигнал, либо нет сигнала (рис.3).

Устройства, использующие для передачи информации цифровые сигналы,

называются цифровыми устройствами. Внутри таких устройств передача

производится чаще всего с помощью электрического сигнала. Его два

U

t

Рис.1. Аналоговый

t

Рис.2. Дискретный

U

t

Рис.3. Цифровой

U

5В9

возможных значения: либо нет напряжения (когда передаётся 0), либо есть

напряжение величиной +5В (когда передаётся 1).

Цифровой сигнал чаще всего передаётся не по одной линии, а по

нескольким параллельным линиям. Совокупность параллельных проводящих

линий, используемых совместно для передачи одного общего цифрового

сигнала, называется цифровой шиной.

Цифровая шина характеризуется разрядностью. Разрядность цифровой

шины – это количество бит, передаваемых с её помощью за один раз. Если

проводящая линия всего одна, то она позволяет передавать за раз один бит.

Если проводящих линий восемь, тогда за раз можно передавать восемь бит –

это восьмиразрядная шина. В современных компьютерах используются 8-

миразрядные, 16-тиразрядные, 32-хразрядные и 64-хразрядные шины.

Ввиду того, что вычислительные устройства работают с цифровыми

сигналами, а все реальные естественные сигналы, как правило, аналоговые, для

возможности взаимодействия цифровых устройств с внешним миром

необходимы преобразования аналоговых сигналов в цифровые и наоборот

цифровых сигналов в аналоговые. Эти преобразования выполняются с

помощью специальных микросхем, называемых АЦП (аналого-цифровой

преобразователь) и ЦАП (цифро-аналоговый преобразователь). Например,

микросхемы АЦП и ЦАП встраиваются в звуковую карту – специальное

внутреннее устройство персонального компьютера, обеспечивающее

возможность ввода и вывода звуковой информации.

Данные

Взаимодействие материальных объектов всегда порождает сигналы той

или иной природы. Эти сигналы несут в себе информацию о том, как

взаимодействовали материальные объекты (информацию о событии

материального мира).

Сигналы перемещаются в пространстве и на своём пути могут встречать

различные материальные объекты, оказывая на них воздействие. Воздействуя

на объект, сигналы изменяют некоторые свойства этого объекта (физические

или химические).

Например, световой сигнал может воздействовать на фотоплёнку, изменяя

химический состав её светочувствительного покрытия. Тепловой сигнал 10

заставляет объект нагреваться. Радиосигнал вызывает движение электронов в

проводнике. и т.д.

Процесс изменения свойств некоторого материального объекта под

воздействием сигнала называется регистрацией сигнала. В результате этого

процесса происходит запись информации, содержащейся в сигнале, на

материальный носитель. Образующаяся таким образом запись называется

данные.

Данные - это запись информации на определённом материальном

носителе.

Поскольку такая запись всегда создаётся путём регистрации сигналов,

справедливо и следующее определение: данные - это зарегистрированные

сигналы.

Данные необязательно возникают путём регистрации непосредственно

исходного сигнала. Чаще всего исходный сигнал сначала преобразуется в

сигнал, другой по природе, но такой же по информационным характеристикам.

Например, звуковой сигнал, чтобы его можно было записать на

магнитофонную ленту, сначала преобразуется в электрический сигнал, а затем

в магнитный.

Примеры данных:

 фотоснимок – результат регистрации светового сигнала, излучаемого или

отражённого от изучаемых объектов;

 запись на бумаге – результат регистрации мыслей человека (мысли можно

рассматривать как множество электрических сигналов, возникающих в нервной

системе человека); при этом электрические сигналы нервной системы с

помощью мышц руки преобразуются в механическое перемещение карандаша

или ручки;

 записанная на магнитной ленте речь человека – результат регистрации

звукового сигнала; при этом в качестве средства регистрации сигнала

используется магнитофон;

 данные, записанные на дискету, жёсткий диск, лазерный диск или

магнитооптический диск, на флэш-память или в оперативную память; и

другие...11

Разграничение понятий "данные" и "информация"

В повседневной жизни мы не делаем особых различий между понятиями

"данные" и "информация". Однако при научных рассуждениях следует

придерживаться более строгого подхода. Данные – это пока ещё не

информация. Это просто какая-то запись.

Данные могут стать информацией, если к ним применить методы чтения и

интерпретации, которые бы позволили вскрыть содержащийся в данных смысл

и использовать его для решения той или иной задачи.

Метод чтения должен соответствовать материальному носителю, на

котором записаны данные. Например, если данные записаны на бумаге, тогда

нужно включить свет, посмотреть на бумагу, найти буквы и считывать их слева

направо, собирая из них слова. Или, если данные записаны на дискете, тогда её

нужно читать с помощью дисковода для дискет.

Чтобы получить полную и адекватную информацию из данных,

необходимо их не только прочитать, но и правильно интерпретировать

(трактовать). Например, считываемые нами слова должны правильно

сопоставляться с имеющимися у нас понятиями. Или, считываемый с дискеты

файл, содержащий музыку (музыкальную информацию), должен быть

воспроизведён с помощью звуковоспроизводящей программы. Если звуковой

файл передать программе, воспроизводящей текст, тогда мы получим

неадекватную информацию (вместо музыки несуразный текст из беспорядочно

набросанных символов).

Информация – это продукт взаимодействия данных и адекватных им

методов. Данное определение как раз подчёркивает тот факт, что иметь данные

для получения информации недостаточно. Необходимо также иметь адекватные

методы чтения и интерпретации данных. Если таковых методов нет, данные так

и останутся просто записью – из них невозможно будет получить информацию.

Например, дискета (хотя, предположим, на ней имеются весьма ценные

данные) будет бесполезна, если нет компьютера с дисководом для дискет.

Более того, даже если удастся прочитать (скопировать) данные с дискеты, но на

компьютере не окажется нужной программы для их воспроизведения, тогда всё

равно информация останется недоступна.

Используется также следующее определение данных, которое тоже

подчёркивает разницу понятий "данные" и "информация". Данные – это 12

составляющая часть информации; это сведения, которые по каким-то

причинам не используются, а только хранятся.

Свойства информации

Информация – многогранный объект, который может характеризоваться

различными типами свойств. Рассмотрим следующие типы свойств:

 атрибутивные свойства – свойства, являющиеся неотъемлемой частью

информации – свойства, присутствующие всегда, у любой информации; не

существует такой информации, у которой бы не было этих свойств;

 качественные свойства – свойства, позволяющие оценить качество

информации;

 динамические свойства – характеризуют поведение информации,

изменение информации во времени.

Атрибутивные свойства информации

1. Неотрывность от носителя и языка

Информация всегда связана с некоторым материальным носителем:

сигналы распространяются в определённой среде, которая является их

материальным носителем; данные тоже всегда связаны с тем или иным

носителем (бумага, дискета, лазерный диск...).

Смысл информации всегда выражается за счёт использования

определённого языка в качестве метода записи понятий знаками, принятыми в

данном языке. Например, запись в виде иероглифов – это запись на

древнеегипетском языке. Дорожные знаки – это запись на языке знаков

дорожного движения. Если мы не знаем того языка, на котором излагается

информация, тогда мы её не поймём – мы сможем записать, скопировать

информацию, но извлечь её смысл не получится.

Хотя без носителя и языка информация не существует, однако, она жёстко

не привязана ни к конкретному языку, ни к конкретному носителю.

Информацию можно переносить с одного носителя на другой и переводить с

одного языка на другой.

2. Дискретность

При записи и передаче информации она всегда делится на отдельные

смысловые части. Это хорошо видно, если взять в качестве примера текстовую

запись. Текстовая запись состоит из отдельных символов, отдельных слов,

отдельных предложений и абзацев. Каждая отдельная часть служит для 13

выражения некоторого своего смысла. Общий смысл слагается из совокупности

отдельных частей с учётом логических связей между ними.

3. Непрерывность

Хотя записывается и передаётся информация отдельными частями,

логические связи между этими частями всё же остаются и должны учитываться

при формировании общего смысла информации. Информация всегда

рассматривается в определённом контексте. Если вырвать информацию из её

исходного контекста и вставить в другой контекст, то информация приобретёт

иной смысл.

Поступающая информация должна привязываться к соответствующему

контексту. Тогда она будет сливаться с ранее накопленными знаниями,

способствуя не просто формальному накоплению данных, а формированию всё

более точного и подробного представления об изучаемом явлении.

Способность информации сливаться с ранее накопленными знаниями или

терять исходный смысл при вырывании из контекста – всё это проявления

свойства непрерывности информации.

Качественные свойства, или показатели качества информации

Возможность использования информации для решения на её основе тех

или иных задач зависит от качества информации. Качество информации

определяется с помощью следующих свойств:

1) объективность (противоположное – субъективность) – независимость

от чьего-либо мнения. Нужно помнить, что информацию всегда воспринимает

и трактует некий субъект (наблюдатель), использующий при этом свои

субъективные методы восприятия и трактовки. Считается, что данные,

полученные путём измерений с помощью технических средств, являются более

объективными, нежели информация, которую излагает человек, наблюдавший

явление. Например, рисунок художника – более субъективный способ

отражения реальности, нежели фотография;

2) полнота – степень завершённости предоставленного информацией

описания события. Ясно, что чем более полная информация, тем она

качественнее. Однако при решении конкретных задач полная информация

бывает не нужна. Нужна достаточная информация. Достаточность –

свойство, характеризующее, может ли данная информация быть применена для

принятия решения или нет;14

3) достоверность – свойство, близкое по значению к логическому понятию

"истинность". Однако понятия "истина" и "ложь" являются абсолютными, а

достоверность правильно используется как относительное понятие

(информация может быть более достоверная или менее достоверная). Можно

выделить две причины, по которым информация становится менее

достоверной.

Первая причина – объективная. При передаче информации с помощью

сигналов на принимающей стороне будут восприняты не только основные

сигналы, но и шумы, помехи, которые при передаче информации всегда

присутствуют. Искажение сигнала может происходить также из-за

особенностей среды, через которую проходит сигнал (например, искривляющая

линза). Для получения на принимающей стороне более достоверной

информации, необходимо чтобы основной сигнал был гораздо громче шумов,

необходимо также исключить искажения сигнала во время его прохождения

через проводящую среду. При передаче шумы исключить совсем невозможно,

поэтому следует дублировать информацию, чтобы на принимающей стороне

иметь несколько сравниваемых вариантов. Имея несколько вариантов одной и

той же информации, путём несильно сложных операций обработки можно

выделить и отбросить шумы, оставляя только чистый основной сигнал.

Вторая причина, по которой информация может оказаться недостоверной –

субъективная. Если субъект (например, человек) специально или случайно

будет лгать (пусть не во всём, а только в некоторых моментах), тогда

передаваемая им информация будет менее достоверная;

4) адекватность – степень соответствия полученной информации

информации обещанной. Несоответствие (или неполное соответствие)

возникает тогда, когда для получения информации применяются неадекватные

методы.

Например, мы не знаем языка иероглифов, но в то же время взялись читать

и переводить древнеегипетские надписи. Обещанная информация – та, которая

была бы получена, если бы читал человек, знающий язык иероглифов. Мы же,

не зная этого языка, можем представлять себе за каждым иероглифом картинку

(рисунок) и по его виду догадываться о его смысле. Какую-то информацию мы

получим, но вряд ли это будет полностью адекватная информация. В чём-то,

наверняка, мы увидим смысл, не соответствующий тому, что имелось в виду на

самом деле.15

Пример из компьютерной практики. Файлы данных имеют определённый

тип. Тип файла указывает способ декодирования и воспроизведения

содержащейся в нём информации. Если будет использоваться способ

декодирования и воспроизведения, не соответствующий типу данных, тогда

графику можно представить как несуразный текст, текст – как множество

чисел, и т.п.

5) актуальность (иначе говоря, своевременность) – степень соответствия

информации текущему моменту времени. Например, в данный момент мы

заняты тем, что в столбик считаем произведение двух чисел. Для решения этой

текущей задачи нам пригодится таблица умножения и таблица сложения. Это

пример актуальной информации.

Неактуальная информация – та, что не помогает нам решить текущую

задачу. При перемножении чисел, нам, например, не понадобится знать, что

"Америку открыл Колумб" или что "завтра состоится контрольная по физике".

Это примеры неактуальной информации;

6) доступность – мера возможности получить ту или иную информацию.

Информация может оказаться недоступной по одной из двух причин: а) либо

нет данных (нет книги, нет дискеты, нет человека, который знает); б) либо нет

адекватных методов для извлечения информации из имеющихся данных (есть

книга, но не умеем читать; есть знающий человек, но он говорит на не

понятном нам языке; есть дискета, но нет компьютера с дисководом для дискет,

чтобы прочитать и посмотреть имеющуюся на дискете информацию);

7) ценность, стоимость, полезность – сколько мы готовы заплатить за

информацию. Ценность информации зависит от совокупности других её

свойств:

а) полноты (информация должна быть полная или хотя бы достаточная);

б) достоверности (информация должна быть неискажённая и не ложная);

в) актуальности (мы готовы заплатить только за актуальную информацию,

неактуальная нам сейчас не нужна);

г) доступности (мы должны понимать информацию, иначе она для нас

бесполезна);

д) новизны (мы готовы платить только за ту информацию, которую ещё не

знаем).

Основное назначение информации – помогать решать текущие задачи –

давать ответ на вопрос "что делать, если нужно получить то-то". Однако для 16

человека и любых живых существ существует также эстетическая ценность

информации. Мы готовы заплатить за поход в кино, в музей, за красивую

музыку, за вдохновение, которое дают произведения искусства. Мы также рады

положительному моральному воздействию, которое оказывают хорошие

фильмы, стихи, сказки, былины, мифы (моральная ценность).

Динамические свойства информации

При различных действиях с информацией может происходить:

1) размножение, копирование информации;

2) передача информации от источника приёмнику;

3) перевод с одного языка на другой;

4) перенос с одного носителя на другой.

С течением времени информация может стареть. Выделяют физическое

старение – старение носителя, а также моральное – утрата ценности,

актуальности.

Формы представления информации

Одна из классификаций информации – по форме представления. По форме

представления информация бывает: 1) числовая; 2) текстовая; 3) графическая;

4) музыкальная; 5) комбинированная. Коротко охарактеризуем каждую форму.

1. Числовая – информация о количестве чего-либо или порядковом

номере элемента в некоторой последовательности.

Для компьютера привычной формой данных является именно числовая.

Все другие типы информации в компьютере кодируются с помощью чисел.

Числа в компьютере представляются в двоичной системе счисления (так проще

технически реализовать хранение, передачу и обработку чисел).

2. Текстовая – информация, представленная в виде последовательности

текстовых символов (букв, цифр, пробелов, знаков препинания).

Один текстовый символ, как правило, кодируется одним байтом

(например, по таблице ASCII). «Один символ – один байт» – это удобная для

хранения и обработки форма кодирования, однако неудобная тем, что доступно

всего 256 символов, чего недостаточно для представления международных

текстов. С 1997 года введён новый международный стандарт – кодировка

Unicode (Юникод). Таблица кодировки Unicode содержит 65536 символов и

включает в себя символы всех языков мира и другие общеиспользуемые

символы. В формате Unicode каждый символ кодируется двумя байтами.17

3. Графическая – для человека это визуальная информация, которую он

воспринимает с помощью зрения.

Графическая информация делится на неподвижную графику (рисунки,

чертежи, схемы) и анимированную графику (мультфильмы, фильмы, реклама).

По принципам создания, хранения и обработки различают растровую,

векторную и фрактальную графику.

Сканированные изображения или оцифрованные фотографии хранятся в

компьютере в виде растровых изображений (точечных изображений). Для

хранения растровых изображений требуется значительный объём памяти (одно

полноцветное изображение размером 800х600 точек требует примерно 1,4МБ

данных).

4. Музыкальная – для человека это аудиальная информация, которую он

воспринимает с помощью слуха.

Звуковые файлы и файлы с видеофильмами относятся к категории

мультимедийных данных. Мультимедийная информация – та,

воспроизведение которой длится лишь некоторый ограниченный промежуток

времени.

Хранение мультимедийных данных требуют очень больших объёмов

памяти. Например, 1 минута качественной музыки – приблизительно 1,26МБ

данных.

5. Комбинированная – представляет собой смесь разных "чистых" форм

представления информации.

Например, видеофильм включает в себя две формы представления:

графическую и музыкальную. Или документ программы Word – может

содержать не только текст, но и вставленные в текст рисунки, формулы,

таблицы, диаграммы…

Разные формы представления информации требуют разных методов для их

восприятия, кодирования, обработки и воспроизведения.

Системы передачи информации

Передача – один из основных информационных процессов (наряду с

получением, хранением и обработкой).

Если идёт речь о перемещении информации в пространстве, то это может

быть организовано одним из двух способов: 18

1) либо путём транспортировки данных (посылаем письмо по обычной – не

электронной – почте; приносим дискету; приносим бумаги, на которых всё

изложено; приводим человека, который знает, и т.д.);

2) либо путём передачи с помощью сигнала (передаём жестами – с помощью

светового сигнала; звоним по сотовому телефону – радиосигнал; разговариваем

или перестукиваемся с соседом – звуковой сигнал и т.д.).

При любом способе перемещения информация остаётся привязана к

некоторому материальному носителю и для её передачи необходимы затраты

энергии.

Рассмотрим общую схему передачи информации с помощью сигнала:

Источник посылает сигналы в передающую среду. Передающую среду

предоставляет канал связи. Например, один человек говорит – при этом он

создаёт звуковой сигнал, который распространяется по воздуху (канал связи –

окружающий говорящего и слушающего человека воздух).

Приёмник (например, другой человек) должен воспринимать сигналы. Для

этого он должен иметь нормально функционирующие органы слуха.

Важно помнить, что при передаче на основной сигнал всегда

накладываются паразитные сигналы (шумы, помехи). Чтобы на принимающей

стороне была воспринята достоверная информация, необходимо основной

сигнал делать сильным и/или повторять передачу одной и той же информации

несколько раз (дублировать передаваемую информацию).

Общую схему передачи информации можно уточнить, дополнив её

кодировщиком на передающей стороне и декодировщиком на принимающей

стороне:

Примеры систем передачи информации:

1. Два человека разговаривают по сотовому телефону. Телефон человека,

говорящего в данный момент, выступает в роли кодировщика – выполняет

преобразование «звук→радиосигнал». Телефон слушающего человека

выступает в роли декодировщика – выполняет преобразование

Источник Кодировщик Канал связи Декодировщик Приёмник

помехи

Источник Канал связи Приёмник19

«радиосигнал→звук». В качестве канала связи выступают окружающее

пространство и возникающее в нём электромагнитное поле.

2. Два компьютера передают друг другу информацию посредством

телефонной сети (канал связи – телефонная сеть). У каждого из компьютеров

должен быть модем – устройство кодирующее и декодирующее передаваемые

сигналы. Необходимость модема объясняется тем, что компьютеры оперируют

цифровыми сигналами, а телефонная сеть приспособлена для передачи

аналоговых сигналов. Модем выполняет необходимые преобразования

сигналов.

Модем – это сокращение от модулятор-демодулятор. Модуляция –

процесс преобразования цифрового сигнала в аналоговый. Демодуляция –

преобразование аналогового сигнала в цифровой.

3. Два компьютера передают друг другу данные через кабель локальной

сети. Кабель локальной сети выступает в роли канала связи. По кабелю данные

передаются по одному биту за раз. Чтобы организовать возможность такой

передачи используются устройства сетевые адаптеры. Сетевой адаптер

передающего компьютера выступает в роли кодировщика. А сетевой адаптер

принимающего компьютера – в роли декодировщика.

Тема №2

Меры и единицы количества и объема информации

Различные подходы к определению количества информации

1. Содержательный подход

Содержащиеся в поступающей информации сведения должны быть

новыми и понятными. Если поступившая информация уже была известна или

она не понятна получателю, то количество полученной информации считается

равным нулю.

2. Алфавитный подход к измерению информации

Здесь смысл информации не учитывается, а учитывается только длина её

записи. Так, количество текстовой информации оценивается путём пересчёта

всех имеющихся в нём символов. Например, текстовое сообщение длиной 100

символов.

Алфавитный подход оперирует с данными и, фактически, измеряет

количество данных, а не информации. Общепринятыми единицами измерения 20

данных являются биты и байты.

Бит – это один символ двоичного кода, который может принимать

значения 0 или 1. Байт – это восемь бит, рассматриваемые как единое целое.

Алфавитный подход – объективный подход к измерению количества

информации, поэтому он используется в вычислительной технике как

основной. Алфавитный подход даёт ответ на вопрос, какой объём памяти

потребуется, чтобы записать ту или иную информацию. Зная скорость

передачи данных по некоторому каналу связи, можно будет также ответить на

вопрос: сколько времени потребуется на передачу имеющейся информации по

этому каналу.

3. Вероятностный подход

Данный подход провозглашается в теории информации Клода Элвуда

Шеннона. Информация здесь призвана снимать полностью или уменьшать

имевшуюся до её появления неопределённость знаний (энтропию).

Пример. Наш собеседник загадал целое число в пределах от 1 до 16

(например, 12). Требуется узнать, какое это число. Нам разрешено задавать

вопросы, требующие ответа либо «да», либо «нет». Сколько в общем случае

таких вопросов мы должны задать?

Решение. Будем задавать вопросы так, чтобы каждый раз уменьшать

множество возможных выборов в два раза:

Множество возможных выборов Вопрос Ответ

1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16 Число больше 8? да (1)

9,10,11,12,13,14,15,16 Число больше 12? нет (0)

9,10,11,12 Число больше 10? да (1)

11,12 Число больше 11? да (1)

Вывод Задумано число 12

Видим, что, чтобы узнать произвольное число от 1 до 16, в общем случае

требуется задать 4 вопроса с ответами «да» или «нет».

При вероятностном подходе единицей измерения количества информации

является бит. Значение бита (0 или 1) можно рассматривать как ответ «да» или

«нет». Сущность информации величиной в один бит может быть

сформулирована следующим образом:

1 БИТ – такое количество информации, которое содержит сообщение,

уменьшающее неопределенность знаний в два раза. 21

Формула Шеннона

Количество информации, получаемое при наступлении одного из

ожидаемых событий, вычисляется по формуле Шеннона:



n

i 1 i

i 2

p

I p log (1)

где I – количество информации (в битах) или энтропия до наступления

события;

n – общее количество ожидаемых событий;

pi – вероятности отдельных событий.

Задача. В мешке вперемешку хранятся 30 белых, 15 красных и 15 синих шаров.

Наш помощник наугад достаёт один из шаров. Сколько информации мы

получим, если узнаем, какого цвета вынутый шар?

Решение:

1) всего шаров: 30 + 15 + 15 = 60

2) вероятности вынимания шаров:

белого: pб = 30/60 красного: pк = 15/60 синего: pс = 15/60

3) количество информации по формуле (1):

       15

60 2

60 2

60 2

с

с 2

к

к 2

б

б 2

log log log

p

p log

p

p log

p

I p log

0,5log 2 0,25log 4 0,25log 4 0,5 1 0,25 2 0,25 2 1,5 бита  2  2  2       

Округлив полученный ответ до 2 битов, мы можем сказать, что для

выяснения, какого цвета был вынутый шар, нам в общем случае достаточно

задать два вопроса с ответами да/нет. То, что ответ равен не 2, а 1,5 бита

указывает нам, что в половине случаев достаточно будет задать один вопрос:

«Это белый шар?» (задаём вопрос именно о белом шаре, так как вероятность достать

белый выше – белых шаров больше).

Энтропия

На самом деле, по формуле Шеннона мы находим значение энтропии.

Энтропия – это мера неопределённости ситуации. Чем большее

количество разных событий мы ожидаем, тем энтропия выше (то есть, тем

больше неопределённость, какое же из ожидаемых событий действительно

произойдёт).22

Количество получаемой нами информации равно величине снимаемой

этой информацией неопределённости. То есть,

количество информации = размер устранённой энтропии

Ввиду этого равенства мы можем утверждать, что по формуле Шеннона

мы находим как энтропию, так и количество информации, необходимое для

устранения этой энтропии.

Формула Хартли

Ожидаемые события могут быть равновероятны или не равновероятны. В

нашей задаче с шарами события не равновероятны: белых шаров больше и

вероятность того, что будет вынут белый шар, выше.

Если в формуле Шеннона все pi будет равны между собой (если все

события равновероятны), тогда формула (1) превратится в формулу Хартли:

I  log2 n (2)

где I – количество информации (в битах) или энтропия до наступления

события;

n – общее количество ожидаемых равновероятных событий.

Задача. Уровняем шансы: перекрасим 5 белых шаров в красный и ещё 5 белых

шаров в синий цвет. Тогда в мешке будет 20 белых, 20 красных и 20 синих

шаров. Выясним теперь, сколько информации мы получим, если узнаем, какого

цвета наугад вынутый шар.

Решение. Можно было бы вести расчёт по формуле (1), но поскольку в данном

случае события равновероятны, воспользуемся формулой (2). В нашем случае

возможны три исхода: 1) либо достали белый; 2) либо достали красный; 3) либо

достали синий. То есть, n = 3.

I log n log 3 1,5849625... 1,6 бита  2  2  

Видим, что величина исходной энтропии увеличилась (соответственно

увеличилось количество информации, получаемой при устранении исходной

энтропии). 23

Действительно, когда у нас белых шаров было больше, мы заранее могли

предполагать, что будет вынут белый шар. А теперь мы находимся в большей

неопределённости: ничего заранее предполагать не можем.

Вывод: Энтропия выше в том случае, если ожидаемые события равновероятны.

Или иными словами: при наступлении события мы получаем информации

больше в том случае, если ожидаемые события равновероятны.

Приставки КИЛО, МЕГА, ГИГА, ТЕРА и ПЕТА

Для измерения объёма данных используются единицы бит и байт.

Сами по себе единицы бит и байт являются довольно малыми единицами

измерения объёма данных. Если записывать объём современных жёстких

дисков в байтах, тогда будут получаться большие числа, неудобные для

восприятия человеком (например, 120ГБ в байтах: 128849018880 байт).

Чтобы большие объёмы данных записывались более компактными

числами, используются приставки КИЛО, МЕГА, ГИГА, ТЕРА и ПЕТА.

Соотношение между производными единицами следующее:

Единица Обозначение Объём Объём в байтах

1 килобайт 1КБ или 1KB 1024 байта 2

10 байт

1 мегабайт 1МБ или 1MB 1024КБ 2

20 байт

1 гигабайт 1ГБ или 1GB 1024МБ 2

30 байт

1 терабайт 1ТБ или 1TB 1024ГБ 2

40 байт

1 петабайт 1ПБ или 1PB 1024ТБ 2

50 байт

Возникает вопрос: почему используются единицы, кратные 1024, а не

ровно 1000? Дело в том, что так удобнее для компьютера. Компьютер считает в

двоичной системе счисления, и число 1024 (=2

10) для него является круглым.

Для нас, использующих десятичную систему счисления, круглыми

являются числа: 10, 100, 1000, 10000 и т.д., умножая на 10. Для компьютера

круглыми числами являются: 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048 и т.д.,

умножая на 2.

Приставки КИЛО, МЕГА, ГИГА, ТЕРА и ПЕТА могут использоваться и

совместно с единицей бит:

Единица Обозначение Объём

1 килобит 1Кбит 1024 бита

1 мегабит 1Мбит 1024Кбита

1 гигабит 1Гбит 1024Мбита

1 терабит 1Тбит 1024Гбита

1 петабит 1Пбит 1024Тбита 24

Единицы скорости передачи данных

При передаче данных чаще всего используется последовательный

интерфейс, когда данные передаются по однолинейному каналу по одному

биту за раз. В таких условиях скорость передачи данных измеряется в битах в

секунду: бит/с. Например: 120Мбит/с означает «сто двадцать мегабит в

секунду».

Внутри компьютера данные обычно передаются с помощью параллельного

интерфейса. При параллельном интерфейсе используются цифровые шины,

способные передавать по несколько бит за раз. Например, восьмиразрядная

цифровая шина передаёт 8 бит за раз, то есть один байт.

В случае использования параллельного интерфейса скорость передачи

данных измеряется в байтах в секунду: байт/с. Например: 100Мбайт/с означает

«сто мегабайт в секунду».

Тема №3

Позиционные системы счисления

Системы счисления (СС)

Системой счисления называется определённый способ записи чисел с

помощью цифр. От выбранной системы счисления зависит:

* какие именно будут использоваться цифры (римские, арабские или же ещё какие-

нибудь);

* какие правила применяются при записи цифр внутри числа (в каком порядке и

что означает этот порядок).

Системы счисления бывают позиционные и непозиционные.

Позиционной называется такая системой счисления, когда значения цифр

внутри записи числа неодинаковы и возрастают справа налево.

Например, привычная нам система записи чисел называется десятичной

СС. Она относится к позиционным. Внутри записи десятичного числа,

например, 555 каждая цифра имеет разное значение:

* первая справа цифра 5 означает количество единиц (5);

* вторая справа цифра 5 означает количество десятков (50);

* третья справа цифра 5 означает количество сотен (500).

Непозиционной СС называется такая система записи чисел, когда

значения цифр внутри записи числа не зависят от позиции цифр в числе.25

Например, к непозиционным относится римская СС. Римские числа

составляются из цифр, значение которых всегда одно и то же:

VI – шесть (5+1)

XIII – тринадцать (10+1+1+1)

XXV – двадцать пять (10+10+5)

Математические характеристики позиционных систем счисления

Позиционные системы характеризуются набором используемых в них цифр

и основанием. Основание позиционной СС – это число, на единицу большее

самой старшей цифры.

Например, в десятичной СС используется десять цифр: 0, 1, 2, 3, 4, 5, 6, 7,

8 и 9. Самая старшая цифра здесь – это 9. Основание = 9 + 1 = 10.

Сколько цифр используется в той или иной позиционной системе

счисления, а также величину основания, можно определять по названию

системы: «десятичная» – значит, используется десять цифр и основание равно

десяти.

Теоретически для записи чисел можно использовать какую угодно

позиционную систему счисления (необязательно десятичную): двоичную,

третичную, четверичную, пятеричную, шестеричную и т.д. Самой младшей из

всех возможных позиционных систем счисления является двоичная СС.

Чтобы найти общее значение числа, записанного в той или иной

позиционной системе счисления, нужно воспользоваться следующей

формулой:

XnXn-1…X3X2X1 = Xn·an-1

+ Xn-1·an-2

+…+ X3·a

+ X2·a

+ X1·a

(3)

где Xi– цифры внутри записи числа; n – общее количество цифр в записи

числа;

a – основание системы счисления.

Например, десятичное число 3518. Его значение вычисляется так:

3518 = 3·103

+ 5·102

+ 1·101

+ 8·100

= 3000 + 500 + 10 + 8

Одна позиция внутри записи числа в позиционной СС называется

разрядом. Нумерация разрядов идёт справа налево. Чаще нумерацию разрядов

начинают с нуля, а не с единицы: самый правый разряд целой части числа – это

нулевой разряд; слева от него – первый разряд; левее первого – второй разряд и 26

т.д. В каждом разряде записывается одна цифра.

Например, в числе 3518 нулевой разряд равен 8, первый разряд равен 1,

второй разряд равен 5, третий разряд равен 3, четвёртый разряд равен 0, пятый

– тоже 0 и все остальные ещё более старшие разряды тоже равны 0:

00…00003518

Примеры позиционных систем счисления, применяемых на практике

Кроме десятичной СС на практике применяются: двоичная, восьмеричная

и шестнадцатеричная системы. Их цифры и основания приведены в таблице

ниже.

Система счисления Основание Алфавит цифр

Позиционные

Десятичная 10 0,1,2,3,4,5,6,7,8,9

Двоичная 2 0,1

Восьмеричная 8 0,1,2,3,4,5,6,7

Шестнадцатеричная 16 0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F

Непозиционные

Римская I(1), V(5), X(10), L(50), C(100), M(1000)

Двоичная СС

Данная система счисления широко применяется на практике в силу того,

что вычислительные машины (компьютер, калькулятор) непосредственно

хранят и производят расчёты над числами, представленными именно в

двоичной системе. Мы вводим числа в калькулятор в десятичной СС,

калькулятор автоматически преобразует запись чисел в двоичную СС,

производит расчёты с числами, представленными в двоичной СС, а затем

преобразует результат в десятичную СС, чтобы вывести его в привычном для

нас виде.

Из названия «двоичная» следует, что основание = 2 и используется только

две цифры: 0 и 1. Приведём примеры перевода записи чисел из десятичной СС

в двоичную и обратно.

Перевод из десятичной в двоичную

Для выполнения такого перевода, нужно выполнять деление исходного

десятичного числа на 2. Делить нужно нацело, запоминая, чему равен остаток

от деления. После первого деления далее таким же образом полученный

результат делим на 2. Выполняем деление до тех пор, пока результат не будет

равен нулю.27

После выполнения деления, чтобы получить ответ (запись числа в двоичной

СС) нужно собрать запомненные остатки от деления, составляя их справа

налево.

Переведём в двоичную СС десятичное число 193:

Действие Результат Остаток

193: 2 96 1

96: 2 48 0

48: 2 24 0

24: 2 12 0

12: 2 6 0

6: 2 3 0

3: 2 1 1

1: 2 0 1

По окончании деления записываем остатки справа налево:1 1 0 0 0 0 0 1

Ответ: 19310 = 110000012

Примечание. Когда в одном выражении используются числа, записанные в разных

позиционных системах счисления, чтобы различать эти числа, необходимо в индексе

каждого из них указывать основание использованной системы счисления. Например:

X…XXXa

(в общем виде), 19310 (десятичное число), 110000012 (двоичное число) и

т.п.

Перевод из двоичной в десятичную

Чтобы перевести число в десятичную СС, нужно воспользоваться формулой

(3):

110000012 = 1•27

+ 1•26

+ 0•25

+ 0•24

+ 0•23

+ 0•22

+ 0•21

+ 1•20

=

= 1•128 + 1•64 + 0•32 + 0•16 + 0•8 + 0•4 + 0•2 + 1•1 = 19310

Восьмеричная СС

Основание = 8. Используемые цифры: 0, 1, 2, 3, 4, 5, 6 и 7.

Перевод из десятичной в восьмеричную

Переведём в восьмеричную СС десятичное число 193:

Действие Результат Остаток

193: 8 24 1

24: 8 3 0

3: 8 0 3

Записываем остатки справа налево: 3 0 1

Ответ: 19310 = 3018

Перевод из восьмеричной в десятичную

Опять же пользуемся формулой (3):

3018 = 3·8

+ 0·8

+ 1·8

= 3·64 + 0·8 + 1·1 = 192 + 0 + 1 = 1931028

Шестнадцатеричная СС

Основание = 16. Используемые цифры:

Шестнадцатеричная цифра 0 1 2 3 4 5 6 7 8 9 A B C D E F

Десятичное значение цифры 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Переведём в шестнадцатеричную СС десятичное число 193:

Действие Результат Остаток Остаток в виде шестнадцатеричной цифры

193: 16 12 1 1

12: 16 0 12 C

По окончании деления записываем остатки справа налево: C1

Ответ: 19310 = C116

Переведём теперь обратно число C1 из шестнадцатеричной СС в десятичную.

Для этого нужно подставить цифры данного числа в формулу (3):

C116 = 12·161

+ 1·160

= 12·16 + 1·1 = 19310

Простой способ перевода из двоичной СС в восьмеричную и наоборот

Если требуется перевод из двоичной в восьмеричную СС, то это легко




Дата добавления: 2014-11-24; просмотров: 91 | Поможем написать вашу работу | Нарушение авторских прав




lektsii.net - Лекции.Нет - 2014-2025 год. (0.242 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав