Студопедия  
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Аксіоми, закони, визначення й одиниці вимірювання інформації.

Читайте также:
  1. II. Оголошення теми та мети уроку, визначення мети учнями
  2. Аналіз психолого-педагогічних підходів до визначення понятійного апарату дослідження
  3. Види інформації.
  4. Види комерційних банків. Визначення банківських операцій та їх класифікація
  5. Визначення вимог до підготовки і умов атестації фахівця
  6. Визначення виробничої потужності і виробничої програми структурного підрозділу при різних варіантах організації виробництва
  7. Визначення водопоглинання
  8. Визначення Е.Р.С. та внутрішнього опору джерел живлення
  9. визначення збалансованих структур споживання для усього світу, що Земля зможе витримати протягом тривалого часу.

Аксіоми.
Аксіоматична база сучасної теорії інформації поки що несформована. Річ у тім, що кожна її концепція може висунути свою множину таких аксіом.

Проте, незважаючи на різні підходи до формування такої аксіоматичної бази, можна було б, на нашу думку, сформулювати такі аксіоми, що не залежать від різних концепцій.

Аксіома 1: інформація має ідеальний характер. Проілюструвати цю аксіому можна в такий спосіб. Колись відомий письменник Б. Шоу наводив такий приклад: коли в когось є яблуко, й він передає його іншому, то після цього яблука в нього вже немає; коли в когось є якась думка [тобто інформація. — П. З.], й він повідомляє її іншому, то після цього ця інформація є вже у двох. Від себе додамо, цю думку можна повідомити не одному, а безконечній кількості отрмимувачів інформайції. Якби інформація була матеріальним об’єктом, як яблуко, її можна було б передати лише одній людині; той факт, що інформацію можна передати безконечну кількість разів, підтверджує, що інформація має ідеальний характер. А

ксіома 2: інформації зберігається і передається тільки на матеріальному носії. У наш час інформація передається або на матеральних носіях (раніше — на камені, корі, вузликами тощо; зараз — на папері, дисках тощо) або коливаннями поля (електромагнітного, гравітаційного тощо). Наприклад, одна людина передає інформацію іншій у разі використання усної природної мови за допомогою коливань повітря. Іншого способу людство не виявило.

Аксіома 3: інформація існує тільки в кібернетичних системах. Якщо немає процесу керування, а, отже, кібернетичної системи, то інформації не існує. Наприклад, сам по собі відбиток шини автомобіля на розмитій польовій дорозі є лише відображенням, а не інформацією. Інформацією це відображення може стати лише тоді, коли його сприйматиме якась кібернетична система, наприклад людина. Це зовсім не заперечує того, що в неживій природі не передається інформація, як наприклад, у різних видах механічних систем, тих же ж двигунах.

Аксіома 4: чим менша імовірність якоїсь явища, тим більше інформації воно несе, і навпаки. Розглянемо два повідомлення: 1) громадянин N прокинувся о восьмій годині ранку й побачив поруч зі собою будильник; 2) громадянин N прокинувся о восьмій годині ранку й побачив поруч зі собою слона. Інтуїтивно зрозуміло, що друге повідомлення несе значно більше інформації, ніж перше, оскільки імовірність його появи вкрай мала. Ця аксіома лежить в основі такого добре відомого правила працівників ЗМІ, які всі найбільш сенсаційні події виносять або на початок передач, або на пршу сторінку видань.

Хоча описані нижче концепції теорії інформації базуються на зовсім різних принципах вимірювання кількості інформації в повідомленнях, проте всі вони враховують закономірність, сформульовану у четвертій аксіомі теорії інформації, вказаній вище.

Закони.
Закон 1: на отримання інформації кібернетична система повинна затратити певну кількість енергії.

Для отримання інформації слід витрачати енергію, кількість якої для кожної керуючої системи є обмеженою. Так, за наявними даними, для отримання одного біта інформації теоретично потрібно затратити 0,693 kT дж енергії (на практиці ці затрати завжди значно більші). Якби керуючі системи мали або надзвичайно довгі за місцем у пам’яті (як екстремум — безконечні) або довготривалі в часі (як екстремум — безконечні) програми розпізнавання, то вони або не змогли б функціонувати, або завжди опинялись би в стані поразки, що визначає саму можливість їх функціонування. У біологічних системах цьому протидіє інстинкт самозбереження.

Сформульований принцип не заперечує того, що в різних системах програми розпізнавання одного й того ж образу можуть мати відмінні довжину та час виконання.

Закон 2: будь-яка інформація впливає на її отримувача.

Вплив може реалізуватися різними шляхами: а) шляхом запам’ятовування інформації і її використання у наступних діях кібернетичної системи в тому випадку, коли ця інформація стає цінною щодо життєдіяльності системи; б) шляхом забування цієї інформації (стирання з пам’яті).

Якщо інформація не впливає в даний момент на отримувача, то вона обов’язково вплине тоді, коли виникне ситуація її недостатності (про недостатність див. нижче).

Визначення інформації.

Традиційно під інформацією (від латинського informatio — роз’яснення, виклад, обізнаність) розуміють “одне з найзагальніших понять науки, яке означає певні відомості, сукупність якихось даних, знань і т. ін.”. Проте очевидно, що таке визначення не можна сприймати як наукове, оскільки воно містить явну логічну помилку (визначення невідомого через невідоме), визначення інформації через відомості, дані, знання, що також вимагають визначень (пов’язані з цим помилки див. у будь-яких тлумачних словниках).

Даючи визначення інформації, найперше потрібно враховувати, що воно повинно охоплювати всі можливі типи кібернетичних систем. Тому запропонуємо визначення цього терміна, а далі перевіримо його на низці прикладів із різними кібернетичними системами — від найпримітивніших (механічних) до найскладніших (людини).

Отже, враховуючи пов’язаність інформації з поняттям знятої невизначеності (ентропії), дамо їй таку дефініцію: інформація — це знята невизначеність, яку кібернетична система у своїй пам’яті декодує та зберігає. Тут невизначеність — це стан, коли кібернетична система повинна отримати інформацію (сигнал), але час його надходження або його зміст в цей момент часу є невідомими.

Перевіримо це на прикладі з механічною системою (наприклад, паровий двигун). Справді, в керованій підсистемі приймач інформації перебуває в стані невизначеності й очікує надходження сигналу, що несе лише один біт інформації. Після надходження певного сигналу інформація про нього передається в керовану підсистему, невизначеність приймача зникає, і він знову переходить у стан невизначеності до моменту надходження нового сигналу. При цьому інформація зберігається в пам’яті підсистеми лише на час передачі інформації (після передачі інформації вона стирається). Отже, такі системи мають лише короткочасову пам’ять, в якій сигнал запам’ятовується лише на час передачі інформації.

Складніші типи систем (наприклад, клітини, електронні мікросхеми — чіпи) можуть отримувати не тільки один конкретний сигнал, а й цілі їх ланцюжки (значно більшу, ніж біт кількість інформації — десятки чи сотні біт інформації). При цьому, оскільки такі системи вже володіють довгочасовою пам’яттю, то така невизначеність вже відображається, тобто з кортокочасової може передаватися в довгочасову пам’ять. Тому стосовно таких систем можна вже говорити, що для них знята невизначеність (сигнал, що несе лише один біт інформації) фактично є групою сигналів, тобто відображеною різноманітністю. Отже, можна сказати, що для для такого типу систем інформація — це відображена різноманітність, яку кібернетична система в своїй пам’яті декодує та зберігає.

Ще складніші типи систем (наприклад, сучасні ком’ютери, біологічні системи — тварини, люди) можуть сприймати й опрацьовувати не тільки групи сигналів, а й цілі їх комплекси. Для таких систем сигналами (відображеною різноманітністю) стають образи, що містять уже тисячі, десятки чи сотні тисяч біт інформації. Такі сигнали (образи) опрацьовуються в спеціальному підвиді короткочасової пам’яті — сенсорній вже за зовсім іншим принципом (наприклад, як у нейрокомп’ютерах). При цьому процедура декодування сигналу перетворюється в значно складнішу процедуру — розпізнавання образу. Отже, для складних типів систем інформація — це відображені образи, які кібернетична система в своїй пам’яті розпізнала та зберігає.

Звертаємо тут увагу на дві особливості. Перша та, що нерозпізнані образи інформацією не є (вони залишаються лише тлом (фоном) в органах сприйняття системи). Друга особливість та, що не всі образи мусять бути відображеними. Річ у тім, що складні системи, як наприклад людина, можуть самогенерувати образи, які можуть і не бути відображенням реального світу (наприклад, людини в стані галюцинацій може генерувати такі образи). Очевидно, що такі образи також несуть певну інформацію.

Повертаючись до поданого вище псевдовизначення інформації як відомостей, даних, знань тощо, тепер можна сказати, що в отриманій інтерпретації (інформація як образ) вона вже збігається з поданим псевдовизначенням. Справді, відомості, дані й знання можна передати за допомогою ланцюжків образів, якими є, наприклад, знаки, хоча б тіж лінгвістичні — слова.

У наш час теорія інформації в основному займається тим значенням, яке базується на понятті „знята невизначеність”. На друге значення цього терміну („відомості, знання”) спрямовано багато сучасних досліджень, проте вагомих результатів у цьому напрямі поки що немає. Запропонований вище підхід може бути одним з можливих підходів до роз’язання цієї проблеми.

Одиниці вимірювання кількості інформації.

У літературі вказують, що одиницею вимірювання інформації є біт. При цьому йому дають таке визначення: біт — це кількість інформації, яку отримує кібернетична система на запитання, що передбачає лише два можливі варіанти відповіді [так (1) або ні (0)]. Типовим прикладом може служити запитання: “Ви вмієте їздити автомобілем”. Варіантів відповіді може бути лише два: так (1) або ні (0).

У наш час в електроніці біти об’єднують у байти — елементи з восьми бітів, що зроблено суто з практичних міркувань, хоча кількість бітів у байтах може бути й зовсім іншою. Інші одиниці: кілобайти, мегабайти, гігабайти, терабайти.




Дата добавления: 2015-04-26; просмотров: 27 | Поможем написать вашу работу | Нарушение авторских прав

1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | <== 10 ==> | 11 | 12 | 13 |


lektsii.net - Лекции.Нет - 2014-2024 год. (0.007 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав