Читайте также:
|
|
Или
Размышление к информации
Информация с точки зрения второго закона термодинамики
Примем за определение энтропии то, на котором остановился Больцман и с которого начал Шеннон: Энтропия является мерой количества равновероятных состояний термодинамической системы.
,
где i – количество степеней свободы системы, определяемое количеством частиц и количеством степеней свободы каждой частицы, Pi – вероятность каждого состояния частицы.
Информация же, по Шеннону – мера уменьшения неопределенности, т.е. воздействие, уменьшающее количество равновероятных состояний системы. Таким образом, поступление информации в систему – это уменьшение ее энтропии:
Соответственно, для системы с фиксированным количеством частиц и их степеней свободы
Константа эта – своя для каждой системы и определяется ее внутренней структурой.
Будем считать информационным такое воздействие на систему, что оно:
Обозначим первоначальную энтропию системы как S0, а энтропию после информационного воздействия S1. Таким образом,
Согласно второму закону термодинамики, свободная энергия системы равна общей энергии за вычетом связанной энергии, которая определяется как произведение энтропии системы на ее температуру:
Обозначим изначальную свободную энергию системы как G0, а свободную энергию после информационного воздействия как G1. Тогда:
Вычтем второе уравнение из первого, получим изменение свободной энергии системы:
Отсюда:
Отсюда находим изменение информации в системе:
Словесно – приращение информации в системе прямо пропорционально свободной энергии и обратно пропорционально температуре.
Теперь вспомним термодинамическую суть температуры – она является мерой средней кинетической энергии одной частицы в системе:
,
где k – постоянная Больцмана.
Таким образом, можно представить температуру (безотносительно к масштабу, выражаемому постоянной Больцмана) как отношение общей кинетической энергии всех частиц системы к их количеству:
, или проще: , где Ek – суммарная кинетическая энергия всех частиц системы.
Подставим эту формулу в выведенную нами формулу приращения информации и получим:
Для частиц, имеющих дискретные степени свободы, формула будет иметь вид:
где n – количество степеней свободы каждой частицы. Таким образом, информация, как и энтропия, является аддитивной величиной, зависящей от общего количества степеней свободы системы.
Что ожидаемо – для хранения информации необходимо иметь некоторое количество частиц, у которых можно увеличить их свободную энергию, причем потеря информации будет выражаться в увеличении кинетической энергии данных частиц. Проверяем размерность – энергетические составляющие формулы сокращаются, и остается размерность информации, выражающаяся в количестве задействованных частиц, имеющих некоторое количество степеней свободы (типичный пример – выражение информации в битах, т.е. частицах, имеющих ровно 2 степени свободы, но возможно выражение информации в натах – натуральных единицах, или же в пересчете при помощи постоянной Больцмана – в энтропийных единицах).
В случае отсутствия новых информационных воздействий на систему и ее изоляции от обмена энергией справедлива формула:
Эта формула выражает известный нам из термодинамики закон неубывания энтропии. Слагаемое энтропийной составляющей при отсутствии внешних воздействий всегда неотрицательно, свободной энергии – соответственно всегда неположительно. Поскольку мы уже выявили зависимость информации от свободной энергии, формула будет выглядеть так:
В ней если слагаемое энтропии неотрицательно, слагаемое информации соответственно будет неположительным. Поэтому из второго закона термодинамики можно вывести закон невозрастания информации без внешнего информационного воздействия.
В случае обмена системы энергией с внешней средой будет применимо уравнение Пригожина:
,
где индексы i и e - соответственные обозначения изменения внутренней энтропии и поступления энтропии извне. Это означает, что любое энергетическое воздействие на систему, не являющееся по нашим критериям информационным, приводит к увеличению энтропии и соответственно – к потере информации.
То есть для получения системой информации нужно увеличить свободную и только свободную энергию системы, а сопряженное с получением энергии увеличение энтропии компенсировать ее отводом вовне системы – например, отводом тепла.
Разумеется, как и в случае других термодинамических идеализаций, «чистое» информационное воздействие невозможно. В случае получения системой извне свободной энергии происходит и получение энтропии – хотя бы в смысле теплопередачи. Приближение к идеальному информационному воздействию возможно, например, когда система обладает функцией терморегуляции – тепло, пришедшее в результате воздействия, отводится, а изменение свободной энергии частиц остается. Как пример можно привести работу компьютерного процессора с одновременным отводом тепла или запись информации на жесткий диск. Эти чисто практические примеры показывают, что не только математическое выражение, но и физическая сущность информационной энтропии и термодинамической энтропии одинакова – термодинамические процессы напрямую влияют на процессы передачи и хранения информации.
Выводы:
1. Информация как таковая является общим свойством материи, зависящим от количества ее частиц и их степеней свободы и запаса их свободной энергии.
2. Вследствие зависимости информации от количества частиц следует ее свойство аддитивности, идентичное таковому у энтропии. Слияние системы с другой приводит к увеличению количества информации, разделение системы – к разложению общей информации на сумму количеств информации получившихся систем.
3. Информация и энтропия – это взаимно противоположные величины, и в любой системе с фиксированным количеством частиц и их степеней свободы возрастание одной величины будет сопровождаться убыванием другой.
4. Вероятностный смысл информации – достижение системой наименее вероятных состояний, энтропии – стремление к наиболее вероятным состояниям.
5. Следствием закона неубывания энтропии (второго закона термодинамики) является закон невозрастания информации без внешнего информационного воздействия на систему. По предложению Колмогорова, считавшего первичной теорию информации, а термодинамику и статистическую физику – ее следствиями, можно наоборот, прямым утверждением считать закон невозрастания информации, а следствием – второй закон термодинамики.
6. Получение некоторыми частицами системы дополнительной кинетической энергии, выражающееся в повышении температуры, является причиной потери системой части своей информации.
7. Для получения информационного воздействия, приближающегося к идеальному, необходимо создать условия для получения системой свободной энергии и одновременного отвода полученной энтропии – как правило, в виде отвода тепла.
Дата добавления: 2015-02-16; просмотров: 21 | Поможем написать вашу работу | Нарушение авторских прав |