Авторы: 159 А Б В Г Д Е З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я

Книги:  184 А Б В Г Д Е З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я

V.I. ПОРЯДОК И БЕСПОРЯДОК. ЭНТРОПИЯ, НЕГЭНТРОПИЯ И ИНФОРМАЦИЯ

Все к лучшему в этом лучшем из миров.

Вольтер

Проявление феноменов Фортуны можно определить как случайные (на первый взгляд) стечения об-

стоятельств, приводящие в соответствии с КРИТЕРИЯМИ НЕБЕЗРАЗЛИЧИЯ к благоприятному для

данного биологического объекта (БО) (или сообщества БО) результату. Благоприятным же, в свою оче-

редь, можно считать такой результат, который способствует улучшению качества жизни. Последнее

всегда связано с уменьшением неопределенности, то есть с увеличением предсказуемости того, что мо-

жет произойти с БО.

Отсюда следует, что явления Фортуны тесно связаны с такими важнейшими понятиями современной

физики и кибернетики, какими являются энтропия и информация. Чтобы установить эту связь, напо-

мним кратко их определения.

Энтропия S вводится как мера упорядочения системы [1] и определяется с помощью соотношения:

S=kmW, (1)

где k - коэффициент (так называемая постоянная Больцмана); W - термодинамическая вероятность

реализации данного состояния рассматриваемой системы, то есть число различных способов его реали-

зации.

Из (1) следует, что чем больше величина W, то есть чем большим числом способов реализуется дан-

ное состояние, тем больше разупорядоченность системы и тем больше ее энтропия S. И, наоборот, с ро-

стом упорядоченности в системе меньше становится величина энтропии. Имеет место фундаменталь-

ный закон природы, так называемое второе начало термодинамики, согласно которому упорядочен-

ность изолированной неравновесной системы должна убывать со временем, а энтропия возрастать соот-

ветственно энтропия равновесной изолированной системы сохраняется. Проявлением этого закона яв-

ляется, например, исчезновение искусственно созданных неоднородностей в распределении плотности

или температуры газа (жидкости) в замкнутом теплоизолированном объеме. Эти неоднородности, кото-

рые представляют собой определенную упорядоченность, постепенно исчезают в результате самодиф-

фузии или теплопроводности, а энтропия данного объема газа возрастает по отношению к ее значению,

в исходном, неоднородном состоянии.

Таким образом, в изолированной системе не может сохраниться никакое искусственно созданное

упорядочение. Ход развития такой системы всегда приводит к постепенному разупорядочению, то есть

к беспорядку.

Важную роль в анализе рассматриваемых вопросов играет также понятие информации. Оно непо-

средственно связано с понятием энтропии как меры беспорядка. Информация, содержащаяся в каком-

либо событии, дает количественную меру сведений, которое это событие содержит. Пусть оно состоит в

подбрасывании монеты. Пока она не брошена, событие отсутствует, и информации о ней нет, то есть

она равна нулю. После того как монета подброшена и выпал, например, орел - событие реализовано и

информация уже отлична от нуля. Оценим количество этой информации. Пусть мы бросаем две монеты

одновременно. Ясно, что мы получим вдвое большую информацию. Вероятность реализации двух неза-

висимых событий (например, выпадение на одной монете орла, а на другой - решки), равна произведе-

нию их вероятностей, а информация - сумме информации об этих событиях. Следовательно, естествен-

но определить меру информации как логарифм вероятности. В нашем примере вероятность выпадения

определенной стороны монеты следующая: Р1= 1/2.

Вероятность выпадения определенных сторон сразу у двух монет

Р = Р1/ Р2; = 1/4, а информация, содержащаяся в этом событии

I = - К log Р = - К log Р1 - К log Р2= I + Т (2)

Где, К - некоторый, коэффициент пропорциональности, конкретный вид которого обусловлен сооб-

ражениями удобства.

Таким образом, научное определение информации о каком-то событии связано с вероятностью его

реализации. Это обстоятельство дает возможность установить связи информации с энтропией, так как

последняя, согласно (1), также определяется через вероятность (впервые это было сделано Л. Сциллар-

дом [2] - выдающимся физиком, лауреатом Нобелевской премии). Рассмотрим, например, ситуацию,

когда событие состоит в переходе системы из одного состояния, характеризующегося энтропией S, = k

In Wp в другое с энтропией

S, = k In W,

Пусть для определенности S1 < S2, (т. е. W1, > W2). Тогда при данном переходе энтропия системы

уменьшается на величину

AS=S,-S =klnW1/W2

Введя в определение информации (2) коэффициент К = k In 10 и считая, что для состояний 1 и 2 ве-

роятность их реализации Р1 ~ W1 и Р2 ~ W2, соответственно, отождествим изменение информации Л1 о

системе при переходе 1 -> 2 с убыванием энтропии AS:

Д1 = - k In 10 log (Р,/Р,) = k In (W1/W2) = AS = - AN. (3)

В (3) введена величина AN уменьшения негэнтропии N (отрицательной энтропии). Таким образом,

увеличение информации о данной системе имеет место только при уменьшении ее энтропии или увели-

чении негэнтропии. Это очень важный общий вывод.

Отметим, что на самом деле, особенно применительно к процессам, связанным с жизнедеятельно-

стью биообъектов, важнейшей характеристикой информации, помимо количества, является ее ценность.

Ясно, что два различных факта могут содержать одинаковое количество информации, но при этом быть

далеко не равноценными для человека. Например, в установлении факта существования телекинеза

столько же информации, сколько и в выпадении определенной стороны монеты при ее подбрасывании,

так как телекинез либо существует" либо нет. Однако, ценность этой информации, весьма различна.

Именно она будет играть важнейшую роль в описании механизмов феноменов Фортуны.