Энтропия. Теория информации

подтверждения того, что это именно птенец, а не малек, сообщается, что у

него не плавники, а крылья, не жабры, а легкие и т.п. Разумеется, все это

не будет избыточной информацией In для всякого, кто знает, чем отличается

птенец от малька.

Но та же самая информация о крыльях, легких, клюве и т.п., заложенная

в генетический код, регулирует процесс онтогенеза, в результате которого в

яйце формируется организм птенца, а не малька. Таким образом, информация

In, избыточная для осведомленного получателя, оказывается необходимой

структурной информацией ( IS, когда речь идет об информационном управлении

процессами формирования тех или иных упорядоченных структур. Вследствие

этого и выполняется условие :

|In = ( IS = Hmax – Hr |(2.8) |

ИНФОРМАЦИОННО-ЭНТРОПИЙНЫЕ СООТНОШЕНИЯ ПРОЦЕССОВ АДАПТАЦИИ И РАЗВИТИЯ

Одна из теорем Шеннона свидетельствует об уменьшении информационной

энтропии множества АВ, образованного в результате взаимодействий двух

исходных упорядоченных множеств Либ.

|H (A,B) ? H(A) + H(B) |(3.1) |

В этом соотношении знак равенства относится к случаю отсутствия

взаимодействий между множествами А и В .

В случае взаимодействий происходит уменьшение энтропии на величину:

( H = Н(А) + Н(В) - Н(А,В)

(3.2)

Согласно негэнтропийному принципу информации (3.4) получаем :

( IS =Н(А) +Н(В) - Н(А,В)

(3.3)

Распространяя рассмотренные Шенноном взаимодействия абстрактных

математических множеств на случаи взаимодействий реальных физических

систем, можно сделать следующие выводы :

1. Соотношения ( 3.1 ), (3.2) и (3.3 ) можно распространить на случаи

взаимодействий упорядоченных физических систем, в частности на

взаимодействия физических сред с различными видами полей.

При этом необходимо осуществлять переход от информационной энтропии Н

к термодинамическай энтропии S , используя соотношение (1.4) Приложений 1.

2. Знак равенства в соотношении (3.1) соответствует случаю отсутствия

взаимодействия между рассматриваемыми физическими системами

(например, случай воздействия магнитного поля на не обладающую

магнитными свойствами среду).

3. Во всех остальных случаях в соответствии с соотношением (3.3)

происходит накопление структурной информации ( IS, характеризующей

увеличение упорядоченности структуры вновь образующейся системы

(формирование и ориентация магнитных доменов под воздействием

магнитного поля, структуализация под воздействием электрического поля

поляризуемых сред и т.п.).

С помощью вероятностной функции энтропии можно описать формальным

математическим языком процесс адапации системы к внешним воздействиям,

понимая процесс адаптации как обучение оптимальному поведению в заданных

условиях внешней среды.

Рассмотрим систему, обладающую возможностью выбора одного из N

возможных ответов (реакций) на внешние воздействия. До прохождения обучения

система способна отвечать на любые воздействия лишь выбранной наугад

реакцией i, причем i может принимать любые значения от i = 1 до i = N,

т.е.:

i=1,2,3,.. . N ,

(3.4)

При этом условии вероятности всех ответов равны друг другу, т.е.:

Р1= Р2 = … =PН=1/N

(3.5)

Как было показано ранее, при этом условии реальная энтропия Нr равна

максимальной энтропии Hmax, т.е.:

|Hr = -|i =|pi log pi = log N = Hmax |(3.6) |

| |N | | |

| |( | | |

| |i =| | |

| |1 | | |

В результате обучения возникают различия вероятностей разных

реакций.

В соответствии с рассмотренными ранее свойствами функции

|( pi log |

|pi |

|i| |

реальная энтропия Hr уменьшается на величину

|( IS = Hmax – Hr |(3.7) |

С точки зрения теории вероятностей начальный алфавит с заданным

числом букв представляет собой полную группу событий.

Для полной группы событий при любом распределении вероятностей сумма

их всегда равна 1 , согласно известному из теории вероятности условию

нормировки:

|i =|pi = 1 |(3.6) |

|N | | |

|( | | |

|i =| | |

|1 | | |

Смысл условия нормировки заключается в том, что сумма вероятностей

выпадения всех 6-ти граней игральной кости равна вероятности выпадения

любой грани, т.е. :

Р1 + Р2 + … Р6 = 1/6 + 1/6 + … + 1/6 = 1

6 раз

В рассматриваемом нами процессе обучения, приводящем к

дифференцировке значений вероятностей реакций Pi , составляющих полную

группу N, условие (3.8) свидетельствует о том, что увеличение вероятностей

каких -то реакций может происходить только за счет уменьшения всех

остальных вероятностей (чтобы сумма была по-прежнему равна 1, см. рис. 1,

случай б).

В предельном случае одна из N вероятностей может возрасти до 1, тогда

все остальные вероятности станут равны 0 (рис. 1).

В случае текста предельному случаю дифференцировки соответствует

вероятность одной буквы (например, «е»), равная 1. Вероятности всех

остальных букв при этом равна нулю. Это значит, что текст вырождается в

повторение одной буквы

е е е е е ...

Этот случай соответствует жесткой детерминации (незатухающий строго

периодический процесс).

Соответствующее жесткой детерминации распределение вероятностей, при

котором некая вероятность Рк равна 1, а все остальные - равны 0, в общем

виде запишется как

Рк=1 (3.9)

Р1 = Р2 = . . .= Рк-1 = Рк+1=. . .= 0 (3.10)

а)

Р1 Р2

Pn

б)

в)

Равномерное распределение вероятностей

Нr = Hmax

Дифференцировка вероятностей при соблюдении условия

i=N

( pi = 1

i=1

Hmax > Hr > 0

Предельный случай дифференцировки вероятностей

Нr = 0

Рис. 1

При подстановке этих значений в функцию энтропии :

|Hr = |i =|pi log pi |(3.11) |

| |N | | |

| |( | | |

| |i =| | |

| |1 | | |

получаем :

Hr=0 (3.12)

Подставляя (3.9) в (3.4), получаем :

( IS = Hmax (3.13)

Все стадии перехода от состояния максимальной энтропии, описываемого

условиями (3.4), (3.5), (3.6), к состоянию жесткой детерминации, которому

соответствуют условия ( 3.9 ) + (3.13) можно представить в виде дуги,

соединяющей исходное состояние Н с конечным состоянием К (рис. 2).

На рис.3 изображена расширяющаяяся иерархическая спираль, которая

может служить моделью формирования иерархических упорядоченных структур.

Пусть нижний уровень этой спирали (п = 0) соответствует начальному

алфавиту, состоящему из N0 различных элементов (букв, атомов, нуклеотидов и

др.).

[pic]

рис. 3

Тогда на уровне N = 1 из этого алфавита можно составить N1 «слов».

Если каждое слово состоит из K1 букв, то из N0 букв можно составить число

слов, равное:

N1 = N0K1 (3.14)

Соответственно, на уровне п = 2 из N1 «слов» можно составить

количество «фраз», равное:

N2=N1K2=N0K1K2 (3.15)

где Кг - число входящих в каждую «фразу» «слов»

Для упрощения математических выражений мы уже приняли одно допущение,

сказав, что все слова содержат одинаковое количество букв (К1), а все фразы

содержат одинаковое количество слов (К2). Очевидно, что в реальных системах

(например, в письменных текстах ) эти условия не соблюдаются. Однако для

выполнения общих свойств нашей информационно -энтропийной модели подобные

упрощения вполне допустимы, поэтому мы введем еще одно допущение:

K1 = К2 = К (3.16)

Подставив (3.16) в (3.15), мы получим :

N2=N0K2 (3.17)

Проводя аналогичные операции для любой (п-ой) ступени при условии:

K1 = K2 = … = Кп = К,

получим:

Nn = N0K2 (3.18)

Рассмотрим пример, иллюстрирующий увеличение разнообразия (числа

различимых элементов) с переходом на более высокие уровни изображенной на

рис . 3.3 спирали в соответствии с формулами (3.14) + (3.18).

Если алфавит (уровень п = 0) содержит 30 букв (N0 = 30), а каждое

«слово» искусственного текста состоит из 6 букв (К = 6), то общее число

таких «слов» составит:

N1 = N0K1 = 306 = 729 ·106

Среди указанного количества «слов» большинство составят бессмысленные

или даже непроизносимые «слова» (из 6-ти гласных, 6-ти согласных и т.п.).

Но если хотя бы 0,01% от общего числа буквенных комбинаций составят

осмысленные слова, общий лексикон составит 72 900 слов.

Еще более прогрессивно возрастает число комбинаций с переходами на

более высокие уровни n = 2, п = 3 и т.д.

Для определения возрастания информационной емкости по мере перехода

на более высокие уровни изображенной на информационно-энтропийной спирали

напомним , что максимальное количество структурной информации A/s'

накапливается при переходе от Нr' = Нmax к Нr'' = 0, т.е. равно:

( IS = Нr' – Нr'' = Hmax

Величина максимальной энтропии для п - ой ступени определяется как:

Нпmax = log Nn = Кn log N0 (3.19)

Сопоставляя величину Нпгнх с величиной энтропии ступени n = О

Страницы: 1, 2, 3, 4, 5, 6, 7



Реклама
В соцсетях
скачать рефераты скачать рефераты скачать рефераты скачать рефераты скачать рефераты скачать рефераты скачать рефераты