Э Лийв - Инфодинамика, Обобщённая энтропия и негэнтропия

Тут можно читать онлайн Э Лийв - Инфодинамика, Обобщённая энтропия и негэнтропия - бесплатно полную версию книги (целиком) без сокращений. Жанр: Философия. Здесь Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте лучшей интернет библиотеки ЛибКинг или прочесть краткое содержание (суть), предисловие и аннотацию. Так же сможете купить и скачать торрент в электронном формате fb2, найти и слушать аудиокнигу на русском языке или узнать сколько частей в серии и всего страниц в публикации. Читателям доступно смотреть обложку, картинки, описание и отзывы (комментарии) о произведении.
  • Название:
    Инфодинамика, Обобщённая энтропия и негэнтропия
  • Автор:
  • Жанр:
  • Издательство:
    неизвестно
  • Год:
    неизвестен
  • ISBN:
    нет данных
  • Рейтинг:
    3.4/5. Голосов: 101
  • Избранное:
    Добавить в избранное
  • Отзывы:
  • Ваша оценка:
    • 60
    • 1
    • 2
    • 3
    • 4
    • 5

Э Лийв - Инфодинамика, Обобщённая энтропия и негэнтропия краткое содержание

Инфодинамика, Обобщённая энтропия и негэнтропия - описание и краткое содержание, автор Э Лийв, читайте бесплатно онлайн на сайте электронной библиотеки LibKing.Ru

Инфодинамика, Обобщённая энтропия и негэнтропия - читать онлайн бесплатно полную версию (весь текст целиком)

Инфодинамика, Обобщённая энтропия и негэнтропия - читать книгу онлайн бесплатно, автор Э Лийв
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

ческой к максимально возможной энтропии ОЭф ,показывает ОЭм

cтепень уменьшения ОЭм после получения ОНГ и колеблется

в пределах 0 < ОЭф < 1 ОЭм

Вероятность также характеризует неопределённость, но её прямое применение возможно при конкретных, более уз-ких пределах. Для многих сложных вероятностей много-мерных систем применение условных вероятностей в расчётах связано с большими трудностями. В мире нет чисто слу-чайных или чисто детерминированных систем. Вероятност-ный компонент содержится во всех в первичной реальности существующих системах. Они имеют бесконечно большую размерность, неопределённость в микромире, во времени и пространстве. Их энтропия приближается к бесконечности. В реальном мире нет абсолютно детерминированных систем. Имеются искусственно изолированные во времени и в прост-ранстве системы, в которых детерминированный компонент превалирует. Например, солнечная система. Движение планет подчиняется законам гравитации, предсказуемо по математи-ческим уравнениям. Однако, и эта система (орбита) изменя-ется по космическим масштабам быстро и солнце само тоже не существует вечно (около 5 млрд. лет). Мысленно можно создать модели, которые абсолютно детерминированные, т.е. исключают все случайности. Вероятность результата такой системы 1,0; ОЭ = 0. Например, система состоит из формулы 2 ? 2 = 4. Вероятность достижения целевой критерии 4 сос-тавляет 1,0; ОЭ = 0. Однако, такая система существует только в голове. В реальной жизни нет четырёх абсолютно одинаковых объектов, а при сложении разноценных систем результат становится неопределённым.

Почти во всех системах неопределённость есть некото-рое отношение элемента, входящего в множество, к числу всех элементов в множестве. В каждом отношении сочета-ются случайные и неслучайные факторы. Соответственно с этим для уменьшения неопределённости системы необходимо сочетать статистическую теорию информации с использова-нием априорной информации, теорий, гипотез и других мето-дов эвристического моделирования, в том числе с экспе-риментами.

Стохастичность и случайность можно считать синони-мами, также как и неупорядоченность и беспорядок. Имеются понятия для обозначения неопределённости в отдельных об-ластях: шум - в процессе инфопередачи, непредсказуемость - в прогнозах будущего, деструктивность - в структуре, рассеянность - в пространстве.

СУЩНОСТЬ ИНФОРМАЦИИ

Из огромного числа публикаций по проблеме сущности информации можно выделить два её основных значения.

1. Давно применяемое "обыденное" значение, что сфор-мировал также Н.Винер: "Информация - это обозначение содержания, полученного из внешнего мира в процессе на-шего приспособления к нему и приспосабливания наших чувств [ 21 ]. Здесь информация выступает в роли знания, сообщения.

2. Кибернетическое понятие информации, которое было сформулировано в основополагающих работах Н.Винера, осо-бенно К.Шеннона в 1948 году [ 25 ]. В теории Шеннона под информацией понимают только те передаваемые сообщения, которые уменьшают неопределённость у получателя инфор-мации. Следовательно информация измеряется разностью энтропий (Н) системы до и после получения информации. Если целевые критерии системы-приёмника информации обо-значить В, а событие в системе-передатчике А, то количество передаваемой информации:

J (A, B) = H(B) - H(B / A) > - lg2 P(B) + lg2 P(B / A)

В формуле выражен относительный характер среднего значения информации, как показателя зависимости между двумя событиями. Из формулы следует, что не существует абсолютной информации: есть информация относительно оп-ределённого события (критерия, цели) или объекта, содер-жащаяся в другом событии. Измерение энтропии системы имеет ценность потому, что позволяет оценить влияние собы-тия А на событие В в форме разности

Н(В) - Н(В / А), т.е. по количеству информации. Последнее является мерой отношения, взаимосвязи между системами, явлениями, процессами, а не показателем состо-яния систем.

Концепция Шеннона в принципе не вызывает возраже-ний и нашла широкое применение. Однако, существующие формулы теории информации предназначены для обмена ин-формацией между относительно простыми системами и по ка-налам связи с одно-трех-мерными сигналами. При примене-нии формул для расчёта обмена информацией между сложны-ми системами (обладающими высокими ОЭ и ОНГ), необхо-димо их уточнять и дополнять с учётом следующих факторов.

1. Целевые критерии реальных сложных систем зависят обычно не от одного события или фактора другой системы, а от многих. Последние могут быть зависимыми также между собой. В таком случае приёмник информации получит одно-временно многомерную информацию от многих источников в комплексе.

2. При уменьшении ОЭ (увеличении ОНГ) системы, принимающего информацию, используются не только пара-метры состояния отправной системы, но и обобщённые поня-тия, символы, формулы, закономерности и т.д. Эта, т.н. априорная информация, может быть получена как от системы приёмника, так и отправителя. Влияние этой априорной ин-формации должно быть учтено при расчётах передачи ин-формации.

3. Нельзя исключить возможность, что в результате по-лучения информации общая максимально возможная энтро-пия системы-модели увеличивается. Могут появляться ранее неучтённые факторы-размерности или расширены пределы независимых переменных. Если это происходит, необходимо это проверить и учесть.

Таким образом, практические расчёты передачи инфор-мации значительно сложнее, чем просто оценка уменьшения ОЭ системы, особенно для сложных многофакторных систем. Улучшенную, но не совершенную, формулу для расчёта ин-формации можно представить следующим образом (Н можно заменить на ОЭ):

J (A, B) = H (B) + DиH (B) - е H (B / Ai), где:

H (B) - энтропия системы по целевому критерию В,

DиH(B) - увеличение максимальной энтропии системы В в результате расширения пространства состояния,

H(B/Ai) - условная энтропия относительно целевого критерия В при выполнении события Ai и связанных с этим закономерностей и зависимых событий,

Ai - множество событий, закономерностей и факторов, влияющих на критерий В.

Так как в мире существует неисчислимое количество разных и разнообразно связанных систем, то и информация между ними может иметь огромное количество вариантов. Особенности и степень обобщённости понятий необходимо учитывать при уточнении данных и формул расчёта. Однако, для избежания ошибок при истолковании и анализе инфор-мационных процессов, нельзя отклоняться от их основного содержания, от уменьшения ОЭ. Этот основной постулат наи-более общий и действует для любой системы универсума: как в неорганическом мире, так и в живых организмах, в соз-нании и в космосе. Сущность информации заключается в сле-дующем:

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать


Э Лийв читать все книги автора по порядку

Э Лийв - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки LibKing.




Инфодинамика, Обобщённая энтропия и негэнтропия отзывы


Отзывы читателей о книге Инфодинамика, Обобщённая энтропия и негэнтропия, автор: Э Лийв. Читайте комментарии и мнения людей о произведении.


Понравилась книга? Поделитесь впечатлениями - оставьте Ваш отзыв или расскажите друзьям

Напишите свой комментарий
x