Е. Седов - В начале было Слово…
- Название:В начале было Слово…
- Автор:
- Жанр:
- Издательство:неизвестно
- Год:неизвестен
- ISBN:нет данных
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Е. Седов - В начале было Слово… краткое содержание
В начале было Слово… - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Принципиальное отличие данного этапа развития науки от предшествующих этапов заключается в том, что до создания перечисленных направлений исследований наука способна была объяснить лишь механизмы процессов, приводящих к увеличению хаоса и возрастанию энтропии. Что касается разрабатываемых со времен Ламарка и Дарвина биологических и эволюционных концепций, то они и по сей день не имеют строгих научных обоснований и противоречат Второму началу термодинамики, согласно которому сопровождающее все протекающие в мире процессы возрастание энтропии есть непременный физический закон.
Заслуга неравновесной термодинамики заключается в том, что она сумела выявить механизмы антиэнтропийных процессов, не противоречащих Второму началу термодинамики, поскольку локальное уменьшение энтропии внутри самоорганизующейся системы всегда оплачивается большим по абсолютной величине возрастанием энтропии внешней среды.
Важнейшим шагом на пути постижения природы и механизмов антиэнтропийных процессов следует введение количественной меры информации. Первоначально эта мера предназначалась лишь для решения сугубо прикладных задач техники связи. Однако последующие исследования в области физики и биологии позволили выявить универсальные меры, предложенные К. Шенноном, позволяющие установить взаимосвязь между количеством информации и физической энтропией и в конечном счете определить сущность новой научной интерпретации понятия «информация» как меры структурной упорядоченности самых разнообразных по своей природе систем.
Используя метафору, можно сказать, что до введения в науку единой информационной количественной меры представленный в естественно — научных понятиях мир как бы «опирался на двух китов»: энергию и вещество. «Третьим китом» оказалась теперь информация, участвующая во всех протекающих в мире процессах, начиная от микрочастиц, атомов и молекул и кончая функционированием сложнейших биологических и социальных систем.
Естественно, возникает вопрос: подтверждают или опровергают эволюционную парадигму происхождения жизни и биологических видов новейшие данные современной науки?
Для ответа на этот вопрос необходимо прежде всего уяснить, какие именно свойства и стороны многогранного понятия « информация» отражает та количественная мера, которую ввел в науку К. Шеннон.
Как будет показано в последующих разделах, использование меры количества информации позволяет анализировать общие механизмы информационно — энтропийных взаимодействий, лежащих в основе всех самопроизвольно протекающих в окружающем мире процессов накопления информации, которые приводят к самоорганизации структуры систем.
Вместе с тем информационно — энтропийный анализ позволяет выявить и пробелы эволюционных концепций, представляющих собой не более чем несостоятельные попытки сведения к простым механизмам самоорганизации проблему происхождения жизни и биологических видов без учета того обстоятельства, что системы такого уровня сложности могут быть созданы лишь на основе той информации, которая изначально заложена в предшествующий их сотворению план.
Хотелось бы заранее предупредить читателя о том, что в последующих разделах не приводится сопоставительный анализ эволюционных концепций Дарвина и Ламарка с современными теориями эволюции, будь то неодарвинизм, неоламаркизм или какая-либо иная теория. Авторы этой книги пытались с помощью методов теории информации найти научный подход к решению более общей задачи, а именно — к критическому анализу лежащей в основе всех упомянутых выше эволюционных концепций эволюционной идеи, согласно которой как сама жизнь, так и ее многочисленные формы возникали не в соответствии с единым планом творения, а путем обусловленного сугубо случайными факторами (флуктуациями неорганических или мутациями генетических систем) самопроизвольного усложнения более примитивных систем.
Ниже будет показано, что проводимые современной наукой исследования свойств информационных систем дают все основания утверждать, что все эти системы могут формироваться только согласно спускаемым с верхних иерархических уровней правилами причем сами эти правила существовали раньше самих систем в форме изначального плана (идеи творения), что и нашло свое отражение в самом названии этой книги, с той лишь существенной поправкой, что, обращаясь к первоисточникам Библии, следует Слово понимать как «Логос», т. е. идею, замысел, план.
ЧТО ИЗМЕРИЛ КЛОД ШЕННОН
В основу теории информации положен предложенный К Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации. содержащейся в сообщениях, передаваемых по каналам технической связи.
Предложенный Шенноном метод измерения количества информации оказался настолько универсальным, что его применение не ограничивается теперь узкими рамками чисто технических приложений.
Вопреки мнению самого К. Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое применив в исследованиях и физических, и биологических, и социальных систем.
Ключом к новому пониманию сущности феномена информации и механизма информационных процессов послужила установленная Л Бриллюэном взаимосвязь информации и физической энтропии Эта взаимосвязь была первоначально заложена в самый фундамент теории информации, поскольку для исчисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятную функцию энтропии.
Многие ученые (начиная с самого К. Шеннона) склонны были рассматривать такое заимствование как чисто формальный прием Л Бриллюэн показал, что между вычисленным согласно Шеннону количеством информации и физической энтропии существует не формальная, а содержательная связь.
В статистической физике с помощью вероятностной функции энтропии исследуются процессы, приводящие к термодинамическому равновесию, при котором все состояния молекул (их энергии, скорости) приближаются к равновероятным, а энтропия при этом стремится к максимальной величине.
Благодаря теории информации стало очевидно, что с помощью той же самой функции можно исследовать и такие далекие от состояния максимальной энтропии системы, как, например, письменный текст5.
Еще один важный вывод заключается в том, что
с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельной упорядоченности (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.
Читать дальшеИнтервал:
Закладка: