Шон Кэрролл - Вечность. В поисках окончательной теории времени
- Название:Вечность. В поисках окончательной теории времени
- Автор:
- Жанр:
- Издательство:ООО «ЛитРес», www.litres.ru
- Год:101
- ISBN:нет данных
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Шон Кэрролл - Вечность. В поисках окончательной теории времени краткое содержание
Вечность. В поисках окончательной теории времени - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Лео Силард наглядно продемонстрировал это на упрощенной модели демона Максвелла. Вообразите, что в контейнере с газом содержится одна-единственная молекула; следовательно, «температура» представляет собой всего лишь энергию этой одинокой молекулы газа. Если это вся информация, которой мы обладаем, то заставить молекулу произвести полезную работу у нас не получится; она хаотично летает от стенки к стенке, как камешек в жестяном ведре. Однако теперь представьте себе, что у нас появилась дополнительная информация: нам известно, в какой половине контейнера находится молекула – в правой или в левой. Основываясь на этом знании и применив хитрые манипуляции, возможные лишь в мысленном эксперименте, мы можем заставить молекулу работать. Для этого нам нужно просто-напросто быстренько вставить поршень в противоположную половину контейнера. Молекула врежется в поршень и нажмет на него, а мы используем движение поршня для выполнения полезной работы, например поворота маховика. [156]
Обратите внимание на то, какую важную роль в эксперименте Силарда играет информация. Если бы мы не знали, в какой половине контейнера находится молекула, то не догадывались бы, в какую половину нужно вставить поршень. Если бы мы случайным образом выбирали, в какую половину контейнера вставить поршень, то в половине случаев он бы выталкивался наружу, а в половине – затягивался внутрь. В среднем никакой полезной работы бы не производилось. Информация, которой мы обладаем, позволила нам извлечь энергию из системы, и так, казалось бы, находящейся на максимальном уровне энтропии.
Повторю еще раз, чтобы ни у кого не оставалось сомнений: ни в одном из этих мысленных экспериментов мы не нарушили второе начало термодинамики. Да, эти эксперименты выглядят так, будто мы действительно нашли способ нарушить этот физический закон, – но стоит принять во внимание критически важную роль информации, как все становится на свои места. Информация, которую собирает и обрабатывает демон, должна каким-то образом учитываться в любой согласованной и непротиворечивой истории, включающей энтропию.
Конкретная связь между энтропией и информацией была установлена в 1940-х Клодом Шэнноном, инженером и математиком, трудившимся в «Bell Labs». [157]Одна из задач, которую решил Шэннон, состояла в поиске эффективных и надежных способов отправки сигналов по зашумленным каналам. Он высказал идею о том, что одни сообщения несут эффективно больше информации, чем другие, просто потому, что они более «удивительные» или неожиданные. Если я скажу, что солнце завтра взойдет на востоке, то не передам вам никакой особой информации, потому что этот факт и так уже был вам известен. Однако если я скажу, что завтра максимальная температура составит ровно 25 °C, то это уже будет сообщение, содержащее больший объем информации, потому что без этого вы бы не знали, какую точно температуру ожидать завтра.
Шэннон нашел способ, как формализовать эту интуитивную идею об эффективном информационном наполнении сообщения. Предположим, что мы рассматриваем набор из всех возможных сообщений определенного типа, которые мы могли бы получить (правда же, это навевает воспоминания о «пространстве состояний», с которым мы работали при обсуждении физических систем, а не сообщений?). Например, если речь идет о результатах подбрасывания монеты, то возможных сообщений только два: «орел» или «решка». До того как мы получаем сообщение, оба варианта одинаково вероятны; тот факт, что мы получаем сообщение, означает, что мы узнаем ровно один бит информации.
Если же, с другой стороны, нам рассказывают о максимальной температуре завтра днем, то набор возможных сообщений становится куда больше: скажем, это может быть любое целое число от –273 и до плюс бесконечности, представляющее собой температуру, выраженную в градусах Цельсия (температура –273 °C соответствует абсолютному нулю). Однако не все эти варианты одинаково вероятны. Летом в Лос-Анджелесе наиболее вероятна температура 27–28 °C, тогда как зафиксировать температуру –13 или +4324 °C относительно сложно. Узнав, что завтрашняя температура лежит в области этих «невероятных» значений, мы действительно получаем огромный объем информации (по всей видимости, связанной с какой-то глобальной катастрофой).
Грубо говоря, информационное наполнение сообщения возрастает по мере того, как вероятность получения данного сообщения уменьшается. Однако Шэннону хотелось большей конкретики в формулировках. В частности, он хотел показать, что если мы получим два сообщения, совершенно независимых друг от друга, то общая полученная информация будет равна сумме информации, извлеченной из каждого индивидуального сообщения. (Вспомните, что, когда Больцман разрабатывал свою формулу энтропии, одно из свойств, которые он стремился воспроизвести, заключалось в следующем: энтропия полной системы равна сумме энтропий подсистем.) Попробовав то и это, Шэннон выяснил, что самым правильным будет взять логарифм вероятности получения конкретного сообщения. В конечном итоге он пришел к такому результату: количество информации, содержащееся в сообщении, равно логарифму вероятности того, что сообщение примет данный вид, со знаком минус.
Многое из этого наверняка кажется вам удивительно знакомым, и это не случайность. Больцман связывал энтропию с логарифмом числа микросостояний в определенном макросостоянии. Однако с учетом принципа безразличия число микросостояний в макросостоянии очевидно пропорционально вероятности того, что одно из них будет случайным образом выбрано из всего пространства состояний. Низкоэнтропийное состояние аналогично удивительному, наполненному информацией сообщению, в то время как знание о том, что вы находитесь в высокоэнтропийном состоянии, не дает вам никакой особой информации. С учетом всего вышесказанного, если мы поставим в соответствие «сообщение» и макросостояние, в котором пребывает сейчас система, связь между энтропией и информацией будет очевидной: информация – это разность максимально возможной энтропии и фактической энтропии макросостояния. [158]
Есть ли у жизни смысл?
Неудивительно, что идеи о связи между энтропией и информацией приходят на ум сразу же, стоит нам начать рассуждать о взаимоотношениях между термодинамикой и жизнью. Нельзя сказать, что эти взаимоотношения так уж просты и очевидны; хотя в их наличии никто не сомневается, ученые все еще не пришли к общему мнению относительно того, что же такое «жизнь», не говоря уж о том, как все это работает. Эта область исследований находится сейчас в фазе активного развития, объединяя такие направления, как биология, физика, химия, математика, вычислительная техника и изучение сложных систем. [159]
Читать дальшеИнтервал:
Закладка: