Тор Норретрандерс - Иллюзия пользователя. Урезание сознания в размерах
- Название:Иллюзия пользователя. Урезание сознания в размерах
- Автор:
- Жанр:
- Издательство:неизвестно
- Год:неизвестен
- ISBN:нет данных
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Тор Норретрандерс - Иллюзия пользователя. Урезание сознания в размерах краткое содержание
В книге «Иллюзия пользователя: Урезание сознания в размерах» («The User Illusion: Cutting Consciousness Down to Size») датский ученый и писатель Тор Норретрандерс пишет: «Шоу начинается еще до того, как мы решаем провести его!» Затем он продолжает: «Прежде всего человек не является сознательным. Человек в основном несознателен. Идея сознательного „Я“, некого домоправителя всего того, что входит в человека и исходит из него, является иллюзией — может быть полезной, но все равно иллюзией»
Иллюзия пользователя. Урезание сознания в размерах - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Если мы не будем знать, сколько микросостояний соответствует каждому макросостоянию, мы вообще не можем вести речи об информации. Только когда мы определяем макро- и микросостояния, мы можем знать количество информации. Точно так же, как и в случае энтропии.
Информация очень тесно связана с энтропией: энтропия данного макросостояния измеряется количеством соответствующих ему микросостояний. Чем их больше, тем выше энтропия. Информация — это нечто, чем мы обладаем, когда знаем, какие микросостояния задействованы.
Буква в тексте имеет энтропию, которая определяется тем фактом, что на ее месте мог быть один из 26 символов. Информация — это знание о том, каким именно символом она является. Информационная ценность знания о том, какое микросостояние задействовано, зависит от того, сколько вообще микросостояний может быть задействовано. У символа есть определенная энтропия, и знание о его реальном микросостоянии — какая буква? — таит в себе определенное количество информации, которое соответствует энтропии данного символа.
Таким образом, мы не можем определить энтропию или информацию, если нам не известен контекст.
Отсюда происходит множество непониманий, в первую очередь потому, что «информация» — это нагруженное значением слово со знаком плюс, выражение, которое мы спонтанно ассоциируем с чем-то «хорошим». В течение десятков лет информация ассоциировалась с порядком — а энтропия с беспорядком.
Эта идея ведет свое происхождение от математика Норберта Винера, основателя кибернетики — теории контрольных систем. В своей книге «Кибернетика» 1948 года он говорит, что информационная теория пришла к нему примерно в то же время, как и к Шеннону (который опубликовал ее в 1948 году). Несколькими строчками далее Винер провозглашает, что «точно так же, как количество информации, в системе есть мера ее степени организованности, так что энтропия системы — это мера ее дезорганизации».
Эта точка зрения находится весьма далеко от точки зрения Шеннона. Если же говорить точнее, то идея Винера является противоположностью тому, что утверждал Шеннон. Но она получила большое влияние особенно в свете изучения демона Максвелла. Леон Бриллоун с энтузиазмом развивал идею Винера, обобщив ее в концепции негэнтропии — «без-беспорядка», то есть порядка.
Звучит интригующе — но это не может быть верным. И в действительности чтобы эта идея стала верной, Бриллоуну пришлось изменить знак концепции информации Шеннона. Из этого изменения выросли десятки лет непонимания. Информация Шеннона — это энтропия: количество выборов, количество микросостояний, неопределенность. Бриллоун же просто поменял символ: информация — это порядок, то есть негативная энтропия.
Восприятие информации как порядка лежит ближе к нашему повседневному пониманию «информации», нежели понятие Шеннона. Так что понятие негэнтропии Бриллоуна и Винера оказалось соблазнительным. Проблема просто заключается в том, что нельзя просто играть с символами в уравнении, иначе можно полностью лишить его смысла.
Датский физик Педер Воэтманн Кристиансен говорит об этом так: «Люди думают, что им удастся постичь сущность смысла, поменяв знак бессмыслицы». Винер и Бриллоун оказались слишком нетерпеливыми.
Энтропия — это мера количества информации, знание которой нас не интересует. Информация — это то, что можно в изобилии найти в состоянии, в котором энтропия высока. Но это не значит, что мы обладаем этой информацией — это означает только, что она там есть и что мы могли бы ее получить, если бы она была нам нужна.
Информация — это то, что можно обнаружить в беспорядке. В беспорядке больше информации, нежели в порядке. Чем больше беспорядок, тем больше информации. Чем больше микросостояний, тем больше информации. Чем больше микросостояний воплощены в макросостоянии, тем больше информации мы отбрасываем, когда сосредотачиваемся на макросостоянии. Макросостояние «тепло» соответствует невообразимо огромному числу микросостояний, о которых мы не знаем, если просто обращаем внимание на температуру.
Беспорядок сложно описать. Особенно в деталях.
Покойный американский физик Ричард Файнман выразил это так: «Мы измеряем беспорядок тем количеством способов, которым может быть изменено внутреннее содержание таким образом, чтобы извне все выглядело по-прежнему».
Энтропия — это мера количества информации, которую мы не принимаем во внимание, когда рассматриваем систему снаружи: движение газа как температура, серия букв как набор символов. Если мы внутри системы, мы можем получить эту информацию, если она будет нам нужна. Если мы снаружи системы, мы «отсеиваем» ее — или вообще никогда не обладаем ею.
Информация — это выражение разницы между нахождением внутри и снаружи: температура/молекулы, количество букв/сообщение. Информация и энтропия сообщают нам нечто о разнице между описанием или контролем системы снаружи и изнутри.
Если мы посмотрим на газ снаружи, со своего уровня описания, где нас больше всего интересует тепло, мы можем суммировать все в сжатом общем описании: макросостояние тепла измеряется в виде температуры. Если же мы посмотрим на газ с «его собственного» уровня описания, где все состоит из молекул в движении, нам придется перечислить огромное количество бит, которые описывают огромное количество простых состояний: микросостояния молекулярного движения, которые измеряются как скорости.
Если мы будем рассматривать газ снаружи, мы сможем выделить определенное количество энергии тепла постольку, поскольку мы соблюдаем второй закон термодинамики, который описывает газы извне. Если мы взглянем на него изнутри, мы можем получить намного больше энергии из молекулярного движения газа — но это если нам удастся избавиться от всей той информации, которую мы уже получили.
Пока мы находимся снаружи, мы можем быть полностью индифферентны к той информации, которая имеется внутри газа. Но в это время мы обязаны соблюдать второй закон термодинамики и называем эту информацию «энтропия».
Если мы хотим получить доступ к энергии хаотического теплового движения, мы должны признать все микросостояния молекулярного движения, которые до этих пор мы игнорировали, просто заявляя, что тепло подразумевает определенный уровень энтропии. Мы должны получить информацию обо всех и каждых из этих микросостояний.
Но теперь у нас проблема: нам придется либо напрячься, чтобы сохранить контроль над всей этой информацией — или снова ее забыть. В долгосрочной перспективе и то, и другое окажется слишком дорогостоящим.
Демон Максвелла хочет описать газ сразу и изнутри, и снаружи. Он хочет знать, где находятся молекулы — и в то же самое время наслаждаться теплом. Но так не получится, даже если вы и демон.
Читать дальшеИнтервал:
Закладка: