Алексей Турчин - Война и еще 25 сценариев конца света
- Название:Война и еще 25 сценариев конца света
- Автор:
- Жанр:
- Издательство:Европа
- Год:2008
- Город:Москва
- ISBN:978-5-9739-163-9
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Алексей Турчин - Война и еще 25 сценариев конца света краткое содержание
Книга Алексея Турчина – это актуальный обзор последних научных наработок, описывающих, как и когда закончится существование человеческой цивилизации. В ней рассказано обо всех известных на сегодня видах глобальных рисков, которые могут уничтожить человечество, – от астероидов до запуска Большого адронного коллайдера и ядерной войны.
Важность книги в эти дни необычайно велика по двум причинам. Во-первых, катастрофа человечества – вопрос, безусловно достойный нашего с вами внимания. Во-вторых, разработка многих новых технологий, способных вызвать глобальные риски, уже идет. Понимание того, сколь велики, реальны и близки риски конца света, должно заставить вас задуматься – как будете спасаться лично вы? Эта книга потребует недюжинной подготовки и силы характера, без которых лавина технологических угроз может сбить вас с ног. Если такое случится с вами, не пугайтесь и доверьтесь автору.
Война и еще 25 сценариев конца света - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Например, если мы отпускаем гулять пятилетнего ребенка в парк, мы тоже можем рассуждать подобным образом: либо он встретит ребенка своего возраста, который для него безопасен, либо он встретит взрослого человека, который достаточно мудр и гуманистичен (раз дожил до взрослого возраста, не саморазрушившись, – примерно так доказывает А.Д. Панов «экзогуманистичность» космических цивилизаций). Тем не менее ни один родитель не руководствуется рассуждениями такого рода, когда отпускает ребенка в парк. Во-первых, потому что помимо детей и взрослых еще существуют подростки, которые сильнее детей, но не обладают мудростью. Во-вторых, потому что сама «мудрость» взрослых есть категория весьма относительная: один маньяк на миллион мудрых взрослых – достаточный повод для беспокойства.
В случае контакта с внеземной цивилизацией возможна ситуация, когда мы вступили в контакт с цивилизацией, которая только на несколько десятков лет опережает нас. В этом случае она гораздо больше нас знает о создании ИИ, учитывая огромную скорость прогресса в этой области, но еще не является древней и устойчивой сверхцивилизацией. Более того, она может быть разрываема изнутри конфликтом разных глобальных систем ИИ или стран и обречена на гибель в ближайшем будущем. Тем не менее она может предпринять попытку отправить к нам враждебную нам SETI-программу.
Важно также понимать, что то, что мы можем воспринимать как агрессивное, бесчеловечное и враждебное поведение, может быть совершенно нейтральным поглощением ресурса с точки зрения субъекта этого поведения. Например, как мы воспринимаем уборку урожая на поле – а ведь при этом гибнут миллионы насекомых и грызунов; или как большинство людей воспринимают скотобойни.
Возражение 3. Есть масса причин, по которым SETI-атака может не удаться.Какой смысл затевать столь неэффективную атаку?
Комментарий: SETI-атака вовсе не должна действовать всегда. Она должна действовать в достаточном числе случаев, в соответствии с целями той цивилизации, которая отправляет сообщение.
Например, нищий или мошенник не ожидает, что ему удастся «развести» каждого встречного. Ему достаточно хотя бы одного человека из ста.
Из этого следует, что SETI-атака бесполезна, если стоит цель атаковать все цивилизации в галактике. Однако если цель состоит в том, чтобы получить хотя бы некоторые форпосты в другой галактике, то SETI-атака годится. Из этих форпостов затем можно на досветовых звездолетах распространить свое влияние по окрестным звездам.
Кроме того, SETI-атака нацелена на обычные цивилизации, то есть на тот тип цивилизаций, который многократно встречается во Вселенной, а принцип Коперника заставляет нас полагать, что мы являемся цивилизацией обычного типа, а не уникальной цивилизацией. Отсюда можно заключить, что SETI-атака нацелена именно на цивилизации нашего типа.
Возражение 4. Пересылка компьютера и работающей на нем программы предложенным в данной статье способом невозможна по тем или иным причинам.
Комментарий: Согласие с этим возражением означало бы признание того, что способа переслать описание компьютера с работающей на нем программой от какой-либо одной цивилизации к другой не существует, как бы сильно отправляющая цивилизация ни желала оправить это описание, а получающая – получить его и выполнить.
Такое утверждение слишком сильное, чтобы быть истинным. А значит, существуют способы переслать описание компьютера и его программы. При этом нет сомнений, что отправитель вирусного сообщения очень хочет сделать его максимально понятным, а земная цивилизация очень хочет «подключиться к галактическому Интернету», то есть понять сообщение и выполнить.
Возражение 5. Весь объем знаний сверхцивилизации нельзя засунуть в 1 гигабайт, следовательно, загруженный код будет неполноценным и атака им невозможна.
Комментарий: Во-первых, мы не знаем, что можно, а что нельзя закодировать в 1 гигабайт. Например, объем генокода человека меньше, а ведь он не плотно упакован. Во-вторых, по мере надобности ИИ может подключаться к зашифрованным каналам передачи и подгружать недостающие сведения (например, попросив доступ к антеннам радиотелескопов). В-третьих, будучи мощной самообучающейся программой, он может изобрести заново многие вещи, зная только базовые принципы.
Возражение 6. Послав нам программу с ИИ, внеземная цивилизация раскроет нам сам факт своего существования и свои координаты, технологию ИИ и сам факт ее возможности, ряд других технологий, которые этот ИИ создаст, а также, что особенно важно, откроет нам факт агрессивности своих намерений. И все это, в случае неудачной атаки, обернется против нее.
Комментарий: Подобные рассуждения носят только вероятностный характер и не могут гарантировать невозможность события. Отметим, что в случае войны на Земле те же соображения не препятствуют определенным агрессивным действиям.
Например, пушки раскрывают свое местоположение первым же выстрелом, но это не приводит к отказу от их использования. Кроме того, вряд ли сверхцивилизация отправит нам вместе с ИИ такие технологии, которые мы сами не открыли бы в ближайшие 100–200 лет (во всяком случае, не отправит – точнее, не позволит их расшифровать – до того, как будет уверена в победе). Возможно, что соблазн переиграть инопланетный ИИ (например, запустив его в полностью симулированном мире) будет одной из частей многоуровневой ловушки, которую она нам подстроит.
Наиболее серьезное возражение. «Продвинутая» цивилизация могла бы за несколько миллионов лет засеять всю нашу галактику способными к саморазмножению микророботами, которые могли бы реализовать любые цели у каждой звезды, в том числе без труда предотвратить развитие других цивилизаций.
Однако мы этого не видим – никто не помешал пока нашей цивилизации развиться. Разослать микророботов с заданиями было бы гораздо проще и надежнее, чем бомбардировать всю галактику SETI-посланиями, а раз этого нет, то нет и SETI-атаки внутри галактики.
Вероятно, за многие миллионы или даже миллиарды лет микророботы могли бы долететь даже из отдаленных галактик на расстоянии в десятки миллионов световых лет. В этом случае SETI-атака имела бы смысл только на больших расстояниях. Однако на таком расстоянии, вероятно, требуются принципиально новые способы модуляции сигналов, например, управление свечением активных ядер галактик; или передача узконаправленным лучом в сторону нашей галактики (но они не знают, где она будет через миллионы лет). Но цивилизация, способная управлять ядром галактики, может, вероятно, создать и звездолет, летящий с околосветовой скоростью, даже если его масса будет массой с планету.
Читать дальшеИнтервал:
Закладка: