Алексей Турчин - Война и еще 25 сценариев конца света
- Название:Война и еще 25 сценариев конца света
- Автор:
- Жанр:
- Издательство:Европа
- Год:2008
- Город:Москва
- ISBN:978-5-9739-163-9
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Алексей Турчин - Война и еще 25 сценариев конца света краткое содержание
Книга Алексея Турчина – это актуальный обзор последних научных наработок, описывающих, как и когда закончится существование человеческой цивилизации. В ней рассказано обо всех известных на сегодня видах глобальных рисков, которые могут уничтожить человечество, – от астероидов до запуска Большого адронного коллайдера и ядерной войны.
Важность книги в эти дни необычайно велика по двум причинам. Во-первых, катастрофа человечества – вопрос, безусловно достойный нашего с вами внимания. Во-вторых, разработка многих новых технологий, способных вызвать глобальные риски, уже идет. Понимание того, сколь велики, реальны и близки риски конца света, должно заставить вас задуматься – как будете спасаться лично вы? Эта книга потребует недюжинной подготовки и силы характера, без которых лавина технологических угроз может сбить вас с ног. Если такое случится с вами, не пугайтесь и доверьтесь автору.
Война и еще 25 сценариев конца света - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
С научной точки зрения впервые эту проблему рассмотрел Р. Кэрриген, который написал статью «Следует ли обеззараживать сигналы SETI», [33] Carrigan R.A. Jr. Do potential SETI signals need to be decontaminated? Acta Astronautica. Volume 58, Issue 2, January 2006. Pp. 112–117. http://home.fnal.gov/~carrigan/SETI/SETI_Hacker_AC-03-IAA-8-3-06.pdf . Русский перевод: Кэрриген P . Следует ли обеззараживать сигналы SETI? http://www.proza.ru/texts/2007/11/20/582.html
которую я перевел на русский язык. В начале своих исследований проблемы Кэрриген высказал опасения, что неотфильтрованные сигналы из космоса загружаются на миллионы ничем не защищенных машин программы SETI-Home. (Суть программы состоит в том, что свободное время простаивающих компьютеров по всему миру используется для анализа сигналов, полученных радиотелескопами, и поиска в них закономерностей, которые могли бы быть признаками искусственных сигналов. Пакеты для обработки рассылаются в автоматическом режиме по Интернету.) Однако он встретил жесткую критику со стороны программистов, которые указали на то, что, во-первых, область данных и область программ разделены, а во-вторых, компьютерные коды, на которых написаны программы, настолько уникальны, что угадать их невозможно, а, следовательно, случайная загрузка и исполнение опасного кода из космоса невозможны.
В своей статье Кэрриген сосредотачивается на легкости передачи гигабайт данных на межзвездные расстояния даже при современном уровне техники (приводятся соответствующие вычисления), а также указывает, что межзвездный сигнал может содержать наживку, которая побудит людей собрать по чертежам опасное устройство. При этом Кэрриген не отказался от гипотезы о том, что в некоторых обстоятельствах инопланетный вирус может заразить земные компьютеры напрямую и без человеческой помощи. (Например, если поступающие данные будут подвергнуты автоматическому анализу на предмет поиска в них алгоритмов и компьютерных программ.)
На Земле была создана CosmicOS [34] http://cosmicos.sourceforge.net/
– способ записи самодостаточных сообщений с использованием только четырех символов, которые могли бы быть однозначным образом интерпретированы как компьютерная программа и содержали бы в себе все необходимое для своего исполнения. Цель создания такого языка – отправка сообщений инопланетным цивилизациям или далеким потомкам. А раз есть идея отправлять таким образом сообщения, то отсюда один шаг до поиска сообщений, закодированных таким же способом.
В 2006 году была написана статья Е. Юдковски «ИИ как позитивный и негативный фактор глобального риска», [35] Yudkowsky Е . Artificial intelligence as a positive and negative factor in global risk. Forthcoming in global catastrophic risks // Eds. by Nick Bostrom and Milan Cirkovic. UK, Oxford University Press, to appear 2008. (Русский перевод: Юдковски E . Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/texts/2007/03/22-285.html )
где он показал, что весьма вероятно, что возможен быстро развивающийся универсальный искусственный интеллект, что такой интеллект был бы крайне опасным в случае, если бы он был неверно запрограммирован, и, наконец, что возможность появления такого ИИ и рисков, с ним связанных, существенно недооценивается.
Кроме того, Юдковски ввел понятие Seed AI– зародыш ИИ – то есть минимальной программы, способной к неограниченному саморазвитию с сохранением неизменной главной цели. При этом размер Seed Сможет быть всего лишь порядка сотен килобайт. (Например, типичным представителем Seed AI является младенец человека, при этом часть генокода, отвечающая за головной мозг, составляет 3 процента от всего генокода человека, имеющего объем в 500 мегабайт, то есть 15 мегабайт, а если учесть долю мусорной ДНК, то и еще меньше.)
Атака враждебного искусственного интеллекта на уже сложившееся галактическое сообщество по информационным каналам связи хорошо показана в фантастическом романе В. Винджа «Пламя над бездной». [36] Виндж В. Пламя над бездной, 1991.
В этом разделе мы рассмотрим механизм возможной атаки по каналам SETI, не рассматривая пока вопрос о целях такой атаки. В следующем разделе мы рассмотрим вопрос, насколько реально, чтобы другая цивилизация захотела и стала посылать такое сообщение, и каковы шансы на него наткнуться.
В начале отметим, что для доказательства уязвимости достаточно найти хотя бы одну дыру в безопасности. Вместе с тем, чтобы доказать безопасность, нужно устранить все возможные дыры. Сложность этих задач значительно различается, что хорошо известно специалистам по компьютерной безопасности. Именно это различие привело к тому, что почти все компьютерные системы были взломаны. Постараюсь продемонстрировать одну возможную, и даже, на мой взгляд, вероятную, уязвимость программы SETI.
Прежде всего хочу предостеречь читателя от мысли, что если он найдет ошибки в моих рассуждениях, то он автоматически докажет безопасность программы SETI – поскольку возможны альтернативные пути атаки. В соответствии с логикой Юдковски о том, что невозможно предсказать поведение более интеллектуальной системы, но зато возможно предсказать результат такого поведения (например, при игре в шахматы против гроссмейстера невозможно предсказать, как именно он будет против меня играть, но возможно предсказать результат игры – мат), хочу обратить внимание читателя также на то, что я – человек с IQ в районе 120 и потратил на обнаружение этой уязвимости не более года размышлений. Наконец, предлагаемый мною алгоритм не единственный, и далее мы обсудим кратко другие варианты.
В наших рассуждениях мы будем опираться на принцип Коперника, то есть считать, что мы являемся обыкновенными наблюдателями в обычной ситуации. Поэтому Землю мы будем считать обыкновенной планетой, развивающейся обычным образом. Алгоритм атаки:
1. Цивилизация – отправитель сигнала создает маяк в космосе, который привлекает своим явно искусственным сообщением.
Например, это может быть звезда, окруженная сферой Дайсона (то есть материальной сферой, полностью улавливающей свет звезды), в которой находятся отверстия или зеркала, попеременно открывающиеся и закрывающиеся. В силу этого звезда будет мигать с периодом в несколько минут – быстрее невозможно, так как от разных отверстий свет идет разное расстояние. Тем не менее такой маяк может быть виден на расстоянии миллионов световых лет.
Возможны и другие маяки, важно, что маяк будет сигналить именно на большие расстояния. (Например, если подмешать даже небольшое количество нетипичного вещества в атмосферу звезды, то его спектральные линии будут видны на огромные расстояния.) Рядом с маяком находится радиопередатчик с гораздо более слабым сигналом, но гораздо более информационно насыщенным. Маяк привлекает внимание к этому источнику.
Читать дальшеИнтервал:
Закладка: