Олег Фейгин - Принцип апокалипсиса: сценарии конца света
- Название:Принцип апокалипсиса: сценарии конца света
- Автор:
- Жанр:
- Издательство:Инфра-Инженерия
- Год:2018
- Город:Москва
- ISBN:978-5-9729-0232-3
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Олег Фейгин - Принцип апокалипсиса: сценарии конца света краткое содержание
Принцип апокалипсиса: сценарии конца света - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Здесь могут быть найдены новые решения многих задач, особенно связанных со сферой мышления, которую называют подсознательной, бессознательной, или интуитивной.
Британские исследователи проблемы искусственного интеллекта в конце двадцатого века предложили следующий прогноз глобальной роботизации на начало третьего тысячелетия:
2004 год: появление первых кибернетических школьных учителей – «искинов»;
2005 год: подавляющее большинство людей не могут отличить, кто из их виртуальных друзей кибернетический мозг, а кто – человек;
2006 год: появляются интерактивные игрушки, способные на «эмоциональное» общение с детьми;
2007 год: роботы полностью заменяют людей на фабриках и заводах с конвейерным производством;
2010 год: четверть звезд шоу-бизнеса составляют компьютерные анимационные персонажи;
2010 год: роботы-насекомые используются в военных операциях;
2011 год: большую часть программного обеспечения пишут искины;
2012 год: люди используют электронные стимуляторы удовольствия и имплантанты как символ положения в обществе; роботы заменяют людей в домашнем хозяйстве и в медицине;
2015 год: появляются технологии распознавания мыслей для создания искусственных снов; для искинов создается своя индустрия развлечений;
2017 год: учителя-искины добиваются лучших результатов, чем учителя-люди; роботы становятся способны к самодиагностике и самовосстановлению;
2018 год: искин впервые получает Нобелевскую Премию;
2020 год: электронные формы жизни получают некоторые юридические права;
2025 год: в развивающихся странах роботов становится больше, чем людей; люди начинают использовать имплантаты типа «искусственный мозг»;
2030 год: преступникам имплантируют чипы для контроля эмоций; роботы и физически, и умственно превосходят людей; появляются первые роботы-терминаторы.
Вполне очевидно, что все прогнозы относительно «кибернетической эволюции» ИИ оказались очень далекими от действительности. Это и настораживает, и радует. Настораживает тем, что даже сами специалисты не могут понять, как же будут развиваться их электронные детища. А радует – потому, что детально разработанные в философских трудах и научно-фантастических романах сценарии гибели человечества в схватке с им же порожденным ИИ, скорее всего, так же далеки от реальности, как и прогнозы об искинах.
Обновление нейрофизиологии на механистической основе есть только половина задачи, которая предстоит физиологам будущего. Я убежден, что когда наступит равновесие интеллектуальных достижений будущего, мы увидим, что не только физиологи перенимали в свое время идеи у физиков, но и физики будут использовать многие идеи физиологов.
Н. Винер. Перспективы нейрокибернетикиЧто же мы имеем сегодня в реальности? В магазинах бытовой техники все чаще стали появляться экземпляры с таинственным значком «А1» (Artificial Intelligence), вызывающие бурный восторг покупателей. В японской столице никто уже не удивляется мигающим огоньками тумбам кибердворников, самостоятельно регулирующим пространство уборки и силу поглощения мусора в зависимости от заполнения своего бункера. Новые поколения сильно поумневших плазменных и жидкокристаллических телевизоров умудряются подстраивать контрастность, не изменяя яркости картинки, а интеллектуальные стиральные машины выбирают температуру воды, продолжительность стирки и скорость отжима в соответствии с весом и типом белья.
После признания искусственного интеллекта отдельной областью кибернетической науки произошло его разделение на два основополагающих направления: « нейрокибернетика » и « кибернетика черного ящика». Эти направления развиваются практически независимо, существенно различаясь как методами исследования, так и технологиями создания искусственного интеллекта. И только в настоящее время стали заметны тенденции к объединению этих частей вновь в единое целое.
Правда, как всегда, существует и гибридный подход, как комбинация двух основных. Часть вычислений выполняют нейрокомпьютеры, а часть – обычные машины, но с использованием специальных программ.
Все подобные выводы основываются на новом нейрокибернетическом принципе: не имеет значения, как устроено «мыслящее» устройство. Главное, чтобы на заданные входные воздействия оно реагировало так же, как и человеческий мозг. Сторонники этого направления считают, что человек не должен слепо следовать природе в своих научных и технологических поисках. Так, например, очевиден успех колеса, которого не существует в природе, или самолета, не машущего крыльями, подражая птице.
Однако это лишь мирная сторона вопроса. Военные кибернетики также не оставляют своим вниманием вопросы ИИ.
Это проясняет картину будущего противостояния интеллектов. Судя по всему, человечеству придется сразиться не с классическим механическим ИИ, а с новой расой киборгов. Вполне возможно, что движущей силой подобного конфликта станет воля сверхразвитых нейрокомпьютеров, сохранивших у себя негативные стороны человеческого поведения: немотивированную агрессивность, стяжательство, жажду власти и т. п.
Кто может победить в подобном кибернетическом армагеддоне?
Вполне может быть, что – никто! Просто человечество сменит новая мыслящая формация, основанная, скажем, на принципах квантового сознания…
Глава 12
Восстание интеллектуальных машин
Когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить. Мы ведь уже не можем осмыслить и проанализировать те объемы данных, которые сами же и производим, – и нам приходится доверяться компьютеру. Вы можете спросить у машины: можешь что-то предсказать на основе этих данных? Она ответит: да, конечно. Вы спросите: а как ты это делаешь? Она скажет: прости, но ты не поймешь.
И все это – уже реальность.
М. Косииски, руководитель Центра психометрии Кембриджского университета.Мировое научное сообщество в последнее время активно вовлечено в обсуждение рисков создания искусственного интеллекта (ИИ), который может стать угрозой существованию человечества. Очередную волну «киберофобии» (боязни кибернетики) подняли высказывания знаменитого британского физика-теоретика Стивена Хокинга, пришедшего к выводу, что ИИ способен положить конец человеческому роду. Его выводы основываются на ограниченных физиологией возможностях человека – с одной стороны, и быстрым развитием искинов-роботов – с другой.
Интервью Хокинга
Полезный искусственный интеллект мог бы сосуществовать с людьми и увеличивать наши возможности. Но искусственный интеллект, вышедший из-под контроля, может оказаться трудно остановить. При разработке искусственного интеллекта необходимо обеспечить соблюдение требований этики и мер безопасности…
Интервал:
Закладка: