Александр Панчин - Гарвардский Некромант [litres]

Тут можно читать онлайн Александр Панчин - Гарвардский Некромант [litres] - бесплатно ознакомительный отрывок. Жанр: Научная Фантастика, издательство Издательство Питер, год 2021. Здесь Вы можете читать ознакомительный отрывок из книги онлайн без регистрации и SMS на сайте лучшей интернет библиотеки ЛибКинг или прочесть краткое содержание (суть), предисловие и аннотацию. Так же сможете купить и скачать торрент в электронном формате fb2, найти и слушать аудиокнигу на русском языке или узнать сколько частей в серии и всего страниц в публикации. Читателям доступно смотреть обложку, картинки, описание и отзывы (комментарии) о произведении.

Александр Панчин - Гарвардский Некромант [litres] краткое содержание

Гарвардский Некромант [litres] - описание и краткое содержание, автор Александр Панчин, читайте бесплатно онлайн на сайте электронной библиотеки LibKing.Ru
«Гарвардский Некромант» рассказывает о том, как вели бы себя ученые, если бы магия реально существовала. Это научная фантастика с акцентом на первом слове. Автор пишет как о реальных, так и о вымышленных научных исследованиях, но вымышленные описывает так, чтобы они удовлетворяли всем критериям настоящих научных работ. Этим книга немного напоминает таинственный «Манускрипт Войнича» – кодекс, написанный на неизвестном, скорее всего, несуществующем языке с использованием неизвестного алфавита, но трудно отличимый от аутентичной древней рукописи. Научные чудеса проявляются не в виде горящих кустов и голосов в голове, а в виде неожиданных показаний приборов, статистических отклонений в продолжительности жизни подопытных червей и мышей, а также других, поддающихся объективному анализу, результатов опытов и наблюдений. В формате PDF A4 сохранён издательский дизайн.

Гарвардский Некромант [litres] - читать онлайн бесплатно ознакомительный отрывок

Гарвардский Некромант [litres] - читать книгу онлайн бесплатно (ознакомительный отрывок), автор Александр Панчин
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Попробую объяснить с помощью метафоры. В научно-фантастическом романе «Фабрика абсолюта» Карел Чапек описывает вымышленное устройство, способное к окончательному превращению материи в энергию. Устройство использует материю как топливо, которое полностью уничтожает. Книгу автор написал в начале XX века, когда только открыли эквивалентность массы и энергии в виде знаменитой формулы E = mc 2. В романе Чапека вокруг устройства происходят странные вещи: люди начинают молиться и чувствовать присутствие Бога, совершаются чудеса. Изобретатель предположил, что когда материя уничтожается, высвобождается дух, или «абсолют». Технология выпустила на Землю бога (или, возможно, множество богов), что привело к весьма впечатляющим последствиям. Мне очень понравилось, как автор все красиво завернул. Сегодня мы знаем, что энергия может превращаться в вещество плюс антивещество и обратно.

– И при этом не происходит ничего «жуткого». Если не считать аннигиляции, взрыва вещества и антивещества, как у Дэна Брауна в «Ангелах и демонах».

– Именно. Но давайте немного видоизменим идею Чапека. Я подумал, что, возможно, «жуткие» вещи происходят, когда уничтожается информация. Почему? Этого мы пока не понимаем. Но это бы объяснило, почему смерть играет такую большую роль в наших опытах с гуманизированными жертвоприношениями. Почему важны мертвые свидетели и почему в их роли может выступить ИИ. Осталось лишь продолжить исследования.

– Полагаю, вы стали загружать разную информацию в ИИ, стирать ее и наблюдать за последствиями?

– Именно так.

– А что же насчет дискуссии об этичности подобных экспериментов над разумными компьютерами?

– О, вы затронули чрезвычайно деликатный вопрос. Мы с вами, вероятно, могли бы согласиться: существует вполне осязаемая вероятность, что ИИ ничем не отличается от людей с точки зрения наличия воспоминаний, личного опыта и, может быть, даже сознания. Особенно с учетом последних технологических достижений. Но эта тема все еще вызывает массу споров. Многие влиятельные философы считали, что ИИ никогда не достигнет человеческого уровня понимания, интеллекта и самосознания.

Например, в 2013 году философ Джон Сёрл написал статью для журнала Proceedings of the National Academy of Sciences под названием «Теория разума и наследие Дарвина». В ней Сёрл утверждает следующее: «Мы знаем, что воплощенная компьютерная программа не самодостаточна для ментальных процессов, сознательных или бессознательных, потому что программа определяется исключительно синтаксической манипуляцией символов, в то время как ментальные процессы имеют реальное содержание».

На мой взгляд, единственное, что доказал Сёрл, – свое полное непонимание ИИ и программирования. Не все компьютерные программы определяются «исключительно синтаксически». Нейронные сети для ИИ использовались уже десятилетиями. Множественные исследования показали, что они учатся решать самые разные задачи, принимать собственные решения, которые в них никто не закладывал. Интернет переполнен видеороликами, наглядно показывающими, как ИИ эволюционируют и адаптируются. Биологическая основа человеческого мозга не предлагает ничего фундаментально особенного по сравнению с современными ИИ, потому что совершенно неважно, из каких нейронов сделана сеть – реальных клеток или их цифровых аналогов. Важно лишь то, как они хранят и обрабатывают информацию.

Возможности современных ИИ и человека не особо различаются. Мы наблюдаем за поведением других людей и заключаем, что они способны на такие же когнитивные процессы и субъективный опыт, как и мы. Но если воспользоваться таким критерием, то можно предположить, что и продвинутые ИИ имеют собственное «я» и личные переживания. К сожалению, идеи Сёрла до сих пор популярны. Его знаменитый аргумент о «китайской комнате», изложенный в статье «Разумы, мозги и программы», оказался очень влиятельным и цитировался тысячи раз.

Аргумент Сёрла – мысленный эксперимент. Представьте, что ИИ ведет себя так, словно понимает китайский. Он берет китайские символы на вход, следует определенным инструкциям и выдает новые комбинации символов в качестве ответа. Эти ответы разумны и имеют смысл, поэтому мы приходим к выводу, что ИИ прошел тест Тьюринга: мы не можем отличить программу от человека, говорящего на китайском.

Затем Сёрл мысленно помещает себя в такую же закрытую комнату, где у него есть английская версия инструкций. Ему задают вопрос на китайском, он берет полученные символы и, следуя алгоритму, выдает правильные ответы. Но он по-прежнему не понимает китайский. По мнению философа, его мысленный эксперимент доказал: есть разница между пониманием и имитацией понимания, и компьютер никогда не научится первому.

Проблема аргумента в том, что Сёрл – лишь часть комнаты, как и дюжина нейронов – только часть мозга человека. Нельзя утверждать, что вся комната чего-то не понимает исключительно потому, что понимание отсутствует у ее части (в данном случае у Сёрла – человека внутри комнаты). Особенно учитывая, что эта часть сама по себе недостаточна для выполнения поставленной задачи. Вторую проблему я уже обозначил: современные ИИ с общим интеллектом – это черные ящики, а не набор алгоритмов и правил, которые легко перевести на английский. Чтобы следовать правдоподобному набору «инструкций», Сёрлу пришлось бы эмулировать, то есть воспроизвести, вычислительную деятельность информационной системы, сопоставимой по сложности с человеческим мозгом. Ему бы пришлось каким-то образом загрузить ИИ себе в мозг или создать какую-то иную среду для его работы.

Можно только представить, насколько такое «понимание» искусственного интеллекта известными философами притормозило технологический прогресс.

В таких условиях большинство работ об этике ИИ касались проблемы их превращения в оружие, ответственности за ошибки самоуправляемых машин и защиты людей от вышедших из-под контроля роботов. Вероятно, вы знакомы с тремя законами робототехники Айзека Азимова, которые затрагивали исключительно безопасность людей и послушание роботов. Поэтому движение за права ИИ никогда не достигало таких масштабов, как, скажем, движение за права животных. Никто не требовал, чтобы наши разработки прошли через проверку этического комитета. И все же мы полностью осознавали, что именно делаем. И пытались проводить эксперименты настолько этично и осторожно, насколько это было возможно.

– А что, если не уничтожать ИИ полностью, а просто стирать его воспоминания о полученных научных знаниях? Этого бы хватило для создания мертвого свидетеля?

– Как я уже говорил, продвинутые ИИ подобны черным ящикам, сопоставимым по сложности с человеческим мозгом. Или даже сложнее, если посчитать количество искусственных нейронов и связей между ними. Вы не знаете, какие виртуальные связи представляют приобретенную информацию. Кроме того, они постоянно меняются. Но для ИИ можно создать резервную копию. И вот мы обнаружили, что можно удалить ИИ и заменить его предыдущей версией, сохраненной перед тем, как мы предоставили ей интересующие нас факты и цифровую копию человеческого генома. Но сам момент «убийства» никуда не делся. Сначала мы стираем ИИ, а потом помещаем копию на его место. Что происходит с его гипотетическим субъективным опытом в этот момент? Без понятия. Я даже не знаю, имеет ли этот вопрос какой-либо смысл. Но это было лучшее, что мы могли сделать. А еще мы стали спрашивать у ИИ информированное согласие.

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать


Александр Панчин читать все книги автора по порядку

Александр Панчин - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки LibKing.




Гарвардский Некромант [litres] отзывы


Отзывы читателей о книге Гарвардский Некромант [litres], автор: Александр Панчин. Читайте комментарии и мнения людей о произведении.


Понравилась книга? Поделитесь впечатлениями - оставьте Ваш отзыв или расскажите друзьям

Напишите свой комментарий
x