Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект
- Название:Совместимость. Как контролировать искусственный интеллект
- Автор:
- Жанр:
- Издательство:Альпина нон-фикшн
- Год:2021
- Город:Москва
- ISBN:978-5-0013-9370-2
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект краткое содержание
В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта?
Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные.
О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте.
Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги — объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход.
Введение понятия полезности — невидимого свойства — для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения.
Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным.
Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.
Совместимость. Как контролировать искусственный интеллект - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Корпорации дружно уверяют нас, что ИИ не угрожает трудовой занятости или человечеству, потому что мы просто создадим команды людей, сотрудничающих с ИИ. Например, в упомянутом ранее письме Дэвида Кенни Конгрессу утверждается, что «обладающие высокой ценностью системы ИИ специально разработаны для того, чтобы дополнить человеческий разум, а не заменить работников» [222] Мнения о том, почему ИИ не лишит нас работы: Kenny, «IBM’s open letter».
.
Циник заметил бы, что это всего лишь пиар-ход, призванный подсластить горькую пилюлю — исчезновение работников-людей из числа клиентов корпораций, но я считаю, что это все-таки шажок вперед, пусть маленький. Действительно, сотрудничество людей и ИИ — желанная цель. Очевидно, что команда не добьется успеха, если задачи ее членов будут рассогласованными, поэтому акцент на команды в составе людей и ИИ подчеркивает необходимость решить основополагающую проблему согласования ценности. Разумеется, подчеркнуть проблему не то же самое, что решить ее.
Объединение человека и машины в команду в своем крайнем проявлении превращается в слияние человека и машины, когда электронное оборудование подключается непосредственно к мозгу и становится частью единой, расширенной, сознающей сущности. Футурист Рэй Курцвейл так описывает эту возможность [223] Пример положительного отношения Курцвейла к слиянию человеческого мозга с ИИ: Ray Kurzweil, interview by Bob Pisani, June 5, 2015, Exponential Finance Summit, New York, NY.
:
Мы собираемся непосредственно слиться с ним, мы собираемся стать искусственными интеллектами… Если заглянуть в конец 2030-х или в 2040-е гг., наше мышление будет по большей части небиологическим, и небиологическая часть в конечном счете станет такой разумной и обретет такие огромные возможности, что сможет полностью моделировать, имитировать и понять биологическую часть.
Курцвейл оценивает эти изменения положительно. Илон Маск, в свою очередь, считает слияние человека и машины в основном оборонительной стратегией [224] Статья, цитирующая слова Илона Маска о нейронном кружеве: Tim Urban, «Neuralinkf and the brain’s magical future», Wait But Why, April 20, 2017.
:
Если мы достигнем тесного симбиоза, ИИ не будет «другим» — он будет вами и будет иметь такие же отношения с корой вашего головного мозга, какие ваша кора имеет с лимбической системой… Перед нами встанет выбор: остаться позади и стать фактически бесполезными или своего рода домашним питомцем — знаете, чем-то вроде кошки — либо постепенно найти какой-то способ вступить в симбиоз и слиться с ИИ.
Компания Маска Neuralink Corporation работает над устройством, получившим название «нейронное кружево», по технологии, описанной в романах Иэна Бэнкса из цикла «Культура». Целью является создание надежной постоянной связи между корой головного мозга человека и внешними компьютерными системами и сетями. Имеется два главных препятствия технического характера: первое — трудности соединения электронного устройства с тканями мозга, их энергопитание и связь с внешним миром; второе — тот факт, что мы почти совершенно не понимаем нейронной реализации высоких уровней когнитивной деятельности в мозге, следовательно, не знаем, куда присоединять устройство и какие процессы оно должно выполнять.
Я сомневаюсь, что препятствия, описанные в предыдущем абзаце, непреодолимы. Во-первых, такие технологии, как нейронная пыль , быстро снижают размер и требования к питанию электронных устройств, которые могут быть подсоединены к нейронам и обеспечивать сенсорику, стимуляцию и внутричерепную коммуникацию [225] Новейшие достижения проекта «нейронной пыли» в Беркли: David Piech et al., «StimDust: A 1.7 mm3, implantable wireless precision neural stimulator with ultrasonic power and communication», arXiv: 1807.07590 (2018).
. (К 2018 г. технология достигла размеров около 1 мм 3, так что, возможно, более точный термин — нейронный песок .) Во-вторых, сам мозг имеет потрясающие возможности адаптации. Принято было считать, например, что нам нужно понять код, с помощью которого мозг управляет мышцами руки, прежде чем можно будет успешно подсоединить мозг к роботу-манипулятору, и что мы должны разобраться, как улитка уха анализирует звук, чтобы можно было создать ее заменитель. Оказалось, что мозг делает большую часть работы за нас. Он быстро постигает, как заставить роботизированную руку делать то, что хочет ее владелец, и как отображать информацию, поступающую в имплант внутреннего уха, в форме различимых звуков. Более чем вероятно, что мы наткнемся на способы снабдить мозг дополнительной памятью, каналами коммуникации с компьютерами и, возможно, даже каналами коммуникации с мозгом других людей — даже не понимая в полной мере, как все это работает [226] Сьюзан Шнайдер в книге «Искусственный Вы» (Susan Schneider, Artificial You: AI and the Future of Your Mind (Princeton University Press, 2019)) указывает на риски невежества, сопутствующие таким потенциальным технологиям, как загрузка информации в мозг и нейропротезирование: в отсутствии реального понимания, могут ли электронные устройства обладать сознанием, и с учетом постоянных блужданий философии в вопросе об устойчивой личной идентичности мы рискуем непреднамеренно покончить с собственным сознательным существованием или заставить страдать сознающие машины, не понимая, что они обладают сознанием.
.
Независимо от технологической осуществимости этих идей, следует задаться вопросом, обещает ли это направление исследований наилучшее возможное будущее для человечества. Если людям нужно сделать себе операцию на мозге только для того, чтобы пережить угрозу ими же созданной технологии, вероятно, мы где-то ошиблись.
Это распространенная логика — проблемное поведение ИИ порождается постановкой задач определенного типа; исключаем эти задачи, и все прекрасно. Скажем, Ян Лекун, первопроходец глубокого обучения, директор Facebook по исследованию ИИ, часто приводит эту мысль, когда старается преуменьшить риск, который несет ИИ [227] Интервью Яна Лекуна о рисках ИИ: Guia Marie Del Prado, «Here’s what Facebook’s artificial intelligence expert thinks about the future», Business Insider , September 23, 2015.
:
У ИИ нет причины для инстинкта самосохранения, ревности и прочего… У ИИ-систем не будет этих деструктивных «эмоций», если мы не встроим в них эти эмоции. Не представляю, что бы побудило нас к этому.
В аналогичном ключе строит гендерный анализ Стивен Пинкер [228] Вывод о существовании проблем контроля ИИ, вытекающих из избытка тестостерона: Steven Pinker, «Thinking does not imply subjugating», in What to Think About Machines That Think , ed. John Brockman (Harper Perennial, 2015). 30.
:
Рисующие будущее с ИИ в виде антиутопии проецируют шовинистическую психологию альфа-самца на понятие интеллектуальности. Они предполагают, что сверхчеловечески интеллектуальные роботы станут ставить перед собой такие цели, как свержение своих повелителей или порабощение мира… Показательно, что многие наши технопророки даже не рассматривают возможность, что ИИ естественным образом будет развиваться по феминному типу: способный решить любые проблемы, но не имеющий ни малейшего желания уничтожать невинных или господствовать над цивилизацией.
Читать дальшеИнтервал:
Закладка: