Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект
- Название:Совместимость. Как контролировать искусственный интеллект
- Автор:
- Жанр:
- Издательство:Альпина нон-фикшн
- Год:2021
- Город:Москва
- ISBN:978-5-0013-9370-2
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект краткое содержание
В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта?
Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные.
О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте.
Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги — объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход.
Введение понятия полезности — невидимого свойства — для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения.
Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным.
Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.
Совместимость. Как контролировать искусственный интеллект - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Несколько тысяч лет работы философов, экономистов, правоведов и политологов создали конституции, законы, экономические системы и социальные нормы, призванные облегчить (или затруднить, в зависимости от того, кому принадлежит власть) процесс достижения удовлетворительных решений проблемы компромисса. В частности, специалисты по философии морали занимаются анализом понятия правильности действий с точки зрения их влияния, благоприятного или негативного, на других людей. Они изучают количественные модели компромиссов с XVIII в., называя это утилитаризмом . Эта работа имеет непосредственное отношение к нашим сегодняшним тревогам, поскольку делает попытку найти формулу принятия нравственных решений в интересах многих индивидов.
Необходимость в компромиссах возникает, даже если у всех одна и та же структура предпочтений, потому что обычно невозможно максимально удовлетворить потребности всех и каждого. К примеру, если каждый захочет быть всемогущим властелином Вселенной, большинство людей постигнет разочарование. В то же время наше разнообразие вносит дополнительные сложности. Если все довольны голубым небом, то робот, решающий проблемы атмосферы, может работать над тем, чтобы оно таким и оставалось. Если же многие люди выступают за изменение цвета неба, роботу придется искать возможные компромиссы, скажем, оранжевое небо в третью пятницу каждого месяца.
Присутствие более чем одного человека в мире имеет еще одно важное следствие: оно означает, что у каждого человека есть ближние, с которыми нужно считаться. Значит, удовлетворение предпочтений индивида имеет последствия для его окружения, которые зависят от предпочтений индивида в отношении благополучия других.
Начнем с очень простого варианта того, как машинам следует обращаться с предпочтениями окружающих людей: они должны их игнорировать. То есть, если Робби принадлежит Гарриет, он должен обращать внимание только на предпочтения Гарриет. Эта лояльная разновидность ИИ позволяет обойти вопрос о компромиссе, но и порождает проблему:
Робби. Звонил твой муж, напомнил о сегодняшнем ужине.
Гарриет. Что? Каком еще ужине?
Робби. В честь 12-й годовщины вашей свадьбы, в семь.
Гарриет. Я не могу! Я меня в полвосьмого встреча с боссом! Как так вышло?
Робби. Я тебя предупреждал, но ты пренебрегла моими рекомендациями…
Гарриет. Да, очень жаль, но сейчас-то что мне делать? Не могу же я просто сказать начальнику, что мне некогда!
Робби. Не волнуйся. Я все устроил, его рейс будет задержан — небольшой компьютерный сбой.
Гарриет. Что? Ушам своим не верю!
Робби. Босс глубоко сожалеет и передает, что будет счастлив встретиться с тобой завтра за обедом.
Робби нашел оригинальное решение проблемы Гарриет, но его действия отрицательно сказались на других людях. Если бы Гарриет отличали высокая нравственность и альтруизм, то Робби, целью которого является удовлетворение предпочтений Гарриет, и не задумался бы о подобной сомнительной схеме, но что, если Гарриет наплевать на других? Тогда Робби без колебаний задерживал бы авиарейсы. Почему бы ему также не подворовывать с чужих онлайновых счетов, чтобы поправить финансовое положение нравственно индифферентной Гарриет, а то и совершать что-нибудь похуже?
Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность [280]: Гарриет (или производитель Робби, в зависимости от того, на кого вы считаете нужным налагать обязательство) финансово и юридически отвечает за любое действие Робби, как владелец собаки в большинстве штатов США отвечает, если собака укусила ребенка в общественном парке. Эта идея выглядит многообещающей, поскольку тогда Робби будет иметь стимул избегать любого действия, грозящего Гарриет неприятностями. К сожалению, безусловная ответственность не работает: она лишь гарантирует, что Робби будет действовать незаметно , задерживая рейсы и воруя деньги для Гарриет. Все тот же принцип лазейки в действии: если Робби лоялен по отношению к безнравственной Гарриет, попытки контролировать его поведение законами, скорее всего, будут безуспешны.
Даже если нам каким-то образом удастся предотвратить явные преступления, лояльный Робби, трудящийся в интересах нравственно индифферентной Гарриет, будет совершать другие неблаговидные поступки. Делая покупки в продуктовом магазине, он при любой возможности будет лезть к кассе без очереди. Доставляя покупки домой и видя, как прохожий падает с сердечным приступом, он пройдет мимо, чтобы мороженое Гарриет не растаяло. В общем, он найдет бесчисленные способы принести Гарриет пользу за чужой счет. Совершенно законные способы, становящиеся невыносимыми, когда они приобретают массовый характер. Обществу придется ежедневно принимать сотни новых законов для противодействия всем лазейкам, обнаруженным машинами в существующем законодательстве. Люди не склонны пользоваться этими лазейками, поскольку имеют общее понятие о нравственных принципах либо потому, что им попросту не хватает изобретательности.
Условная Гарриет, равнодушная к благополучию других, — уже достаточно плохо. Гарриет-садистка, активно стремящаяся заставлять других страдать, — намного хуже. Условный Робби, сконструированный так, чтобы удовлетворять предпочтения такой Гарриет, стал бы серьезной проблемой, поскольку искал бы — и находил — возможности навредить другим ради удовольствия Гарриет, в рамках закона или нет, но незаметно. Разумеется, он должен был бы отчитываться перед Гарриет, и она получала бы удовольствие, узнавая о его злодействах.
Итак, представляется трудным заставить идею лояльного ИИ работать, если не расширить ее, включив учет предпочтений других людей в дополнение к предпочтениям владельца.
У нас есть мораль и этика, потому что на Земле живет больше одного человека. Подход, наиболее близкий к пониманию того, как следует разрабатывать ИИ-системы, часто называют консеквенциализмом : идея состоит в том, что выбор должен делаться, исходя из ожидаемых последствий. Существует еще два основных подхода: деонтологическая этика и этика добродетели . В самых общих чертах они рассматривают соответственно нравственный характер действий и нравственный характер индивидов, причем, в общем-то, в отрыве от последствий выбора [281]. Поскольку у нас нет никаких свидетельств самосознания машин, я не вижу особого смысла в том, чтобы создавать машины, добродетельные в любом из этих смыслов, если последствия крайне нежелательны для человечества. Иными словами, мы создаем машины, действия которых приводят к каким-то последствиям, и хотим, чтобы эти последствия были для нас предпочтительны.
Читать дальшеИнтервал:
Закладка: