Иэн Макьюэн - Машины как я [litres]
- Название:Машины как я [litres]
- Автор:
- Жанр:
- Издательство:Литагент 1 редакция (5)
- Год:2019
- Город:Москва
- ISBN:978-5-04-105841-8
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Иэн Макьюэн - Машины как я [litres] краткое содержание
В центре сюжета – альтернативная история. Британия проиграла Фолклендскую войну, а Алан Тьюринг сделал прорыв в создании искусственного интеллекта: этот мир отличен от нашего, и даже любовь в нем живет по другим законам.
В альтернативном Лондоне 1980-х заблудший неудачник Чарли влюбляется в Миранду – девушку, в прошлом которой большая тайна. Когда Чарли вдруг разживается деньгами, он первым делом покупает Адама – одного из первых андроидов. Вместе с Мирандой они создают Адаму личность. Новое существо – почти идеальный человек. И вскоре троица образует любовный треугольник.
Машины как я [litres] - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Следующим утром, впервые за много лет, я насыпал себе в кофе полную ложку сахара. Я смотрел, как пузырчатый диск каштанового цвета медленно вращается в чашке по часовой стрелке, постепенно замедляясь и растворяясь. Напрашивалась метафора моего существования, но я старался не поддаваться искушению. Я пытался собраться с мыслями; было уже полвосьмого. Скоро Адам или Миранда, а может, они оба появятся у меня в дверях. Я хотел, чтобы мои мысли и реакции были в норме. Но после бессонной ночи я находился в депрессии и злился на себя, хотя намеревался не показывать этого. Миранда дала мне отлуп, так что, по современным понятиям, ночь с кем-то другим – тем более с чем-то другим – не должна считаться изменой. А вот что до этической стороны поведения Адама, то мне на ум пришла любопытная историческая аналогия.
За двенадцать лет до того, во время шахтерской забастовки, появились первые автомобили с автономным управлением, которые испытывали на полигонах, в основном на бывших аэродромах, где кинодекораторы выстраивали улицы, дорожные развязки и различные препятствия. Называть эти автомобили «автономными» было неверно, поскольку они полностью зависели от мощных компьютерных сетей, связанных со спутниками и бортовыми радарами. Если этими автомобилями должен был управлять искусственный интеллект, то какими приоритетами или моральными ценностями этому интеллекту следовало руководствоваться? К счастью, нравственная философия уже успела подробно разработать ряд моральных дилемм, известных в академических кругах как «проблема вагонетки». Эта проблема легко переносилась на автомобили и вставала перед автомобильными производителями и инженерами программного обеспечения в следующем виде: вы, точнее, ваш автомобиль, едете на максимально допустимой скорости по окраинной двухполосной дороге; транспортный поток движется своим чередом; на тротуаре с вашей стороны стоит группа детей; вдруг один из них, лет восьми, выбегает на дорогу прямо перед вами; для принятия решения остается доля секунды: сбить ребенка, съехать на тротуар с другими детьми или свернуть на встречную полосу и врезаться в грузовик, несущийся на предельной скорости. Вы одни, так что выбирайте: жертвовать собой или спасаться. А что, если в машине с вами – ваши жена и дети? Слишком просто? А если в машине – ваша единственная дочь или ваши бабушка с дедушкой или ваша взрослая беременная дочь со своим мужем, и им обоим меньше тридцати? А теперь еще примите во внимание людей в грузовике. Доля секунды – для компьютера, чтобы рассмотреть все варианты, этого более чем достаточно. Решение будет определяться приоритетами, установленными в программном обеспечении.
Пока шахтерами занималась конная полиция, а промышленные города по всей стране медленно и мучительно переходили к рыночной экономике, рождался такой предмет, как робоэтика. Международные автомобильные компании консультировались с философами, судьями, специалистами по медицинской этике и по теории игр, а также с парламентскими комитетами. И этот предмет развивался сам собой постепенно, в университетах и научных центрах. Профессора со своими диссертантами задолго до появления аппаратных средств наколдовали программное обеспечение, сочетавшее в себе идеалы гуманизма: толерантность, открытость, рассудительность и отсутствие моральных изъянов вроде жульничества, злобы или предрассудков. Теоретики предсказывали появление утонченного искусственного интеллекта, который будет управляться тщательно выверенными этическими принципами и обкатываться на тысячах и миллионах моральных дилемм. Такой интеллект сможет научить нас, как нам быть и как быть хорошими. Человек полон этических изъянов: непоследовательность, эмоциональная неустойчивость, склонность к предвзятости и ошибкам в суждениях, вытекающим, по большей части, из корыстных побуждений. Задолго до того, как появилась первая приемлемая по габаритам батарея для искусственного человека или материал для кожи его лица, способный передавать человеческие эмоции, уже имелось программное обеспечение, обещавшее этому созданию здравомыслие и мудрость. И прежде чем мы сконструировали робота, способного наклоняться и завязывать шнурки на стариковских ботинках, в нас уже теплилась надежда, что наше творение принесет нам искупление.
Судьба самоуправляемого автомобиля оказалась короткой, по крайней мере в первоначальном варианте, и его моральная состоятельность так и не смогла пройти проверку временем. Но ничто не доказало техногенную уязвимость нашей цивилизации сильнее, чем гигантские транспортные заторы конца семидесятых. В те годы автономный автотранспорт составлял семнадцать процентов от общего объема. Кто может забыть душегубку бескрайней пробки на улицах Манхэттена, получившей известность как «Манхэттенская пробка»? Из-за аномальной солнечной активности множество бортовых радаров одновременно вышли из строя. Улицы и авеню, мосты и тоннели оказались наглухо забиты автомобилями, и понадобилось несколько дней, чтобы разрулить этот бардак. А девять месяцев спустя подобное повторилось в Рурштадте, в Северной Европе, спровоцировав короткий экономический спад, породивший теории заговора. Подростки-хакеры, жаждущие беспредела? Или далекая враждебная, разрозненная нация с продвинутыми хакерскими приемами? А может – мое любимое, – производственно отсталый автопроизводитель, ярый ненавистник обжигающей новизны? Однако кроме нашего перетрудившегося солнца других виновников не нашли.
Мировые религии и великие литературные произведения ясно давали понять, что мы знаем, как быть хорошими. Мы выражали наши благородные стремления в поэзии, прозе и песнях, и мы знали, что делать. Проблема заключалась в том, чтобы претворить эти знания в жизнь – последовательно и в массовом порядке. Из временной смерти автономного автомобиля родилась мечта об искупительной добродетели роботов. Ее первичным воплощением стал Адам и ему подобные, как это подразумевало руководство пользователя. Предполагалось, что искусственный человек должен быть образцом добродетелей. Я никогда не встречу никого лучше его. Однако, если бы с Мирандой переспал мой друг, это было бы жестоко и безнравственно по отношению ко мне. Проблема была в том, что я купил Адама – он был моей дорогостоящей собственностью, и его обязательства передо мной, помимо общей полезности, были мне неясны. Чем раб обязан своему хозяину? Кроме того, Миранда не была «моей». Это было ясно. Я так и слышал, как она замечает, что у меня нет здравых оснований чувствовать себя преданным.
Но имелся еще один вопрос, который мы с ней пока не обсуждали. Программисты из автомобильной промышленности могли внести свой вклад в моральные ориентиры Адама. Но его личность сформировали мы с Мирандой. Я не знал, в какой мере его личность затрагивала или превосходила его этику. Насколько она обладала собственной волей? Идеально сформированная моральная система должна быть свободна от любых предрасположенностей. Но достижимо ли это? Закрепленная в железе, моральная система становилась не более чем сухим эквивалентом мысленного эксперимента «мозг в банке» [28] Разновидность мысленных экспериментов в философии, иллюстрирующих зависимость человеческого восприятия действительности от его субъективных ощущений.
, когда-то приводимого во всех учебниках по философии. А искусственный человек должен был осваиваться среди нас, несовершенных, падших нас, и приспосабливаться к нам. Руки, собранные в стерильных условиях, должны были погрузиться в грязь. Существовать в человеческом моральном измерении значило иметь тело, голос, модель поведения, память и желания, переживать конкретные вещи на личном опыте и испытывать боль. Идеально честное существо, оказавшееся в таком положении, вполне могло соблазниться Мирандой.
Интервал:
Закладка: