Игорь Шнуренко - Человек взломанный
- Название:Человек взломанный
- Автор:
- Жанр:
- Издательство:Наше Завтра
- Год:2021
- ISBN:978-5-6045084-3-5
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Игорь Шнуренко - Человек взломанный краткое содержание
Человек взломанный - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Весьма интересно и то, в каких расплывчатых терминах, с массой оговорок описывает документ тему юридической ответственности в случае применения систем искусственного интеллекта и робототехники.
«Реальный уровень развития технологий ИИ и РТ не предполагает кардинальных изменений в регулировании института юридической ответственности», говорится в концепции. На деле речь не идет о каких-либо изменениях вообще, никаких механизмов ответственности создателей алгоритмов или систем машинного обучения не предусмотрено. По сути, алгоритмы и люди находятся здесь на одной доске — как некие сущности, главная цель которых — быть ресурсом и приносить прибыль. Концепция предполагает, что, возможно, если что-то пойдет не так, то «будут доработаны при необходимости механизмы безвиновной гражданско-правовой ответственности».
Обратите внимание на слово «безвиновный». В мире, где нет свободы, а есть предопределение, любой инцидент — продукт случайности, вероятности, а это уже епархия страховщиков. Так и предполагается — возмещение вреда, причиненного действиями систем искусственного интеллекта и робототехники, будет проходить или через страхование ответственности, или путем создания компенсационных фондов. Получается, что в случае чего заплатит правительство через специальный фонд, или, что более вероятно, от человека ждут страховки.
Никаких механизмов, основанных на признании за человеческим индивидуумом прав, например, института омбудсмена, не предполагается. Решение алгоритма обязательно и отмене не подлежит, алгоритм всегда прав, и если беспилотник вас, в силу случайного стечения обстоятельств, переехал, вам надлежит обратиться в страховую компанию.
В ОСАГО пропишут страхование от беспилотников, с пациентов будут брать расписки о снятии с учреждений ответственности, а стоимость и риски возможного ущерба компании-разработчики переложат на самих людей, на «новую нефть». В условиях российской юридической практики кто богаче, у кого ресурс, тот и прав. Пострадавшие прохожие или пациенты будут судиться с Яндексом или Сбербанком в обычном суде, их юристы против юристов больших корпораций — которые в защиту своей позиции будут ссылаться на экспериментальный порядок, на регуляторную песочницу, на вполне законное изъятие таких случаев из рамок обычного законодательства. Спасение утопающих — дело рук самих утопающих.
Есть, конечно, ритуальные упоминания о свободах и правах даже в этих документах, например, такое: «При наличии реального риска нарушения прав и свобод граждан может быть актуальной проработка вопроса об условиях самоидентификации системы ИИ при прямом взаимодействия с человеком». Оговорки, однако, сводят на нет возможность осмысленного реагирования на проблемные случаи. Кто будет оценивать риск — сами разработчики, которых никто не учил морали и этике, для которых человек — это движущийся компьютер? Тогда рисков нет и не будет. Кто будет заниматься проработкой вопроса — снова та же группа Сбербанка?
Есть еще несколько тезисов с показательными оговорками и словесной эквилибристикой: «Общий вектор возможных изменений должен быть направлен на то, чтобы гарантировать эффективное и справедливое функционирование институтов юридической ответственности и распределение ответственности в случае такого причинения вреда». Справедливое для кого?
В одном месте документа признается, что «не всегда понятная и предсказуемая логика работы данных систем создает ряд рисков для потребителей: в основном, при применении систем ИИ и РТ, предназначенных для автоматизации совершения сделок и иных юридических действий, а также при применении систем ИИ и РТ, взаимодействующих с физической средой (бытовые роботы, электроника, системы «умного дома». Но признание рисков не должно вести к обременению для разработчиков: «внесение в законодательство каких-либо дополнительных ограничений на применение таких систем представляется нецелесообразным».
Для проформы и для легкости прохождения концепции декларируется следующий момент: «Режим правового регулирования технологий применения систем ИИ и РТ должен обеспечивать необходимую степень защиты прав и свобод человека и гражданина, отвечать интересам общества и государства».
Но этот тезис сводятся на нет множеством лазеек и оговорок. Например, есть «запрет на причинение вреда человеку по инициативе систем ИИ и РТ (по общему правилу следует ограничивать разработку, оборот и применение систем ИИ и РТ, способных по своей инициативе целенаправленно причинять вред человеку)». Здесь обратите внимание на уточнение, в каких случаях можно говорить о запрете — когда бездушные системы причиняют вред «по своей инициативе целенаправленно».
Говорится, что нужна подконтрольность систем человеку «в той мере, в которой это возможно с учетом требуемой степени автономности систем ИИ и РТ и иных обстоятельств». Уточнение «в той мере, в которой это возможно» сводит требование на нет.
Говорится, что «применение систем ИИ не должно заведомо для разработчика приводить к нарушению правовых норм» — и здесь стоит обратить внимание на оговорку «заведомо для разработчика».
Некоторые перлы документа выдают полное незнакомство его разработчиков с понятием, что такое искусственный интеллект и как работают системы машинного обучения. Например, есть там положение о том, что нужно «уточнить необходимость и возможные случаи введения в системы ИИ и РТ, которые потенциально могут причинить вред, функциональных особенностей, обеспечивающих, например, возможность потребителя прекратить деятельность системы ИИ в критической ситуации («красная кнопка») и (или) обеспечить фиксацию фактов, позволяющих установить обстоятельства причинения вреда («черный ящик»)».
Говорить о том, что работу весьма сложной и распределенной системы искусственного интеллекта можно прервать при помощи нажатия некоей «красной кнопки», совершенно абсурдно, как невыполнима и попытка «фиксации фактов, позволяющих установить обстоятельства» для «черного ящика». Впрочем, скорей всего, эти тезисы писались совершенно не для того, чтобы кто-то думал над их выполнением: просто кого-то из журналистов, политиков и общественных деятелей можно успокоить наличием «красной кнопки».
В период «пандемии» идет обязательный, требуемый правительством сбор данных в медицине. Речь в концепции идет о том, чтобы открыть к ним доступ самому широкому кругу желающих. Российские технологические компании заведомо слабее западных и китайских, так что иностранные компании и стартапы получат прямой доступ к данным. Массивы информации будут уходить также на платформы с открытым кодом, где крупные западные технологические гиганты из ФАГМы обкатывают свои технологии. Очень активна в этом отношении компания «Майкрософт», которой принадлежит ряд крупнейших платформ с открытым кодом, очень популярных у разработчиков систем с искусственным интеллектом. Можно не сомневаться, что собираемые правительством РФ данные окажутся в распоряжении международных игроков.
Читать дальшеИнтервал:
Закладка: