Елена Ларина - Искусственный интеллект. Этика и право
- Название:Искусственный интеллект. Этика и право
- Автор:
- Жанр:
- Издательство:неизвестно
- Год:2019
- Город:Москва
- ISBN:978-5-6043473-0-0
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Елена Ларина - Искусственный интеллект. Этика и право краткое содержание
Как известно, от тюрьмы да от сумы не стоит зарекаться никому. Но что ждет нас в ближайшие годы, когда вопрос свободы человека или заключения его в тюрьму станет решать искусственный интеллект? Как нечеловеческий разум будет сочетаться с нормами этики и права, по которым человечество живет тысячи лет? Что по этому поводу думают ученые и политики в наиболее развитых, роботизированных странах? Куда движется мир юриспруденции и чем это грозит человечеству?
Авторы этой книги, возможно впервые в России, попытались осмыслить мировой опыт применения ИИ в судебной системе и сделать прогноз развития симбиоза закона и машинной логики на ближайшие годы.
Искусственный интеллект. Этика и право - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
По мнению экспертов ЕС, отставание Европы от лидеров в области ИИ имеет не только очевидные минусы, но и некоторые плюсы. В частности, при разработке и внедрении ИИ в судебную сферу можно использовать зарубежный опыт феномена «предсказательной юстиции».
В настоящее время, особенно в Соединенных Штатах, Великобритании, отчасти в Китае, Южной Корее и Японии, все шире используется система предсказательного судопроизводства и предсказательных полицейских действий. Использование предсказательной аналитики в судебной и правоохранительной сферах сталкивается в этих государствах со значительной критикой. Соответственно производители систем ИИ публикуют достаточно большой объем дынных, программ, статистики, характеризующих работу их систем. В рамках ЕС обсуждается вопрос создания межстрановой комиссии, которая могла бы на междисциплинарной основе обобщить результаты дискуссии и подготовить базис для создания европейских систем ИИ.
Столь быстрое развитие предиктивной аналитики связано не только с практическими нуждами, но и объясняется соревнованием США и Китая в области ИИ, используемого для поведенческого управления и контроля. Прогноз – важнейшая фаза поведенческого контроля, а соответственно в значительной степени предопределяет его эффективность.
Анализ американской и азиатской практики применения предиктивной судебной аналитики позволяет увидеть еще одну опасность. Не секрет, что все большее распространение в мире, в том числе в Европе, приобретает практика создания частных инвестиционных пулов, которые финансируют адвокатов в судебных процессах, где потерпевший выступает против корпораций. Особенно это связано с табачной, алкогольной, медицинскими отраслями, производителями товаров для населения. Если ранее подобного рода пулы формировались исключительно на основе экспертного анализа, то теперь они покупают услуги предиктивной судебной аналитики, рассчитывающей шансы на то или иное завершение судебного процесса.
Эксперты ЕС полагают, что в перспективе это может привести к усилению зависимости судей, присяжных и других участников судебного процесса от заранее сделанных прогнозов относительно итогов процесса, которые базируются не на каких-то предпочтениях и личных оценках, а исключительно на объективных статистических расчетах.
В этой связи в ЕС поставлена задача проанализировать, насколько целесообразно с точки зрения соблюдения прав человека разрешить или нет осуществлять подобную деятельность на территории ЕС.
Все более жестко разворачивающаяся гонка между США и Китаем в области ИИ и больших данных, которые, по сути, на наших глазах из различных областей сливаются в одну, подкрепленную интернетом вещей, позволяет разглядеть еще одну опасность. Уже сегодня очевидно, что тот, кто обладает АЮТ (ИИ + большие данные + интернет вещей)на порядок сильнее и могущественнее того, у кого этого нет. Использование полицией и судебной властью, включая прокуратуру, АЮТ делает одну из сторон судебного разбирательства на порядок более мощной и вооруженной, чем другая. Де фак-то, по мнению экспертов ЕС, это с большой вероятностью подрывает право граждан на независимый и беспристрастный суд, а также равенство сторон в судебном разбирательстве.
Эксперты ЕС полагают, что бесконтрольное использование ИИ и АЮТ в судебной и правоохранительной областях без преувеличения в короткие сроки может уничтожить важнейший европейский принцип соблюдения прав человека и состязательный характер судебного процесса. Использование АЮТ одной стороной процесса, по их мнению, сродни превращению состязания в преодолении местности между людьми в соперничестве человека и автомобиля.
Проще всего было бы запретить использование АЮТ в судебной сфере, тем более что пока в государствах ЕС ИИ применяется только в сфере повышения эффективности судебного документооборота. Однако практика использования новых технологий в мире показывает, что подобного рода запреты не работают, и любая технология получает соответствующее распространение. К тому же решения ИИ уже сегодня используются криминалом и организованной преступностью [1] См.: Е. Ларина, В. Обнинский. Искусственный интеллект. Большие Данные. Преступность. М., Книжный мир, 2018
. Соответственно, если правоохранительные органы и судебные системы на основе законодательных решений будут лишены АЮТ, тем самым они будут поставлены в заведомо проигрышную позицию по отношению к криминальным структурам.
Вопрос применения ИИ в судебной и правоохранительных сферах – это не вопрос технологий и информационной политики, а политическая и отчасти социально-психологическая проблема. ИИ – это вычислительная система, делающая выбор на основе статистической информации. Как правило, главная проблема, которая решается в подобных системах, это – обеспечение отражения в статистической информации фактического положения дел. Наиболее эффективный ИИ будет принимать или рекомендовать решения на основе реальных связей, зависимостей и отношений, которые выявлены на основе анализа реального положения дел.
Однако, хорошо известно, что политика базируется не на реальном положении дел, а на компромиссе между интересами, возможностями и силой, которой обладают различные группы, слои, страты общества и паттерны давления. Политическая система компромиссов имеет свое отражение и в судебной системе. Любое судебное решение – это ситуативное решение, когда закон применяется к определенной конкретной ситуации. Особенно это очевидно в британском прецедентном праве. Однако в более неявном виде ситуационный принцип реализуется и в так называемом континентальном праве.
Главная проблема использования ИИ в судебной практике это то, что ИИ базируется не на ситуационной логике, а на вычислительных процедурах. ИИ не умеет работать с контекстами. Соответственно, в каждом государстве политические силы должны прийти к компромиссу и установить, в каких сферах и в каких аспектах судебной системы и правоохранительной деятельности можно использовать ИИ, а в каких использование этого инструмента опасно для политического консенсуса.
Вопрос об использовании ИИ в судебных системах был впервые рассмотрен на уровне Европейской Комиссии в апреле 2018 г. Результаты опроса свидетельствуют о том, что министерства юстиции государств-членов ЕС сообщили, что широко пользуются как на федеральном, так и на низовом уровне инструментами ИИ. Однако при обработке результатов опроса удалось установить, что практически во всех случаях под инструментами ИИ понимались либо корпоративные информационно-аналитические системы, т. е. фактически хранилища документации, оснащенные визуализаторами и поисковиками, либо стандартные статистические пакеты, обрабатывающие стандартные цифровые данные. Ни первые, ни вторые программные комплексы не являются ИИ, а относятся к предыдущей стадии интеллектуального софта – datamining.
Читать дальшеИнтервал:
Закладка: