Макс Тегмарк - Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта
- Название:Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта
- Автор:
- Жанр:
- Издательство:Литагент Corpus
- Год:2019
- Город:Москва
- ISBN:978-5-17-105999-6
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Макс Тегмарк - Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта краткое содержание
Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Роботы-судьи также, в отличие от людей, неподвластны случайным предубеждениям, равно как и предубеждениям систематическим. Например, вызвавшее много споров исследование 2012 года работы израильских судей показало, что те выносят значительно более жесткие приговоры, когда голодны: они отклоняли около 35 % прошений об условно-досрочном освобождении сразу после завтрака, но больше 85 % – непосредственно перед обедом {41} 41 Исследование Данцигера с коллегами 2011 года ( http://www.pnas.org/content/108/17/6889.full ), доказывающее, что голодные судьи выносят более жестокие приговоры, было оспорено Вейншел-Марджел и Джоном Шапардом ( http://www.pnas.org/content/108/42/E833.full ), но Данцигер с коллегами привел новые свидетельства свой правоты: http://www.pnas.org/content/108/42/E834.full
. Еще один недостаток людей в роли судей заключается в том, что им часто не хватает времени, чтобы изучить все детали дела. В отличие от них робота-судью легко размножить, так как он ненамного больше заложенного программного обеспечения, и тогда все дела будут изучаться параллельно, а не одно за другим, и каждое из них получит собственного судью на весь срок рассмотрения дела. Наконец, судья-человек не может обладать всеми техническими знаниями, необходимыми для ведения разнообразных дел – от запутанных патентных споров до таинственных убийств, раскрываемых лишь с помощью новейших достижений судебной медицины, а роботы-судьи будущего смогут располагать практически неограниченными емкостью памяти и обучаемостью.
Когда-нибудь такие роботы-судьи окажутся и более эффективными, и более справедливыми, чем люди, будучи беспристрастными, компетентными и транспарентными. А их эффективность послужит еще большему усилению справедливости, ускорив ход юридических процессов и уничтожив предпосылки для воздействия на их исход со стороны подкованных юристов, при этом они позволят добиваться справедливости через суд при значительно меньших расходах. И тогда шансы даже не располагающего особыми средствами просителя или стартап-компании успешно противостоять миллиардеру или транснациональной корпорации сильно возрастут, несмотря на армию юристов, помогающих оппоненту.
С другой стороны, чем грозят для такого робота-судьи программные глюки или атаки хакеров? И от того и от другого уже пострадали машины автоматизированного голосования, а когда на карту поставлены годы за решеткой или миллионы на банковском счету, цена кибератаки заметно повышается. Даже если мы уверены, что искусственный интеллект использует правильный законодательный алгоритм, почувствуем ли мы достаточную уверенность в логике его использования, чтобы уважать выносимые решения? Эта проблема усугубляется быстрым прогрессом в развитии нейронных сетей, которые часто превосходят довольно очевидные традиционные алгоритмы искусственного интеллекта, за что приходится расплачиваться их прозрачностью. Если ответчик хочет знать, почему ему вынесли именно такой приговор, он должен иметь право на лучший ответ, чем какой-нибудь такой: “Мы натренировали нашу систему на большом количестве данных, и она теперь приняла такое решение”. Кроме того, недавние исследования показали, что если вы тренируете нейронные системы глубокого обучения на большом количестве данных о заключенных, они могут предсказывать, кто из этих заключенных с большой вероятностью вернется к своей преступной деятельности (и кому из них поэтому должно быть отказано в условно-досрочном освобождении), лучше, чем судья-человек. Но что делать, если эта система обнаружит, что склонность к рецидивам статистически связана с полом или расовой принадлежностью заключенного, – будет ли это считаться проявлением сексизма или расизма робота-судьи, который, следовательно, нуждается в перепрограммировании? Действительно, исследование 2016 года показывает, что программное обеспечение, используемое в Соединенных Штатах для предсказание рецидивизма, предвзято настроено против афроамериканцев и поддерживало несправедливые приговоры {42} 42 Сообщение в Pro Publica о расовых предубеждениях программного обеспечения, предсказывающего криминальные рецидивы: http://tinyurl.com/robojudge
. Это важные вопросы, которые нам надо поставить и обсудить, чтобы сохранить возможность эффективно использовать искусственный интеллект. У нас нет необходимости принимать решение из разряда “все или ничего” в отношении роботов-судей, но решать, до каких пределов и с какой скоростью мы хотим вводить искусственный интеллект в нашу правовую систему, нам придется. Мы хотим, чтобы завтра люди, выполняющие работу судей, получили себе в помощь системы информационной поддержки принятия решений на основе искусственного интеллекта, как ее получат врачи? Мы хотим идти дальше и дать роботам-судьям возможность самостоятельно принимать решения, которые могут быть обжалованы в суде, состоящем только из людей, или же мы хотим пойти до конца и дать машинам право выносить не подлежащие обжалованию приговоры, даже если речь о высшей мере наказания?
Пока мы обсуждали только применение закона, давайте теперь обратимся и к его содержанию . Существует общее согласие по поводу того, что наши законы должны развиваться, чтобы идти в ногу с нашей технологией. Например, все обвинения против двух программистов, создавших червя ILOVEYOU, о котором рассказывалось выше и который повлек ущерб в миллиарды долларов, были сняты, и они ушли от всякого наказания просто потому, что в то время на Филиппинах не было закона, запрещавшего создание вредоносных программ. Поскольку темпы технического прогресса, по-видимому, и дальше будут увеличиваться, законы должны обновляться также со всевозрастающей скоростью, но они имеют тенденцию отставать. Вероятно, обществу было бы полезно иметь побольше технически подкованных людей в юридических вузах и в правительстве. Но не следует ли уже сейчас подумать о системах поддержки принятия решений на основе технологий искусственного интеллекта для избирателей и законодателей, а затем, не откладывая в долгий ящик, и о роботах-законодателях?
Вопрос, как приспособить наши законы к быстро меняющейся действительности, чтобы они наилучшим образом соответствовали прогрессу в области искусственного интеллекта, вызывает горячие и увлекательные споры. Один из возможных подходов отражает существующее противоречие между правом на неприкосновенность частной жизни и свободой информации. Фанаты свободы слова утверждают, что чем сильнее мы сузим сферу неприкосновенности, тем больше доказательств будет в распоряжении судов и тем более справедливые решения они будут выносить. Например, если правительство получит доступ ко всем электронным устройствам и будет постоянно вестись запись, где они находятся, какие кнопки на них нажимают, что в них говорят и что с ними еще делают, многие преступления могут быть сразу и с легкостью раскрыты, а еще большее их количество можно было бы предотвратить. Защитники частной жизни возражают на это, что они не хотят оказаться в оруэллианском государстве тотальной слежки и что, даже если бы они этого и хотели, есть риск быстрого превращения такого государства в тоталитарную диктатуру неслыханных доселе масштабов. Более того, методы машинного обучения показали очень хорошие результаты в анализе данных МРТ мозга для определения, что человек думает и, в частности, насколько правдиво то, что он говорит {43} 43 Использование функциональной магнитно-резонансной томографии и других методов сканирования мозга в качестве доказательства в судах крайне сомнительно из-за низкой достоверности самих этих методов, хотя многие исследовательские группы утверждают, что их точность превышает 90 %: http://journal.frontiersin.org/article/10.3389/fpsyg.2015.00709/full
. Если суды признают возможным использование методов сканирования мозга при условии, что его результаты расшифровываются искусственным интеллектом, и такая технология станет нормой, длительный и скрупулезный в настоящее время процесс установления истинности предоставляемых фактов окажется легким и быстрым, существенно ускоряя судебные разбирательства и гарантируя их справедливость. Но защитники неприкосновенности частной жизни имеют все основания беспокоиться по поводу случайных ошибок, совершаемых такими системами, или, обращаясь к проблеме более фундаментальной, – по поводу допустимости правительственной слежки за состоянием наших умов. Правительства, не поддерживающие свободу мнений, могут использовать такие технологии для введения уголовной ответственности за приверженность определенным убеждениям и мнениям. А где бы вы лично провели линию между требованиями общественного блага и защитой личного пространства, между защитой общества в целом и защитой ваших личных свобод? Но где бы вы ее ни провели, не будет ли она незаметно, но неумолимо смещаться в ту сторону, где частная жизнь оказывается защищена все меньше, – для того, чтобы компенсировать всевозрастающую легкость подделки улик? Например, когда искусственный интеллект научится изготавливать видео, неотличимые от подлинных, но тем не менее поддельные, на которых запечатлено, как вы совершаете преступление, то разве вы сами не проголосуете за такую систему, которая даст правительству возможность постоянно отслеживать ваше местонахождение, предоставляя вам при необходимости железное алиби?
Интервал:
Закладка: