Мередит Бруссард - Искусственный интеллект [Пределы возможного] [litres]
- Название:Искусственный интеллект [Пределы возможного] [litres]
- Автор:
- Жанр:
- Издательство:Литагент Альпина
- Год:2020
- Город:Москва
- ISBN:978-5-0013-9230-9
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Мередит Бруссард - Искусственный интеллект [Пределы возможного] [litres] краткое содержание
Всеобщий энтузиазм по поводу применения компьютерных технологий, по ее убеждению, уже привел к огромному количеству недоработанных решений в области проектирования цифровых систем. Выступая против техношовинизма и социальных иллюзий о спасительной роли технологий, Бруссард отправляется в путешествие по компьютерному миру: рискуя жизнью, садится за руль экспериментального автомобиля с автопилотом; задействует искусственный интеллект, чтобы выяснить, почему студенты не могут сдать стандартизованные тесты; использует машинное обучение, подсчитывая вероятность выживания пассажиров «Титаника»; как дата-журналист создает программу для поиска махинаций при финансировании кандидатов в президенты США.
Только понимая пределы компьютерных технологий, утверждает Бруссард, мы сможем распорядиться ими так, чтобы сделать мир лучше.
Искусственный интеллект [Пределы возможного] [litres] - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
12
Стареющие компьютеры
Я не планировала, что «Бейливик» будет работать вечно. В какой-то момент я отключу его, заархивирую и займусь другим программным проектом. Подобно автомобилю, растению или отношениям, софту нужна забота и постоянное внимание. И у него есть срок жизни.
Веб-сайты, приложения и программы всегда ломаются, потому что компьютеры, на которых они работают, необходимо постоянно обновлять. Мир меняется. Программному обеспечению нужны обновления. Если у вас на хостинге располагается даже простейший сайт компании, надо быть готовыми к тому, что компания всегда будет претерпевать управленческие изменения, что нужно будет обновлять серверы и что-то пойдет не так. Каждый год работы того или иного программного продукта накапливает технический долг – стоимость поддержания его актуальности, добавления патчей и латание багов. В своей редакторской колонке для The New York Times профессора Эндрю Рассел и Ли Винзел пишут, что 60 % всех затрат на софт приходятся на поддержание его работоспособности – исправление багов и обновления [163] Russell and Vinsel, “Let’s Get Excited about Maintenance!”
. В противовес популярному представлению невероятное количество разработчиков и программистов не участвует в реальной разработке инновационных продуктов; 70 % задействованы в поддержании существующих проектов.
Проблема необходимости поддержания софта служит отличным напоминанием о том, что цифровой мир более не нов. Подобно первопроходцам первого бума доткомов, он вошел в стадию среднего возраста. И если полагать, что цифровой мир начинался с Минского и Тьюринга, то можно сказать, что он значительно постарел: пришло время быть более реалистичными и честными по отношению к тому, что происходит в области технологий и реальной необходимости их поддерживать. Я настроена оптимистично и уверена, что мы сможем найти путь использования технологий, чтобы одновременно поддерживать и демократию, и человеческое достоинство.
Ошибки сделаны. Это вполне могло бы быть рефреном к тому, как медиаиндустрия адаптировалась к цифровой революции. Также могло быть рефреном того, как индустрия технологий справлялась с той же цифровой революцией. Секрет понимания прошлого заключается в том, чтобы не сделать те же ошибки в будущем.
Во-первых, мы можем перестать относиться к технологиям как к чему-то новому, сверкающему и инновационному и вместо этого принять их как повседневную часть жизни. Первый компьютер ENIAC был создан в 1946 г. У нас было больше полувека для того, чтобы понять, как интегрировать технологии в общество. Полвека – это много времени. Однако, несмотря на все прошедшие годы, когда я посещаю какие-либо встречи, я знаю, что первые 10 минут всегда будут отданы на то, чтобы разобраться, как работает проектор и как вывести на экран презентацию PowerPoint. На сегодняшний день нам удалось научиться применять цифровые технологии и повышать экономическое неравенство, подрывать экономическую стабильность свободной прессы, провоцировать кризис фейковых новостей, откатиться назад в развитии систем голосования и защиты честного труда, следить за гражданами, распространять лженауку, оскорблять и преследовать (в основном женщин и цветных) онлайн, строить летающих роботов, способных в лучшем случае раздражать людей и в худшем – сбрасывать бомбы, повысить количество случаев хищения персональных данных, обеспечить почву для хакинга, выливающегося во взломы и кражи данных миллионов кредитных карт, продавать невероятные объемы персональных данных и выбрать Дональда Трампа президентом. Это вовсе не прекрасный мир, обещанный ранними техноевангелистами. Это тот же мир, с теми же людскими проблемами, которые всегда были. Однако теперь они спрятаны внутри кода и данных, из-за чего их сложнее увидеть и легче игнорировать.
Нам совершенно необходимо изменить наш подход. Нужно перестать подвергать технологии фетишизации, провести аудит алгоритмов, отслеживать акты проявления неравенства, сокращать наличие стереотипов как в вычислительных системах, так и в самой индустрии технологий. Если код есть закон, то, вспоминая Лоуренса Лессинга, необходимо удостовериться, что те, кто его пишет, сами ему же следуют. Пока что их попытки самоуправления оставляют желать лучшего. Мы не можем учиться на прошлых поступках, но нам нужно обратить на них внимание.
В нескольких современных проектах из области науки и журналистики говорится о том, что грядет новый, более сбалансированный подход к пониманию ИИ. Один из них – подход исследовательского центра Института современного искусственного интеллекта (AI Now Institute) при Университете Нью-Йорка, основанный в 2017 г. Кейт Кроуфорд из отдела исследований Microsoft и Мередит Уиттакер из Google. Созданный представителями Кремниевой долины, проект был запущен Управлением по политике в области науки и технологий при Белом доме президента Барака Обамы и Национальным экономическим советом. Первый отчет центра был сфокусирован на социальных и экономических проблемах ближайшего будущего, связанных с ИИ. Ученые выделили четыре области: здравоохранение, рынок труда, неравенство и этика. Второй отчет призывал «все публичные институции, в частности, ответственные за криминологическую экспертизу, системы здравоохранения, социального обеспечения и образования немедленно перестать использовать системы ИИ и алгоритмы типа “черный ящик” и перейти на системы, обеспечивающие прозрачность работы механизмов, например, посредством легализации, аудита и общественной экспертизы» [164] Crawford, “Artificial Intelligence’s White Guy Problem”; Crawford, “Artificial Intelligence – With Very Real Biases”; Campolo et al., “AI Now 2017 Report”; boyd and Crawford, “Critical Questions for Big Data.”
. Исследовательский центр данных и общества, возглавляемый Даной Бойд, придерживается цели понять и обратить внимание общественности на роль человек в ИИ [165] boyd, Keller, and Tijerina, “Supporting Ethical Data Research”; Zook et al., “Ten Simple Rules for Responsible Big Data Research”; Elish and Hwang, “Praise the Machine! Punish the Human! The Contradictory History of Accountability in Automated Aviation.”
. Так, например, эксперимент с анализом «хороших селфи» из главы 9 мог бы выиграть от более детальной интерпретации социального контекста тех, кто селфи создает (и тех, кто придумал эксперимент). Другая интересная область, достойная внимания, – люди, фильтрующие нежелательный контент в социальных сетях. Когда контент с порнографией или сценами насилия обнаруживается онлайн, человек его проверяет, действительно ли это видео с обезглавливанием, неприличная фотография или другие примеры худших человеческих проявлений. Ведь психологические последствия ежедневного созерцания чего-то подобного могут быть травматичны [166] Chen, “The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed.”
. Нам нужно изучить эту практику и вместе, как единая культура, принимать решения о том, что она означает и как с ней быть.
Интервал:
Закладка: