Коллектив авторов - На что похоже будущее? Даже ученые не могут предсказать… или могут?
- Название:На что похоже будущее? Даже ученые не могут предсказать… или могут?
- Автор:
- Жанр:
- Издательство:Альпина нон-фикшн
- Год:2020
- Город:Москва
- ISBN:978-5-0013-9204-0
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Коллектив авторов - На что похоже будущее? Даже ученые не могут предсказать… или могут? краткое содержание
На что похоже будущее? Даже ученые не могут предсказать… или могут? - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Такой подход свидетельствует о радикальной смене стратегии кибербезопасности и переходе к принципиально новой парадигме, которая будет определять то, как мы будем защищаться в будущем. На первом этапе развития средств борьбы с киберугрозами в интернете во многом работа сводилась к мерам, направленным на остановку атаки на границе системы. Подобно бастионам и воротам замка, наши системы, будь то на домашнем ноутбуке или на сервере с медицинскими данными, настроены таким образом, чтобы не давать вирусам и иным видам атак проникать внутрь, останавливая их на входе. Однако в условиях, когда все вокруг нас и мы сами постоянно «подключены» к сети, эти методы неэффективны. Так называемая круговая оборона перестала отвечать требованиям информационной безопасности. На самом деле мы сейчас хотим, чтобы другие люди приходили в наш «замок». Чего мы не хотим, так это того, чтобы, уходя, они незаметно прихватили с собой наши «реликвии». То есть нам нужно найти способ пускать к себе анонимных посетителей, но при этом у нас должна быть возможность выявлять среди них тех, кто не заслуживает доверия.
В результате недавнего витка эволюции интернета мы получили средства обороны, воспроизводящие многоуровневую систему защиты, которую можно увидеть во многих «замках». Благодаря ей мы имеем возможность впускать людей только в определенные части нашего замка и даже предоставлять разным группам посетителей доступ к внутренним помещениям в наших «киберчертогах», надеясь на сохранность «реликвий», упрятанных нами в цитадель — последний оплот безопасности.
Оказывается, у машин отлично получается наблюдать за действиями пользователей и выявлять корреляции между тем, что они делают, и нежелательными последствиями. Более того, чем дольше продолжается наблюдение, тем лучше машина распознает неприемлемое поведение. Чтобы резко повысить эффективность, достаточно просто увеличить набор входных данных. Так что, судя по всему, за будущее кибербезопасности можно не опасаться: мы можем полностью положиться на компьютеры. Но… раз мы решили воспользоваться возможностями ИИ и готовы положиться на него, полностью исключив вмешательство человека, нам придется задать себе ряд вопросов, не в последнюю очередь связанных с необходимостью сначала обучить такой интеллект тому, что мы хотим от него получить. Из попыток найти ответы на эти вопросы родилась дисциплина, призванная заставить машинный интеллект работать в нужном нам направлении.
Во-первых, вызывает тревогу мысль о том, что интернет может превратиться в электронную зону противостояния между хорошим ИИ и плохим ИИ. И сражаться они наверняка будут до последнего. Подобно тому как мы научились не замечать биологические баталии, которые происходят в нашем организме каждый день, нам, вполне возможно, придется научиться жить с хронической цифровой инфекцией, с которой будет вести непрерывную борьбу наш «иммунитет». Большую часть времени мы пребываем в неведении относительно разворачивающейся борьбы, но иногда мы «заражаемся» и вынуждены принимать антибиотики. Если инфекции удастся перехитрить стоящую на защите пациента технологию, смерть неминуема. Нам также следует признать, что в некоторых случаях «дезинфицировать» систему просто невозможно. Вместо этого мы должны распрощаться с ней и выстроить новую, с другим программным обеспечением. Мы уже начали сталкиваться с подобной ситуацией, виной чему вирусы-вымогатели. Когда они заражают наши компьютеры, нам не остается ничего другого (конечно, если забыть о соблазне заплатить вымогателям), как переставить систему. Разумеется, в этом случае не обойтись без резервной копии ваших данных, то есть единственной по-настоящему ценной части вашего компьютера. Позаботиться об этом должен сам человек.
Следующая проблема — допустимая степень контроля над нашими действиями со стороны ИИ: должны ли мы иметь возможность не выполнять его инструкции? Вы, наверное, думаете, что ответ очевиден — «да». К сожалению, здесь опять придется вспомнить о семи смертных кибергрехах. Представьте, что вы пытаетесь зайти на веб-сайт, ИИ находит проблему и выдает предупреждение с рекомендацией не посещать данный ресурс. Скорее всего, вы станете искать кнопку, которая позволит вам проигнорировать предупреждение: исследования показывают, что люди обычно не обращают внимания на такие предостережения. Возможно, причина в любопытстве или безразличии. Или же мы просто не любим, когда нам кто-то что-то запрещает. Какими бы ни были ваши мотивы, если вы не послушаетесь, ваша система наверняка будет заражена. В таком случае кажется вполне разумным, что ИИ должен полностью контролировать ситуацию.
Исследования также показывают, что при большом количестве предупреждений мы начинаем вовсе игнорировать их. У этого явления даже есть специальное название: «усталость от безопасности». В таком состоянии люди забывают об осторожности и осмотрительности. Чтобы не допустить этого, ИИ в будущем должен будет уметь определять наиболее значимые угрозы, рассчитывать оптимальное количество предупреждений и решать, когда и как показать их нам, чтобы мы обратили на них внимание. Но, разумеется, сам по себе ИИ не исполняет собственные предупреждения — это прерогатива людей. ИИ просто говорит, нужно это или нет.
Все вышесказанное подводит нас еще к одному вопросу: кого из людей надо включать в цепи управления? Например, могут ли правила, на основе которых действует ИИ, ограничивать вас в посещении опасных сайтов? Все сводится к определению рамок того, что мы считаем «вредоносным». Мы уже используем средства защиты от киберугроз, чтобы оградить наивных и неискушенных от того, что им может встретиться в сети, или в случае, если их будут провоцировать на нежелательное поведение. Если в будущем ИИ возьмется всех нас «оберегать» от нашего собственного любопытства, кто будет устанавливать границы — или мы дадим ИИ возможность самостоятельно «научиться» определять, что нам может навредить, и потом позволим ему принимать решения за нас? Вполне объяснимо, что для многих подобные картины будущего сродни ужасам из ночных кошмаров. Получается, что даже в странах, где нет никаких диктаторских режимов и где жители не находятся под постоянной опекой бдительного государства, устанавливающего правила, с которыми вы не согласны, ИИ сможет зайти еще дальше и решить, что подавляющее большинство содержимого киберпространства является вредным. При этом само по себе слово «вредный» поддается исключительно широкому толкованию.
В течение следующего десятилетия мы должны решить, хотим ли мы, чтобы ИИ защищал нас от киберугроз, или же нам стоит продолжать использовать нынешние способы защиты. Это непростое решение, но в отсутствие активного открытого обсуждения его примут за нас. А как быть, если мы решим, что ИИ нам не подходит, а существующие методы будут все менее эффективны? Есть ли какая-либо альтернатива? Вполне возможно, что есть.
Читать дальшеИнтервал:
Закладка: