Коллектив авторов - На что похоже будущее? Даже ученые не могут предсказать… или могут?

Тут можно читать онлайн Коллектив авторов - На что похоже будущее? Даже ученые не могут предсказать… или могут? - бесплатно ознакомительный отрывок. Жанр: Прочая научная литература, издательство Альпина нон-фикшн, год 2020. Здесь Вы можете читать ознакомительный отрывок из книги онлайн без регистрации и SMS на сайте лучшей интернет библиотеки ЛибКинг или прочесть краткое содержание (суть), предисловие и аннотацию. Так же сможете купить и скачать торрент в электронном формате fb2, найти и слушать аудиокнигу на русском языке или узнать сколько частей в серии и всего страниц в публикации. Читателям доступно смотреть обложку, картинки, описание и отзывы (комментарии) о произведении.

Коллектив авторов - На что похоже будущее? Даже ученые не могут предсказать… или могут? краткое содержание

На что похоже будущее? Даже ученые не могут предсказать… или могут? - описание и краткое содержание, автор Коллектив авторов, читайте бесплатно онлайн на сайте электронной библиотеки LibKing.Ru
Каждый день в мире совершаются открытия и принимаются решения, влияющие на наше будущее. Но может ли кто-то предвидеть, что ждет человечество? Возможна ли телепортация (спойлер: да), как изменится климат, каким будет транспорт и что получится, если искусственный интеллект возьмет над нами верх? Станут ли люди счастливее с помощью таблеток и здоровее благодаря лечению с учетом индивидуальной ДНК? Каких чудес техники нам ждать? Каких революций в быту? В этой книге ведущие мировые специалисты во главе с Джимом Аль-Халили, пользуясь знаниями передовой науки, дают читателю представление о том, что его ждет впереди. Ведь только ученые могут предсказать наше будущее… или не могут?

На что похоже будущее? Даже ученые не могут предсказать… или могут? - читать онлайн бесплатно ознакомительный отрывок

На что похоже будущее? Даже ученые не могут предсказать… или могут? - читать книгу онлайн бесплатно (ознакомительный отрывок), автор Коллектив авторов
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Такой подход свидетельствует о радикальной смене стратегии кибербезопасности и переходе к принципиально новой парадигме, которая будет определять то, как мы будем защищаться в будущем. На первом этапе развития средств борьбы с киберугрозами в интернете во многом работа сводилась к мерам, направленным на остановку атаки на границе системы. Подобно бастионам и воротам замка, наши системы, будь то на домашнем ноутбуке или на сервере с медицинскими данными, настроены таким образом, чтобы не давать вирусам и иным видам атак проникать внутрь, останавливая их на входе. Однако в условиях, когда все вокруг нас и мы сами постоянно «подключены» к сети, эти методы неэффективны. Так называемая круговая оборона перестала отвечать требованиям информационной безопасности. На самом деле мы сейчас хотим, чтобы другие люди приходили в наш «замок». Чего мы не хотим, так это того, чтобы, уходя, они незаметно прихватили с собой наши «реликвии». То есть нам нужно найти способ пускать к себе анонимных посетителей, но при этом у нас должна быть возможность выявлять среди них тех, кто не заслуживает доверия.

В результате недавнего витка эволюции интернета мы получили средства обороны, воспроизводящие многоуровневую систему защиты, которую можно увидеть во многих «замках». Благодаря ей мы имеем возможность впускать людей только в определенные части нашего замка и даже предоставлять разным группам посетителей доступ к внутренним помещениям в наших «киберчертогах», надеясь на сохранность «реликвий», упрятанных нами в цитадель — последний оплот безопасности.

Оказывается, у машин отлично получается наблюдать за действиями пользователей и выявлять корреляции между тем, что они делают, и нежелательными последствиями. Более того, чем дольше продолжается наблюдение, тем лучше машина распознает неприемлемое поведение. Чтобы резко повысить эффективность, достаточно просто увеличить набор входных данных. Так что, судя по всему, за будущее кибербезопасности можно не опасаться: мы можем полностью положиться на компьютеры. Но… раз мы решили воспользоваться возможностями ИИ и готовы положиться на него, полностью исключив вмешательство человека, нам придется задать себе ряд вопросов, не в последнюю очередь связанных с необходимостью сначала обучить такой интеллект тому, что мы хотим от него получить. Из попыток найти ответы на эти вопросы родилась дисциплина, призванная заставить машинный интеллект работать в нужном нам направлении.

Во-первых, вызывает тревогу мысль о том, что интернет может превратиться в электронную зону противостояния между хорошим ИИ и плохим ИИ. И сражаться они наверняка будут до последнего. Подобно тому как мы научились не замечать биологические баталии, которые происходят в нашем организме каждый день, нам, вполне возможно, придется научиться жить с хронической цифровой инфекцией, с которой будет вести непрерывную борьбу наш «иммунитет». Большую часть времени мы пребываем в неведении относительно разворачивающейся борьбы, но иногда мы «заражаемся» и вынуждены принимать антибиотики. Если инфекции удастся перехитрить стоящую на защите пациента технологию, смерть неминуема. Нам также следует признать, что в некоторых случаях «дезинфицировать» систему просто невозможно. Вместо этого мы должны распрощаться с ней и выстроить новую, с другим программным обеспечением. Мы уже начали сталкиваться с подобной ситуацией, виной чему вирусы-вымогатели. Когда они заражают наши компьютеры, нам не остается ничего другого (конечно, если забыть о соблазне заплатить вымогателям), как переставить систему. Разумеется, в этом случае не обойтись без резервной копии ваших данных, то есть единственной по-настоящему ценной части вашего компьютера. Позаботиться об этом должен сам человек.

Следующая проблема — допустимая степень контроля над нашими действиями со стороны ИИ: должны ли мы иметь возможность не выполнять его инструкции? Вы, наверное, думаете, что ответ очевиден — «да». К сожалению, здесь опять придется вспомнить о семи смертных кибергрехах. Представьте, что вы пытаетесь зайти на веб-сайт, ИИ находит проблему и выдает предупреждение с рекомендацией не посещать данный ресурс. Скорее всего, вы станете искать кнопку, которая позволит вам проигнорировать предупреждение: исследования показывают, что люди обычно не обращают внимания на такие предостережения. Возможно, причина в любопытстве или безразличии. Или же мы просто не любим, когда нам кто-то что-то запрещает. Какими бы ни были ваши мотивы, если вы не послушаетесь, ваша система наверняка будет заражена. В таком случае кажется вполне разумным, что ИИ должен полностью контролировать ситуацию.

Исследования также показывают, что при большом количестве предупреждений мы начинаем вовсе игнорировать их. У этого явления даже есть специальное название: «усталость от безопасности». В таком состоянии люди забывают об осторожности и осмотрительности. Чтобы не допустить этого, ИИ в будущем должен будет уметь определять наиболее значимые угрозы, рассчитывать оптимальное количество предупреждений и решать, когда и как показать их нам, чтобы мы обратили на них внимание. Но, разумеется, сам по себе ИИ не исполняет собственные предупреждения — это прерогатива людей. ИИ просто говорит, нужно это или нет.

Все вышесказанное подводит нас еще к одному вопросу: кого из людей надо включать в цепи управления? Например, могут ли правила, на основе которых действует ИИ, ограничивать вас в посещении опасных сайтов? Все сводится к определению рамок того, что мы считаем «вредоносным». Мы уже используем средства защиты от киберугроз, чтобы оградить наивных и неискушенных от того, что им может встретиться в сети, или в случае, если их будут провоцировать на нежелательное поведение. Если в будущем ИИ возьмется всех нас «оберегать» от нашего собственного любопытства, кто будет устанавливать границы — или мы дадим ИИ возможность самостоятельно «научиться» определять, что нам может навредить, и потом позволим ему принимать решения за нас? Вполне объяснимо, что для многих подобные картины будущего сродни ужасам из ночных кошмаров. Получается, что даже в странах, где нет никаких диктаторских режимов и где жители не находятся под постоянной опекой бдительного государства, устанавливающего правила, с которыми вы не согласны, ИИ сможет зайти еще дальше и решить, что подавляющее большинство содержимого киберпространства является вредным. При этом само по себе слово «вредный» поддается исключительно широкому толкованию.

В течение следующего десятилетия мы должны решить, хотим ли мы, чтобы ИИ защищал нас от киберугроз, или же нам стоит продолжать использовать нынешние способы защиты. Это непростое решение, но в отсутствие активного открытого обсуждения его примут за нас. А как быть, если мы решим, что ИИ нам не подходит, а существующие методы будут все менее эффективны? Есть ли какая-либо альтернатива? Вполне возможно, что есть.

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать


Коллектив авторов читать все книги автора по порядку

Коллектив авторов - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки LibKing.




На что похоже будущее? Даже ученые не могут предсказать… или могут? отзывы


Отзывы читателей о книге На что похоже будущее? Даже ученые не могут предсказать… или могут?, автор: Коллектив авторов. Читайте комментарии и мнения людей о произведении.


Понравилась книга? Поделитесь впечатлениями - оставьте Ваш отзыв или расскажите друзьям

Напишите свой комментарий
x