Коллектив авторов - Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России
- Название:Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России
- Автор:
- Жанр:
- Издательство:неизвестно
- Год:неизвестен
- ISBN:978-5-00172-197-0
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Коллектив авторов - Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России краткое содержание
Издание адресовано широкому кругу читателей: студентам, аспирантам и преподавателям юридических и технических вузов и факультетов, специалистам в сфере информационных технологий и анализа данных, а также исследователям-правоведам.
Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Итак, первый критерий классификации рисков использования КФС можно сформулировать как риск нанесения ущерба от несанкционированного доступа к удалённым устройствам (физическим компонентам) и их потенциальной злоумышленной компрометации.
Вторым критерием классификации рисков зачастую выступают три известных свойства информации: конфиденциальность, целостность, доступность (в английской номенклатуре – «CIA»: Confidentiality, Integrity, Availability).
По критерию CIA риски классифицируются в зависимости от влияния на вышеперечисленные свойства информации:
• Риск нарушения конфиденциальности информации в киберфизических системах;
• Риск нарушения целостности информации в киберфизических системах;
• Риск нарушения доступности информации в киберфизических системах.
При этом не без основания подчёркивается, что в киберфизических системах наибольшую опасность представляют риски целостности и доступности информации [41, 42]. Например, если злоумышленник получит доступ к информации, которая содержится в кардиостимуляторе, он сможет узнать ритм работы сердца, о возможных нарушениях в его работе, повседневном графике человека. Эта информация хоть и является персональными данными и охраняется законом, но нарушение её разглашение не так опасно, как нарушение целостности и доступности информации в кардиостимуляторе, которая может привести к сбоям в его работе или вообще к выводу прибора из строя, что для человека может иметь весьма трагичные последствия. Классификация рисков по свойствам информации является достаточно условной, так как многие угрозы воздействуют сразу на несколько вышеперечисленных свойств информации.
К тому же эксперты в области информационной безопасности сходятся во мнении, что общепринятая классификация рисков по свойствам информации не является исчерпывающей при использовании КФС. Так, Хью Бойз, руководитель отдела по кибербезопасности Института техники и технологий (Institution of Engineering and Technology), выделяет ещё два значимых для КФС свойства: управляемость/контроль и полезность [43]. В случае нарушения управляемости оператор системы, хотя может и видеть наличие проблемы, но исправить ситуацию будет уже не способен. В случае нарушения контроля за системой, оператор, даже имея возможность воздействовать на систему, не будет получать корректные сведения о её состоянии. Обращая внимания на полезность, как на свойство ХВС, Хью Бойз, приводит в пример потерю космического аппарата, целью которого был сбор климатической информации о Марсе. В ходе его разработки одна проектная группа внедрила систему, использующую метрические единицы измерения (км/ч), а другая группа использовала имперские единицы измерения (миль/час). В результате аппарат неправильно вошёл в атмосферу Марса и был уничтожен.
Вышеописанные риски с уверенностью могут быть применены к роботам и объектам робототехники, ведь роботы являются разновидностью КФС.
Несмотря на то, что роботы хоть и могут действовать в определённой степени автономно, им всё же необходимы каналы связи с оператором. Возможность действовать полностью автономно у роботов может появиться только после внедрения в них технологий ИИ. Но этот шаг может принести даже больше рисков от использования роботов, чем имеется в настоящий момент. Однако, перейдём к рассмотрению роботов, как разновидности КФС.
Самой распространённой классификацией рисков использования роботов, соответственно, является вышеописанная при использовании КФС классификация рисков по свойствам информации: конфиденциальности, целостности и доступности. Анализируя разновидности рисков, эксперты по информационной безопасности акцентируют внимание на возможности утраты конфиденциальности бесед и тайны частной жизни в результате использования роботов. Хоть проблема утечки информации не является самой опасной для промышленных роботов и кардиостимуляторов, она является достаточно распространённой для роботов, использующихся в бытовых целях. В условиях домашнего использования роботов, когда отказ машины не приведёт ни к чему критичному, кроме чувства впустую потраченных денег, именно риск нарушения тайны частной жизни может иметь наибольшую опасность. Так, президент фонда «prpl Foundation» Арт Свифт утверждает, что производители роботов, спеша выйти на рынок со своей моделью, зачастую забывают об обеспечении безопасности своих изделий, результатом чего может стать утечка информации [44].
Не гораздо дальше в плане обеспечения безопасности ушли и производители промышленных роботов. В отчёте Trend Micro, компании, специализирующейся на обеспечении информационной безопасности, приведены результаты исследования роботов, предназначенных для промышленного производства от ряда известных производителей на предмет их информационной безопасности [45]. В результате исследования специалисты пришли к выводу, что все испытуемые роботы уязвимы к атаке извне. По мнению Дэна Вебера, технического директора компании Mocana: «Один из самых тревожных выводов в докладе Trend Micro об уязвимостях роботов, используемых в производстве – это то, как легко хакерам, в данном случае “исследователям”, обнаружить незащищённые промышленные устройства онлайн» [46]. Тревожно это потому, что злоумышленникам не составит труда не только проникнуть в сеть предприятия, но даже найти уязвимые точки для проникновения.
Кроме классификации рисков по свойствам информации существует также классификация рисков по видам атак, которые возможны в отношении роботов:
• Риск атаки, модифицирующей намерение . Это атака, направленная на искажение сообщений, передающихся к роботу. Она может преследовать цель, как изменения поведения робота, так и вывода его из строя. К данному типу атак так же относится и, так называемая, атака «отказа в обслуживании» (Denial of Service). Смысл данной атаки заключается в том, что робот оказывается перегружен входным трафиком. В результате чего происходит или остановка его работы, или задержка в реакции на поступающие команды
• Риск атаки, манипулирующей намерением. Это атака, направленная на модификацию сообщений, передающихся от роботов. Цель данной атаки очевидна – исказить сведения о состоянии машины.
• Риск захватывающей атаки. Это атака, в ходе которой злоумышленник полностью берёт под контроль связь между роботом и его оператором [47].
Вышеописанные классификации рисков сформированы исключительно через призму информационной безопасности. И это оправдано для КФС и роботов, которые согласно приведенным в начале раздела данного отчета понятиям являются просто машинами (или совокупностью машин) и представляют опасность только в случае их неисправной работы, вызванной внутренним сбоем или вмешательством извне.
Читать дальшеИнтервал:
Закладка: