search
menu
person

NEWS AND UDATES


Применение вооруженными силами США искусственного интеллекта в киберпространстве (2023)

Полковник А. Зиберт,
майор И. Веселов

В настоящее время ряд зарубежных стран реализует национальные военные программы, предусматривающие применение технологий, основанных на использовании искусственного интеллекта (ИИ) как в системах управления войсками (силами) и оружием, в том числе в киберпространстве, так и в отдельных образцах вооружения и военной техники. В "Стратегии национальной обороны" США прямо указывается, что применение ИИ "не только изменит общество, но и характер войны".

Под искусственным (машинным) интеллектом понимается совокупность таких характеристик вычислительной машины, как объем хранящейся в ней информации, способность пополнять его посредством обучения, степень "понимания" языков программирования высокого уровня и структурного воплощения методов переработки информации и организации вычислительного процесса в целом.

Эти характеристики имитируют следующие качества человеческого интеллекта: распознавание лиц, планирование, интеллектуальный анализ данных, восприимчивость к приобретению опыта, организация деятельности.

В ВС США искусственный интеллект в основном применяется в таких областях, как создание средств ведения разведки, автоматических систем управления войсками (силами) и оружием, робототехнических комплексов военного назначения (РТК ВН). При этом приоритетное значение придается системам с ИИ, применяемым при выполнении наступательных и оборонительных информационных операций в киберпространстве (кибероперациях). Они используются для автоматической идентификации угроз, оценки их опасности и выработки способов противодействия в самые короткие промежутки времени.

В Управлении перспективных исследований МО США реализуется программа "Гард" (GARD – Guaranteeing AI Robustness against Deception) по разработке аппаратно-программных средств, обеспечивающих гарантированную устойчивость систем к взлому. Для решения этой задачи она призвана подготовить соответствующий научно-технический задел, а также оценить возможность и целесообразность его практической реализации. В ходе выполнения этой программы разрабатываются алгоритмы реализации методов защиты и создается комплекс аппаратно-программных средств (КАПС), позволяющий оценить их эффективность в различных ситуациях с учетом доступных ресурсов.

В настоящее время системы с ИИ активно используются при формировании дезинформирующих аудиовизуальных материалов со встраиванием в них реальных элементов обстановки и реальных людей. Такие системы используются для автоматизированного создания ложных профилей в социальных сетях. При этом формируется ретроспектива их семейных отношений, информация об образовании, карьере, связях, кредитной истории и т. д.

Данные технологии могут использоваться для создания ложных новостей в СМИ, дискредитирующих материалов в интересах специальных служб, при разработке легенд для оперативных сотрудников.

Стандартные методы поиска вредоносного программного обеспечения (ПО) основаны на формальном сопоставлении кода с известной базой сигнатур. Поэтому небольшое изменение кода вредоносного ПО, не попавшего в базу "образцов", может защитить его от обновления.

В свою очередь программные средства, реализуемые с применением методов ИИ, способны обнаруживать не только известные сигнатуры, но и части кода, частично отличающиеся от них, или в целом фиксировать аномальное функционирование защищаемого киберпространства.

Принцип обнаружения киберугроз заключается в констатации факта выхода совокупности оцениваемых параметров (метрик) безопасности киберсистемы за некую границу, разделяющую нормальное и аномальное функционирование системы, вызванное внешним воздействием на нее. Под метрикой в данном случае понимается численное значение некоторого свойства аппаратно-программного обеспечения. Другими словами, в КАПС вводится некоторая функция, имеющая в киберпространстве меру "расстояния", то есть наделяющая его свойствами метрического пространства. Эта граница определяется значениями ряда метрик, обычно учитывающих число входящих и исходящих пакетов или байт, проходящих во всей защищаемой сети, по отдельным адресам, в отдельных приложениях или через определенные порты, а также набором базовых статистик, определяющих средние значения метрик и отклонения от них за определенный период времени.

Обнаружение внешнего воздействия основано на вскрытии факта выхода одной или нескольких метрик за границы статистически допустимого диапазона значений. Обычно предполагается, что их значения распределены по нормальному закону, что, в свою очередь, позволяет применять соответствующий хорошо разработанный математический аппарат статистического анализа.

Вместе с тем рассмотренный подход к обнаружению воздействия не является оптимальным. На практике не все значения метрик распределены по нормальному закону. Более того, постоянное воздействие различных факторов (например, обновление аппаратуры и ПО, изменение штата сотрудников, перевод персонала на удаленный режим работы и др.) приводит к соответствующим изменениям в статистических параметрах работы киберсистем. Получение более точных оценок параметров, рассчитанных в правильно подобранный интервал времени, учитывающий тенденции изменения, периодичность, случайность и продолжительность средних значений, требует другого подхода к вычислению метрик и определению границы "правильного" функционирования киберсистем. Другими словами, требуется перейти от существующих одномерных моделей метрик к их многомерному представлению. То есть, для каждого момента времени набор оцениваемых данных будет включать мгновенное значение количества входящих и исходящих пакетов, соответствующих определенным протоколам обмена данными, число пакетов, содержащих определенные флаги или последовательности информационных бит, и т. д.

В конечном счете достоверность определения факта вредоносного воздействия зависит от числа учитываемых наборов таких данных, алгоритмов и результатов их промежуточной обработки, а также анализа определенных комбинаций по результатам предыдущей обработки.

Следующее направление развития систем с ИИ, применяемых при проведении кибератак, состоит в создании специального аппаратного обеспечения, оптимизированного для работы с искусственным интеллектом.

В настоящее время нет ясности, насколько оно будет эффективным или даже просто реализуемо. Например, по оценкам специалистов Управления национальной безопасности МО США, постепенное совершенствование этих технологий не даст ожидаемого повышения эффективности от их применения.

Распространение ИИ в различных системах военного и гражданского назначения, существующих и разрабатываемых киберсистемах и средствах вычислительной техники, привело к появлению нового типа вредоносного воздействия, основанного на алгоритмах ИИ, что является реальной угрозой эффективности применения искусственного интеллекта.

В отличие от традиционных кибератак, требующих для успешного осуществления наличия уязвимостей аппаратного и программного обеспечения, атаки на системы с ИИ в основном используют врожденные ограничения, присущие большинству таких систем и трудно устранимые на этапе их разработки. Под врожденным ограничением здесь понимается принципиальная невозможность не подготовленной к конкретному виду атак системы с ИИ отделять реальные входные данные от фальсифицированных.

В настоящее время для создания систем с ИИ используются искусственные нейронные сети. Суть работы таких систем подразумевает наличие "качественных" данных, то есть, эффективность работы этих систем главным образом определяется степенью соответствия данных, поступающих на обработку, тем наборам эталонных данных, на которых системы обучались и проверялись. Даже для современных, математически сложных алгоритмов реализации ИИ, практически идеально работающих в нормальных условиях, незначительное, но продуманное изменение входных данных (например, коррекция изображения) может приводить к ошибочному результату обработки.

Распространение систем с ИИ, направленных на решение задач в киберпространстве, определяется требованием высокой скорости обработки больших массивов разнородных данных. Применение таких систем позволяет существенно сократить длительность цикла принятия решений при ведении военных действий различного масштаба в киберпространстве. Обратной стороной сокращения времени на принятие решений может стать дезинформация руководства в случае принятия неполных, неверных или даже фальсификация исходных данных.

Существуют три основные причины, определяющие проведение атак на системы с ИИ. Во-первых, полная зависимость результатов обработки от количества и качества входных данных, во-вторых, сложность установления факта подмены или редактирования таких данных, в-третьих, возможность получения преимущества над противником при принятии им решений, основанных на анализе неверной информации. В последнем случае ситуация усугубляется значительной сложностью проверки правильности принятых системами с ИИ решений из-за скрытых для пользователя правил, используемых на каждом этапе обработки. Такая скрытость особенно характерна для сложных многослойных искусственных нейронных сетей, широко применяемых в настоящее время в различных военных приложениях.

Атаки на системы с ИИ могут проводиться с использованием различных методов изменения данных и алгоритмов, применяемых в ходе обучения, верификации и непосредственной эксплуатации таких систем. Большое число возможных областей задействования систем и средств, обладающих ИИ, создает в военном деле еще большее количество вариантов реализации специализированных атак на такие системы и средства.

Существуют два основных типа воздействий (атак) – воздействие на этапе эксплуатации и на этапе обучения. При этом на этапе эксплуатации могут быть применены методы подмены источников на источники, содержащие ложные (дезинформирующие) данные. Кроме того, может осуществляться вредоносное информационное воздействие на такие источники с целью использования информации без подмены самого источника.

Воздействие на этапе обучения системы ИИ проводится с целью внесения изменений в данные, используемые для обучения системы с ИИ, или алгоритма их обработки с целью последующего контроля такой системы на всей продолжительности цикла ее эксплуатации, не требующего переобучения. Контроль заключается в формировании желаемых для контролирующей стороны решений в нужные ей моменты времени при поступлении определенных данных на вход контролируемой системы. Например, если в процессе обучения системы, тренируемой для идентификации определенных типов вредоносного ПО, один из таких типов обозначать как "допустимый", то этот тип ПО никогда не идентифицируется в случае его обнаружения такой системой в реальных условиях.

Совершенствование безопасности киберсистем военного назначения, обладающих ИИ, определяется: постоянным расширением числа и номенклатуры систем и средств военной техники, обладающих ИИ; потенциальной возможностью нарушения функционирования таких систем и средств посредством аппаратно-программного воздействия; значительным уровнем потенциального ущерба в случае внесения программных изменений в используемые в системах с ИИ данные и алгоритмы их обработки.

При ведении боевых действий неизбежно применение специализированных средств нападения на киберсистемы военного назначения с искусственным интеллектом. Для предотвращения возможного ущерба от их успешного использования необходимо разрабатывать и применять меры защиты киберсистем и готовить соответствующие подразделения киберзащиты.

Таким образом, общим обязательным требованием ко всем новым военным системам, обладающим ИИ, станет обеспечение меньшей, чем у противника, длительности цикла управления войсками и оружием. Напряженность и сложность оборонительных и наступательных операций в киберпространстве с каждым годом будут только расти и использование в нем искусственного интеллекта призвано сыграть в этих операциях решающую роль.

Зарубежное военное обозрение. - 2023. - №6. - С. 23-25

Смотрите также
Категория: Общевойсковые вопросы | Добавил: pentagonus (20.06.2023) | Автор: Полковник А. Зиберт
Просмотров: 505 | Теги: ии, А. Зиберт, киберпространство | Рейтинг: 0.0/0
Всего комментариев: 0
avatar