Главная // Актуальные документы // Актуальные документы (обновление 01.04.2026 по 01.05.2026) // ПНСТ (Предварительный национальный стандарт)
СПРАВКА
Источник публикации
М.: ФГБУ "Институт стандартизации", 2026
Примечание к документу
Документ введен в действие с 01.04.2026 на период до 01.04.2029 (Приказ Росстандарта от 30.01.2026 N 2-пнст).
Название документа
"ПНСТ 1046-2026. Предварительный национальный стандарт Российской Федерации. Искусственный интеллект в критической информационной инфраструктуре. Общие положения"
(утв. и введен в действие Приказом Росстандарта от 30.01.2026 N 2-пнст)

"ПНСТ 1046-2026. Предварительный национальный стандарт Российской Федерации. Искусственный интеллект в критической информационной инфраструктуре. Общие положения"
(утв. и введен в действие Приказом Росстандарта от 30.01.2026 N 2-пнст)


Содержание


Утвержден и введен в действие
Приказом Федерального
агентства по техническому
регулированию и метрологии
от 30 января 2026 г. N 2-пнст
ПРЕДВАРИТЕЛЬНЫЙ НАЦИОНАЛЬНЫЙ СТАНДАРТ РОССИЙСКОЙ ФЕДЕРАЦИИ
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В КРИТИЧЕСКОЙ
ИНФОРМАЦИОННОЙ ИНФРАСТРУКТУРЕ
ОБЩИЕ ПОЛОЖЕНИЯ
Artificial intelligence in critical information
infrastructure. General provisions
ПНСТ 1046-2026
ОКС 35.240.99
Срок действия
с 1 апреля 2026 года
до 1 апреля 2029 года
Предисловие
1 РАЗРАБОТАН Федеральным государственным бюджетным учреждением "Российский институт стандартизации" (ФГБУ "Институт стандартизации"), Обществом с ограниченной ответственностью "А-Я эксперт" (ООО "А-Я эксперт")
2 ВНЕСЕН Техническим комитетом по стандартизации ТК 164 "Искусственный интеллект"
3 УТВЕРЖДЕН И ВВЕДЕН В ДЕЙСТВИЕ Приказом Федерального агентства по техническому регулированию и метрологии от 30 января 2026 г. N 2-пнст
Правила применения настоящего стандарта и проведения его мониторинга установлены в ГОСТ Р 1.16-2011 (разделы 5 и 6).
Федеральное агентство по техническому регулированию и метрологии собирает сведения о практическом применении настоящего стандарта. Данные сведения, а также замечания и предложения по содержанию стандарта можно направить не позднее чем за 4 мес до истечения срока его действия разработчику настоящего стандарта по адресу: 129110 Москва, улица Гиляровского, д. 48, кв. 100 и/или в Федеральное агентство по техническому регулированию и метрологии по адресу: 123112 Москва, Пресненская набережная, д. 10, стр. 2.
В случае отмены настоящего стандарта соответствующая информация будет опубликована в ежемесячном информационном указателе "Национальные стандарты" и также будет размещена на официальном сайте Федерального агентства по техническому регулированию и метрологии в сети Интернет (www.rst.gov.ru)
Введение
Настоящий стандарт разработан с учетом актуальных потребностей Российской Федерации в области регулирования применения технологий искусственного интеллекта (ИИ).
Внедрение систем ИИ в объекты критической информационной инфраструктуры (КИИ) требует особого внимания к вопросам информационной безопасности (ИБ), надежности и устойчивости таких систем. Технологии ИИ могут повысить эффективность и автоматизацию процессов в КИИ, но одновременно создают новые риски и уязвимости.
Настоящий стандарт учитывает положения и требования нормативных правовых актов Российской Федерации [1], [2] и устанавливает порядок и принципы реализации норм в области развития ИИ в Российской Федерации. Стандарт учитывает мировой опыт регулирования ИБ систем искусственного интеллекта (СИИ), в том числе [3].
Стандарт направлен на обеспечение следующих принципов применения технологий ИИ в КИИ:
- ИБ, включающая устойчивое функционирование КИИ при компьютерных атаках;
- надежность и управляемость;
- объяснимость;
- доверенность;
- защита от несанкционированного доступа;
- сохранение контроля человека над критическими функциями;
- постоянное совершенствование.
Применение настоящего стандарта позволит субъектам КИИ внедрять СИИ для обеспечения ИБ и отказоустойчивости, что будет способствовать развитию технологий ИИ в Российской Федерации при одновременном обеспечении требуемого уровня защищенности КИИ.
1 Область применения
Настоящий стандарт распространяется на системы искусственного интеллекта (СИИ), предназначенные для применения в составе программно-аппаратных комплексов объектов информационной инфраструктуры (КИИ), и устанавливает общие положения, которые необходимо учитывать при реализации процессов жизненного цикла СИИ.
Стандарт не распространяется на исследовательские и экспериментальные СИИ, не используемые в КИИ.
2 Нормативные ссылки
В настоящем стандарте использованы нормативные ссылки на следующие стандарты:
ГОСТ Р 59277 Системы искусственного интеллекта. Классификация систем искусственного интеллекта
ГОСТ Р 59547 Защита информации. Мониторинг информационной безопасности. Общие положения
ГОСТ Р 59548 Защита информации. Регистрация событий безопасности. Требования к регистрируемой информации
ГОСТ Р 59710 Защита информации. Управление компьютерными инцидентами. Общие положения
ГОСТ Р 59711 Защита информации. Управление компьютерными инцидентами. Организация деятельности по управлению компьютерными инцидентами
ГОСТ Р 59712 Защита информации. Управление компьютерными инцидентами. Руководство по реагированию на компьютерные инциденты
ГОСТ Р 71737 Системы искусственного интеллекта в здравоохранении. Применение менеджмента риска к медицинским изделиям. Общие положения
ГОСТ Р ИСО/МЭК 27005 Информационная технология. Методы и средства обеспечения безопасности. Менеджмент риска информационной безопасности
ГОСТ Р ИСО 31000 Менеджмент риска. Принципы и руководство
Примечание - При пользовании настоящим стандартом целесообразно проверить действие ссылочных стандартов в информационной системе общего пользования - на официальном сайте Федерального агентства по техническому регулированию и метрологии в сети Интернет или по ежегодному информационному указателю "Национальные стандарты", который опубликован по состоянию на 1 января текущего года, и по выпускам ежемесячного информационного указателя "Национальные стандарты" за текущий год. Если заменен ссылочный стандарт, на который дана недатированная ссылка, то рекомендуется использовать действующую версию этого стандарта с учетом всех внесенных в данную версию изменений. Если заменен ссылочный стандарт, на который дана датированная ссылка, то рекомендуется использовать версию этого стандарта с указанным выше годом утверждения (принятия). Если после утверждения настоящего стандарта в ссылочный стандарт, на который дана датированная ссылка, внесено изменение, затрагивающее положение, на которое дана ссылка, то это положение рекомендуется применять без учета данного изменения. Если ссылочный стандарт отменен без замены, то положение, в котором дана ссылка на него, рекомендуется применять в части, не затрагивающей эту ссылку.
3 Термины и определения
В настоящем стандарте применены термины по ГОСТ Р 59277, а также следующие термины с соответствующими определениями:
3.1
критическая информационная инфраструктура: Объекты критической информационной инфраструктуры, а также сети электросвязи, используемые для организации взаимодействия таких объектов.
3.2
объекты критической информационной инфраструктуры: Информационные системы, информационно-телекоммуникационные сети, автоматизированные системы управления субъектов критической информационной инфраструктуры.
3.3
субъекты критической информационной инфраструктуры: Государственные органы, государственные учреждения, российские юридические лица, которым на праве собственности, аренды или на ином законном основании принадлежат информационные системы, информационно-телекоммуникационные сети, автоматизированные системы управления, функционирующие в сфере здравоохранения, науки, транспорта, связи, энергетики, государственной регистрации прав на недвижимое имущество и сделок с ним, банковской сфере и иных сферах финансового рынка, топливно-энергетического комплекса, в области атомной энергии, оборонной, ракетно-космической, горнодобывающей, металлургической и химической промышленности, российские юридические лица, которые обеспечивают взаимодействие указанных систем или сетей.
3.4
значимый объект критической информационной инфраструктуры: Объект критической информационной инфраструктуры, которому присвоена одна из категорий значимости и который включен в реестр значимых объектов критической информационной инфраструктуры.
3.5 угроза информационной безопасности системы искусственного интеллекта (в контексте применения в критической информационной инфраструктуре): Совокупность условий и факторов, создающих потенциальную или реально существующую опасность нарушения функционирования систем искусственного интеллекта или использования систем искусственного интеллекта, которая может привести к возникновению негативных социальных, политических, экономических, экологических последствий, последствий для обеспечения обороны страны, безопасности государства и правопорядка.
3.6 устойчивость функционирования системы искусственного интеллекта: Способность системы искусственного интеллекта выполнять свои функции при воздействии внешних и внутренних дестабилизирующих факторов.
3.7
инцидент информационной безопасности; инцидент ИБ: Непредвиденное или нежелательное событие (группа событий) ИБ, которое привело (может привести) к нарушению функционирования информационного ресурса или возникновению угроз безопасности информации или нарушению требований по защите информации.
[ГОСТ Р 59709-2022, статья 26]
3.8
объяснимость: Свойство системы искусственного интеллекта, заключающееся в возможности представления причин, приводящих к тому или иному решению системы, в виде, понятном человеку.
[ГОСТ Р 59276-2020, пункт 3.8]
3.9
доверенная система искусственного интеллекта: Система искусственного интеллекта, в отношении которой потребитель и, при необходимости, организации, ответственные за регулирование вопросов создания и применения систем искусственного интеллекта, проявляют доверие.
[ГОСТ Р 59276-2020, пункт 3.4]
3.10
компьютерная атака: Целенаправленное воздействие программных и (или) программно-аппаратных средств на информационный ресурс в целях нарушения и (или) прекращения его функционирования и (или) создания угрозы безопасности обрабатываемой таким ресурсом информации.
[ГОСТ Р 59709-2022, пункт 30]
3.11 категория значимости объекта критической информационной инфраструктуры: Характеристика объекта критической информационной инфраструктуры, определяемая в соответствии с критериями значимости.
Примечание - Критерии значимости, установленные ст. 7 [1], принимают значения: первая, вторая или третья категория.
3.12 государственная система обнаружения, предупреждения и ликвидации последствий компьютерных атак; ГосСОПКА: Программные и программно-технические средства, являющиеся элементом государственной системы защиты информации информационных систем, функционирующих на базе вычислительных сетей, реализующие функции автоматизированного обнаружения и (или) блокирования действий в информационных системах, направленных на преднамеренный несанкционированный доступ к информации, специальные воздействия на информацию (носители информации) в целях ее добывания, уничтожения, искажения и блокирования доступа к ней.
3.13
организационная мера (по обеспечению ИБ): Совокупность действий, определяемых нормативно-правовой документацией организации, по обеспечению ИБ без применения технических средств защиты.
[ГОСТ Р 53131-2008, пункт 3.1.20]
3.14
организационные меры безопасности: Меры безопасности информационной системы, которые главным образом реализуются и выполняются операторами, а не системами.
[ГОСТ Р ИСО/МЭК ТО 19791-2008, пункт 3.4]
3.15
технические меры безопасности: Меры безопасности информационной системы, которые реализуются и выполняются самой информационной системой через механизмы, содержащиеся в аппаратных, программных или программно-аппаратных компонентах системы.
[ГОСТ Р ИСО/МЭК ТО 19791-2008, пункт 3.16]
3.16 формальный метод верификации модели искусственного интеллекта: Основанный на математике и логике метод для верификации модели искусственного интеллекта путем формального доказательства ее соответствия заданным спецификациям и требованиям информационной безопасности.
3.17
качество данных (data quality): Степень, с которой набор характеристик, присущих данным, отвечает требованиям.
[ГОСТ Р ИСО 8000-2-2019, статья 3.8.1]
3.18 MITRE ATT&CK: Структурированная база знаний, содержащая описание основных известных тактик и техник, которыми злоумышленники пользуются в своих атаках на корпоративную инфраструктуру.
Примечание - Располагается по адресу https://attack.mitre.org/.
3.19 постоянная серьезная угроза (advanced persistent threats, APT): Целевая длительная и скрытая компьютерная атака повышенной сложности, при которой злоумышленники получают доступ к информационным системам и остаются незамеченными.
4 Общие положения
4.1 Принципы применения систем искусственного интеллекта в критической информационной инфраструктуре
4.1.1 Применение СИИ в КИИ должно основываться на следующих принципах:
- ИБ, включающая устойчивое функционирование КИИ при компьютерных атаках - СИИ должны быть спроектированы, разработаны и внедрены с обеспечением защиты от внешних и внутренних угроз с учетом того, что интеграция моделей искусственного интеллекта (ИИ) увеличивает число точек входа для компьютерных атак и требует новых подходов к управлению безопасностью;
- надежность и управляемость - СИИ должны функционировать в соответствии с решаемыми задачами и сохранять работоспособность при воздействии различных дестабилизирующих факторов;
- объяснимость - функционирование СИИ должно быть понятным и интерпретируемым для человека, особенно в части принятия критически важных решений;
- доверенность - СИИ с уровнем критичности 1 и 2 в соответствии с 4.3.1 должны быть доверенными;
- защита от несанкционированного доступа - СИИ должны обеспечивать защиту от любых форм несанкционированного доступа и воздействия на функционирование СИИ;
- сохранение контроля человека над критическими функциями - в СИИ должна быть предусмотрена интерпретируемость принимаемых решений и возможность аудита, чтобы поддерживать человеческий контроль и подотчетность, а также возможность вмешательства человека и отмены решений, принимаемых СИИ;
- постоянное совершенствование - должен обеспечиваться регулярный анализ, повышение точности результата решений и совершенствование мер защиты СИИ с учетом появления новых угроз и уязвимостей, включая появление гибридных систем, сочетающих классические и квантовые методы машинного обучения и ускорения работы СИИ и ИИ-оптимизации постквантовых алгоритмов.
4.1.2 Применение СИИ в КИИ должно учитывать:
- категорию значимости объекта КИИ (для определения строгости требований к ИБ);
- уровень автономности принятия решений СИИ (в соответствии с 4.2);
- отраслевую специфику (включая типовые угрозы, нормативные акты отрасли и особенности функционирования), влияющую на выбор методов управления рисками согласно разделу 5.
Примечания
1 Учет специфики отрасли включает особенности функционирования объектов, процессов, характеристик данных, требований по ИБ и нормативному регулированию, требованию по запрету использований технологий ИИ в составе программно-аппаратных комплексов, которые должны приниматься во внимание на всех этапах жизненного цикла СИИ.
2 Категория значимости объекта КИИ устанавливается в соответствии с п. 3 ст. 7 [1] - первая, вторая или третья категория - и влияет на требования к применению СИИ и уровень их ИБ согласно настоящему стандарту.
3 Дифференциация требований в зависимости от категории значимости объекта КИИ детализирована в 4.3.
4.1.3 Несоблюдение требований, указанных в 4.1.2, может привести к рискам нарушения устойчивого и безопасного функционирования объекта КИИ.
4.1.4 При проектировании, внедрении и эксплуатации СИИ в КИИ следует обеспечивать:
- соответствие требованиям ИБ;
- совместимость с действующими средствами защиты информации;
- возможность контроля, аудита и интерпретации принимаемых решений СИИ.
4.1.5 Применение СИИ не должно снижать уровень защищенности КИИ по сравнению с ранее установленным.
4.1.6 При оценке возможности внедрения СИИ в КИИ рекомендуется проводить предварительный анализ рисков, связанных с отказами, ошибками, уязвимостями или непредсказуемым поведением моделей ИИ.
4.1.7 В случае использования внешних компонентов для СИИ (в том числе облачных) необходимо предусматривать меры:
- по защите передаваемой и обрабатываемой информации;
- обеспечению суверенитета данных;
- ограничению несанкционированного доступа к элементам инфраструктуры СИИ.
4.1.8 Ответственность за учет специфики отрасли и категории значимости объектов КИИ несет организация-владелец или оператор КИИ.
4.2 Классификация систем искусственного интеллекта для критической информационной инфраструктуры
СИИ, применяемые в КИИ, классифицируют по ГОСТ Р 59277, а также по следующим основным признакам:
а) по уровню автономности принятия решений:
1) системы с низкой автономностью (рекомендательные системы, системы поддержки принятия решений без прямого воздействия на процессы принятия решений);
2) системы со средней автономностью (системы, частично автоматизирующие процессы принятия решений с возможностью контроля человеком);
3) системы с высокой автономностью (системы, принимающие автономные решения с прямым воздействием на критически важные процессы принятия критически важных решений);
б) по функциональному назначению:
1) системы обеспечения ИБ (включая мониторинг, обнаружение аномалий, включая машинное обучение для распознавания характерных для злоумышленников паттернов поведения и автоматическую генерацию предупреждений, прогнозирование и предупреждение инцидентов ИБ, включая ИИ-решения для автоматизированного обнаружения, анализа и реагирования на киберугрозы в КИИ, в том числе системы обнаружения вторжений на основе машинного обучения);
2) системы для анализа состояния физической инфраструктуры (например, обнаружение повреждений на объектах);
3) системы автоматизированного управления процессами, автоматического выявления и реагирования на киберугрозы, включая системы обнаружения вторжений и системы управления инцидентами на основе ИИ;
4) системы обеспечения физической безопасности для охраны периметра, контроля доступа и мониторинга чувствительных зон физических объектов КИИ в режиме реального времени, включая использование оснащенных ИИ беспилотных летательных аппаратов для мониторинга больших или недоступных территорий в режиме реального времени для обеспечения операционной ситуационной осведомленности, обнаружения угроз и поддержки реагирования на инциденты;
5) системы анализа данных и поддержки принятия решений, включая системы разработки модели угроз на основе методики Федеральной службы по техническому и экспортному контролю (ФСТЭК России) и фреймворка MITRE ATT&CK;
6) системы контроля и диагностики технического состояния физических объектов КИИ и их компонентов;
7) прочие системы;
в) по области применения:
1) системы для объектов здравоохранения;
2) системы для объектов науки;
3) системы для объектов транспорта;
4) системы для объектов энергетики;
5) системы для государственной регистрации прав на недвижимое имущество и сделок с ним;
6) системы для банковской сферы и иных сфер финансового рынка;
7) системы для объектов топливно-энергетического комплекса;
8) системы для промышленных объектов в области атомной энергии;
9) системы для промышленных объектов в области оборонной промышленности;
10) системы для промышленных объектов в области ракетно-космической промышленности;
11) системы для промышленных объектов в области горнодобывающей промышленности;
12) системы для промышленных объектов в области металлургической промышленности;
13) системы для промышленных объектов в области химической промышленности;
14) комплексные СИИ для КИИ, включающих взаимосвязанные или интегрированные системы, в которых сбой в одной части может повлиять на всю инфраструктуру (модели ИИ могут моделировать сценарии распространения угроз между системами и предлагать меры по изоляции очагов атаки);
15) другие специализированные системы.
Примечание - Для перечисленных классов систем по области применения могут дополнительно применяться специализированные стандарты, касающиеся управления рисками, ИБ и других аспектов стандартизации, затрагивающих КИИ, и относящиеся к конкретной отрасли (например, ГОСТ Р 71737 для систем в области здравоохранения);
г) по источнику данных:
1) СИИ, работающие исключительно на внутренних и (или) закрытых данных;
2) СИИ, которые могут использовать внешние данные из доверенных источников (например, из государственных информационных систем);
3) СИИ, которые могут использовать прочие внешние или публичные данные.
4.3 Уровни критичности систем искусственного интеллекта
4.3.1 Для СИИ, применяемых в КИИ, устанавливают следующие уровни критичности:
- уровень 1 (критический) - СИИ, играющие ключевую роль в обеспечении ИБ и непрерывности функционирования объектов КИИ. Ошибки или сбои в работе таких систем могут привести к аварийным ситуациям, угрозе жизни и здоровью людей, значительному материальному ущербу или другим тяжелым последствиям;
- уровень 2 (высокий) - СИИ, автоматически принимающие решения, непосредственно влияющие на функционирование объектов КИИ. Ошибки или сбои в работе таких систем могут привести к нарушениям функционирования объектов КИИ;
- уровень 3 (средний) - СИИ, участвующие в управлении процессами, но с обязательным контролем человеком перед исполнением критически важных решений. Ошибки или сбои в работе таких систем могут привести к снижению эффективности функционирования объектов КИИ, но не к полному нарушению их работы;
- уровень 4 (низкий) - СИИ, используемые для аналитики и поддержки принятия решений без прямого воздействия на процессы. Ошибки или сбои в работе таких систем не приводят к непосредственному нарушению функционирования объектов КИИ.
Примечание - Уровень автономности принятия решений [см. (4.2 а)] и уровень критичности являются независимыми характеристиками. Система может обладать высокой критичностью при низкой автономности принятия решений (например, система экстренного останова с ручным управлением) или высокой автономностью принятия решений при низкой критичности (например, автономная система мониторинга трафика в корпоративных сетях).
4.3.2 Уровень критичности СИИ определяется на этапе планирования разработки на основе категории значимости объекта КИИ, модели угроз и последствий возможных сбоев, и зависит от значения показателя состояния обеспечения ИБ значимых объектов КИИ и методов оценки возможности реализации (возникновения) угроз ИБ с учетом их актуальности [4], [5], а также на основе критериев, определенных в 4.3.1, включая анализ рисков и последствий возможных сбоев, степень влияния (интеграции) моделей ИИ на объекты КИИ. При внесении проектных изменений в СИИ, изменении модели угроз или последствий возможных сбоев следует заново оценить уровень ее критичности.
4.3.3 Для каждого уровня критичности СИИ устанавливают соответствующие отдельные виды требований, определенные в разделе 5.
5 Управление угрозами информационной безопасности в системах искусственного интеллекта
5.1 Оценка рисков
5.1.1 Для СИИ, применяемых в КИИ, должна проводиться комплексная оценка рисков на всех этапах жизненного цикла СИИ, включая проектирование, внедрение, эксплуатацию и вывод из эксплуатации. Оценка рисков осуществляется оператором КИИ, при необходимости - с участием разработчиков СИИ. Оценка должна включать:
- идентификацию возможных уязвимостей, угроз ИБ, потенциально опасных сценариев и возможного ущерба, связанных с технологиями ИИ;
- идентификацию потенциальных нарушителей и определение способов реализации компьютерных атак;
- оценку вероятности реализации выявленных угроз и степени возможного ущерба (с учетом воздействия на функционирование объекта КИИ);
- определение приемлемого уровня риска в соответствии с ГОСТ Р ИСО/МЭК 27005 с учетом категории значимости объекта КИИ, действующей политики управления рисками субъекта КИИ и требований применимых нормативных правовых актов;
- разработку и внедрение организационных мер по снижению рисков в соответствии с ГОСТ Р ИСО/МЭК 27005 до приемлемого уровня или ниже;
- реализацию процедур контроля, аудита и регулярного пересмотра оценки рисков в процессе эксплуатации СИИ.
5.1.2 Оценка рисков должна проводиться:
- на этапе планирования, проектирования и разработки СИИ или перед внедрением СИИ в эксплуатацию;
- при изменениях в СИИ или условиях ее функционирования, выходящих за рамки технического задания на СИИ;
- периодически в процессе эксплуатации (не реже одного раза в полгода для систем уровней критичности 1 и 2, и не реже одного раза в год для систем уровней критичности 3 и 4);
- при получении достоверной информации о неизвестных ранее уязвимостях и инцидентах, относящихся к компонентам СИИ.
5.1.3 Оценка рисков осуществляется в соответствии с требованиями ГОСТ Р ИСО/МЭК 27005, а также [1], [4] - [7], и должна учитывать специфические риски, связанные с применением СИИ, включая:
а) риски целенаправленных компьютерных атак на СИИ, включая, но не ограничиваясь:
1) инъекции команд - манипулирование поведением ИИ через входные данные для обхода ограничений безопасности;
2) отравление данных и модели - внедрение вредоносных данных в обучающие выборки для создания скрытых уязвимостей или деградации модели;
3) враждебные примеры - использование для обучения модели ИИ специально разработанных элементов данных, позволяющих злоумышленнику манипулировать СИИ в процессе ее эксплуатации;
4) уязвимости цепочки поставок моделей ИИ - использование скомпрометированных сторонних моделей, наборов данных или библиотек;
5) атаки уклонения - создание входных данных с минимальными искажениями, приводящими к ошибочному решению модели;
6) кража модели - несанкционированное извлечение архитектуры и весов проприетарной модели;
б) риски несанкционированного использования СИИ для генерации вредоносного кода или компьютерных атак;
в) риски, связанные с качеством и репрезентативностью данных;
г) риски неверной интерпретации результатов работы СИИ;
д) риски неконтролируемого поведения СИИ;
е) риски зависимости от внешних компонентов и поставщиков;
ж) риски, связанные с обновлением и модификацией СИИ;
и) риски, связанные с возможностью осуществления обратного инжиниринга СИИ;
к) риски, связанные с человеческим фактором;
л) другие риски, связанные с особенностями компонентов СИИ и внешней среды.
5.2 Методы снижения рисков
5.2.1 Для снижения рисков, связанных с применением СИИ в КИИ, применяют следующие методы:
- разработка мер и обеспечение ИБ СИИ на всех этапах ее жизненного цикла;
- применение архитектурно-алгоритмических решений и специализированного процесса их обучения;
- обеспечение высокой надежности инфраструктуры программно-аппаратных комплексов СИИ (вычислений, хранения, передачи данных и инфраструктурного программного обеспечения);
- проведение представительных испытаний алгоритмов ИИ, применяемых в КИИ;
- многоуровневая защита компонентов СИИ;
- разработка и внедрение политик и процедур ИБ;
- углубленное тестирование ИБ СИИ, включая моделирование угроз;
- обучение и повышение осведомленности персонала;
- внедрение технических мер защиты от известных типов компьютерных атак и регулярный мониторинг возникающих новых типов, проверка устойчивости СИИ к компьютерным атакам;
- обеспечение резервирования критически важных компонентов;
- мониторинг и анализ инцидентов ИБ;
- своевременное обновление программного обеспечения;
- контроль доступа с соблюдением принципа минимальных привилегий;
- разработка и обновление плана реагирования на инциденты ИБ и отказоустойчивости СИИ;
- применение современных методов шифрования для защиты данных на всех этапах их обработки и хранения;
- проведение анализа рисков при интеграции новых компонентов или технологий в существующую инфраструктуру;
- пересмотр, обновление и валидация моделей ИИ с учетом новых угроз и данных;
- устранение смещений в данных, используемых для обучения модели ИИ;
- другие методы в соответствии с ГОСТ Р ИСО 31000.
5.2.2 Для СИИ уровней критичности 1 и 2 дополнительно применяют:
- независимую экспертизу ИБ (обязательна только для СИИ, использующих данные с ограниченным доступом или поддерживающих инфраструктурные функции);
- формальные методы верификации используемых моделей ИИ;
- построение изолированных сред функционирования;
- автоматизированные средства обнаружения и реагирования на компьютерные атаки;
- оптимизацию исполняемого программного обеспечения СИИ на используемой инфраструктуре для улучшения показателей эффективности;
- альтернативные методы (пентесты, симуляции и др.) с обязательным документированием.
5.2.3 Для СИИ уровней критичности 1 и 2 недопустимо:
- обучение "на лету" без предварительного ручного анализа и валидации моделей машинного обучения после каждого цикла обучения;
- подключение внешних компонентов (API, облака, внешние модели), критические компоненты СИИ должны быть подвергнуты полной проверке исходного кода и локализации.
5.2.4 Меры по снижению рисков, связанных с применением СИИ в КИИ, должны основываться на требованиях [5], [6], [8] - [12], соответствовать выявленным угрозам и категории значимости объекта КИИ и определяться в соответствии с утвержденной методикой.
5.2.5 Субъект КИИ может применять дополнительные меры по снижению рисков, соответствующих актуальным угрозам.
5.2.6 Меры по снижению рисков должны быть адекватны выявленным угрозам и соответствовать категории значимости объекта КИИ.
5.3 Мониторинг и контроль
5.3.1 Для СИИ, применяемых в КИИ, должны быть организованы процессы мониторинга и контроля состояния СИИ, включающие следующее:
- мониторинг работоспособности и производительности СИИ;
- мониторинг ИБ СИИ и выявление аномалий;
- мониторинг качества данных и результатов работы СИИ;
- контроль действий пользователей и администраторов, включая оптимизацию настроек ролевой модели прав в СИИ;
- мониторинг соответствия нормативным требованиям и политике ИБ организации;
- мониторинг использования вычислительных ресурсов;
- мониторинг процессов обновления и изменений в СИИ;
- мониторинг жизненного цикла данных (включая своевременное удаление данных, период хранения которых истек).
5.3.2 Процессы мониторинга и контроля должны обеспечивать:
- сбор и анализ информации в режиме, близком к реальному времени;
- автоматическое выявление подозрительной активности;
- оперативное оповещение о выявленных инцидентах ИБ;
- сохранение данных для последующего анализа;
- формирование отчетов о состоянии СИИ.
5.3.3 Результаты мониторинга и контроля должны анализироваться в следующем порядке:
а) периодичность анализа устанавливается в зависимости от уровня критичности СИИ:
1) для уровней критичности 1 и 2 - не реже одного раза в квартал;
2) для уровней критичности 3 и 4 - не реже одного раза в месяц;
б) анализ должен проводиться с применением формализованных методик статистической обработки данных мониторинга;
в) выявляемые тенденции включают:
1) изменения в показателях ИБ СИИ;
2) динамику качества данных и точности результатов функционирования СИИ;
3) изменения в поведении пользователей и администраторов;
4) тенденции возникновения инцидентов ИБ.
Результаты анализа должны использоваться для корректировки мер защиты и совершенствования процессов мониторинга и контроля.
5.3.4 Для СИИ уровней критичности 1 и 2 должны быть организованы центры мониторинга с круглосуточным режимом работы и интеграцией с ГосСОПКА. Субъектом КИИ должна передаваться информация о выявленных инцидентах в Национальный координационный центр по компьютерным инцидентам (НКЦКИ). Допускается автоматизированный мониторинг с резервным привлечением специалистов при критических инцидентах.
5.3.5 Мониторинг и контроль СИИ осуществляется с учетом положений и требований ГОСТ Р 59547, ГОСТ Р 59548, ГОСТ Р 59710, ГОСТ Р 59711 и ГОСТ Р 59712.
5.4 Планы реагирования на инциденты информационной безопасности
5.4.1 Для СИИ, применяемых в КИИ, должны быть разработаны планы реагирования на инциденты в соответствии с ГОСТ Р 59711.
5.4.2 Планы реагирования на инциденты должны учитывать специфические типы инцидентов, связанные с технологиями ИИ, включая:
- ошибки в работе алгоритмов и моделей;
- компьютерные атаки на модель или данные;
- манипуляции с входными данными;
- непредвиденное поведение СИИ;
- отказы компонентов, влияющие на ИБ;
- утечки конфиденциальной информации;
- компрометация модели ИИ (эксплуатация уязвимостей модели);
- сбои в процессе обновления компонентов или дообучения моделей;
- негативное влияние внешних факторов;
- ошибки в интеграции с другими системами.
5.4.3 Планы реагирования на инциденты ИБ должны регулярно тестироваться и обновляться (не реже одного раза в год).
5.4.4 Планы реагирования на инциденты ИБ должны быть логически увязаны с планами реагирования на компьютерные инциденты на объекте КИИ.
5.4.5 Учения проводятся не реже одного раза в год для уровня 2 и не реже одного раза в полгода для уровня 1, с возможностью сокращения по согласованию с регулятором.
Примечание - В настоящем подразделе термины "инцидент ИБ" соответствует понятию "инцидент ИБ с участием ИИ".
6 Организационные меры
6.1 Организации, применяющие СИИ в КИИ, должны разработать и внедрить политики и процедуры, соответствующие требованиям [6], а также:
- политику ИБ СИИ;
- процедуры управления жизненным циклом СИИ, включая учет внедренных решений ИИ;
- процедуры управления доступом к СИИ;
- процедуры тестирования и валидации СИИ;
- процедуры реагирования на инциденты ИБ;
- процедуры резервного копирования и восстановления;
- процедуры управления изменениями;
- процедуры обучения персонала, работающего с СИИ, мониторингу и реагированию на специфические риски ИИ.
6.2 Политики и процедуры должны:
- быть протестированы и соответствовать требованиям законодательства и нормативных актов, относящихся к обеспечению ИБ КИИ;
- быть утверждены заместителем руководителя органа (организации), ответственного за обеспечение ИБ органа (организации), и быть обеспечены органом (организацией) достаточным количеством ресурсов для исполнения;
- предусматривать регламентацию обновления моделей - их тестирование перед обновлением в продуктивной среде;
- периодически пересматриваться и обновляться (не реже одного раза в год).
6.3 Для СИИ уровней критичности 1 и 2 должны быть дополнительно разработаны:
- планы обеспечения непрерывности функционирования;
- процедуры аварийного останова и перехода в безопасное состояние СИИ при выявлении критических инцидентов ИБ, если такой останов не нарушает технологических процессов объекта КИИ.
6.4 В случаях, когда аварийный останов СИИ технологически невозможен или может привести к нарушению функционирования критически важных процессов объекта КИИ, должны быть предусмотрены альтернативные меры:
- процедуры перевода СИИ в режим ограниченной функциональности;
- процедуры переключения на резервные алгоритмы или ручное управление;
- процедуры изоляции скомпрометированных компонентов без полного останова СИИ.
6.5 Невозможность реализации процедур аварийного останова должна быть обоснована в документации СИИ с указанием конкретных технологических ограничений и описанием принятых альтернативных мер обеспечения ИБ.
7 Показатели эффективности и отчетность
7.1 Показатели эффективности и информационной безопасности
7.1.1 Для оценки эффективности и ИБ СИИ, применяемых в КИИ, должны использоваться следующие группы показателей:
а) показатели функциональной эффективности:
1) точность результатов;
2) скорость обработки данных;
3) способность к обобщению;
б) показатели надежности:
1) среднее время наработки на отказ;
2) время восстановления после сбоя;
3) количество сбоев в единицу времени;
4) устойчивость к нештатным ситуациям;
в) показатели ИБ:
1) количество выявленных уязвимостей за единицу времени;
2) количество инцидентов ИБ за единицу времени;
3) время обнаружения инцидентов ИБ;
4) время реагирования на инциденты ИБ;
г) показатели ресурсоэффективности:
1) использование вычислительных ресурсов;
2) использование памяти.
7.1.2 При проектировании СИИ для каждого показателя должны быть установлены:
- целевые значения;
- допустимые отклонения;
- критические значения, требующие немедленного реагирования;
- методики измерения.
7.1.3 Показатели эффективности должны регулярно измеряться и анализироваться:
- в рамках периодических проверок - для углубленного анализа;
- после значительных изменений в СИИ - для оценки их влияния.
Примечание - Для СИИ с уровнем критичности 3 или 4 допустимо периодическое ручное измерение при наличии обоснования.
7.1.4 Результаты анализа показателей эффективности должны использоваться:
- для совершенствования СИИ;
- корректировки мер защиты;
- планирования ресурсов;
- принятия решений о модернизации или замене СИИ.
7.1.5 Показатели эффективности должны измеряться в совокупной работе инфраструктуры для СИИ (вычисление, хранение, сеть и инфраструктурное программное обеспечение).
7.1.6 Показатели должны быть минимально необходимыми для оценки эффективности и ИБ, с возможностью дополнения в зависимости от специфики СИИ.
7.2 Проверки
7.2.1 Для СИИ, применяемых в КИИ, должны проводиться проверки, включающие в себя:
- внутренний аудит ИБ;
- функциональное тестирование;
- тестирование на проникновение;
- проверку соответствия требованиям нормативных документов;
- проверку процедур резервного копирования и восстановления;
- проверку защищенности от компьютерных атак на обучающие выборки и манипуляции данными для искажения работы моделей ИИ;
- проверку защищенности от постоянных серьезных угроз с помощью эвристического анализа или иных методов.
7.2.2 Для СИИ, применяемых на значимых объектах КИИ, дополнительно должно проводиться фаззинг-тестирование перед вводом СИИ в эксплуатацию или после существенных изменений в ней.
7.2.3 Проверки должны организовываться субъектом КИИ и проводиться:
- перед вводом СИИ в эксплуатацию;
- после изменений в СИИ;
- периодически в процессе эксплуатации;
- при выявлении инцидентов ИБ.
7.2.4 Проведение функционального тестирования СИИ должно включать:
- проверку соответствия фактического поведения СИИ заданным функциональным требованиям и техническому заданию;
- тестирование корректности исполнения алгоритмов ИИ в штатных, пограничных и нестандартных сценариях эксплуатации СИИ;
- оценку способности СИИ принимать решения в пределах допустимых параметров точности, устойчивости и воспроизводимости;
- проверку взаимодействия компонентов СИИ с другими элементами КИИ;
- выявление сбоев, недетерминированного поведения, неожиданных ответов модели ИИ или некорректной генерации вывода;
- документирование всех сценариев тестов, сценариев, результатов и выявленных отклонений.
7.2.5 Периодичность проведения проверок отсчитывается от момента ввода СИИ в эксплуатацию и зависит от уровня критичности СИИ:
- для систем уровня критичности 1 и 2 - не реже одного раза в полгода;
- для систем уровня критичности 3 и 4 - не реже одного раза в год.
Примечание - Следует проводить внеплановые проверки для СИИ любого уровня критичности при наступлении триггерных событий (инцидент безопасности, существенное изменение архитектуры СИИ, получение данных о новых критических уязвимостях).
7.2.6 Результаты проверок должны:
- документироваться в соответствии с установленными требованиями;
- анализироваться для выявления систематических проблем;
- использоваться для улучшения СИИ и процессов;
- доводиться до сведения руководства.
7.2.7 По результатам проверок должны разрабатываться планы корректирующих мероприятий с указанием:
- выявленных недостатков;
- мер по их устранению;
- ответственных исполнителей;
- сроков реализации мер;
- критериев оценки эффективности принятых мер (для СИИ с критичностью 3 или 4 допускаются упрощенные критерии, например, экспертная оценка).
7.3 Отчетность
7.3.1 Для СИИ, применяемых в КИИ, должна формироваться следующая отчетность:
- оперативные отчеты о состоянии СИИ;
- отчеты об инцидентах ИБ;
- отчеты о результатах мониторинга показателей эффективности;
- отчеты по результатам проверок;
- периодические отчеты о функционировании СИИ.
7.3.2 Отчетность должна содержать:
- актуальную и достоверную информацию;
- данные о выявленных проблемах и рисках;
- сведения о принятых мерах;
- рекомендации по совершенствованию СИИ.
7.3.3 Периодичность формирования отчетности определяется в зависимости от уровня критичности СИИ и типа отчета, но должна составлять:
- для оперативных отчетов - для систем с уровнями критичности 1 и 2 при наличии критических инцидентов ИБ - в режиме реального времени, без инцидентов ИБ и для критичности 3 и 4 - ежедневно;
- для отчетов об инцидентах ИБ - немедленно после инцидента и по завершении расследования;
- для отчетов о результатах мониторинга - еженедельно;
- для отчетов по результатам проверки - после каждой проверки;
- для периодических отчетов - в соответствии с периодичностью, установленной для конкретного субъекта КИИ.
7.3.4 Отчетность должна предоставляться:
- руководству организации;
- подразделениям, ответственным за ИБ;
- уполномоченным органам в соответствии с требованиями законодательства;
- другим заинтересованным сторонам в соответствии с установленными процедурами.
7.3.5 Форматы и минимальный состав отчетности устанавливаются в эксплуатационной документации на СИИ и организационными процедурами субъекта КИИ.
БИБЛИОГРАФИЯ
[1]
Федеральный закон от 26 июля 2017 г. N 187-ФЗ "О безопасности критической информационной инфраструктуры Российской Федерации"
ИС МЕГАНОРМ: примечание.
В официальном тексте документа, видимо, допущена опечатка: Указ Президента Российской Федерации N 490 "О развитии искусственного интеллекта в Российской Федерации" издан 10.10.2019, а не 10.09.2019.
[2]
Указ Президента Российской Федерации от 10 сентября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации"
[3]
ИСО/МЭК 23894:2023
Информационная технология. Искусственный интеллект. Управление рисками
[4]
Методика оценки показателя состояния технической защиты информации и обеспечения безопасности значимых объектов критической информационной инфраструктуры Российской Федерации, утвержденная ФСТЭК России 2 мая 2024 г.
[5]
Методика оценки угроз безопасности информации, утвержденная ФСТЭК России 5 февраля 2021 г.
[6]
Требования по обеспечению безопасности значимых объектов критической информационной инфраструктуры Российской Федерации, утвержденные приказом ФСТЭК России от 25 декабря 2017 г. N 239
[7]
Банк данных угроз безопасности информации ФСТЭК России
[8]
Требования к созданию систем безопасности значимых объектов критической информационной инфраструктуры Российской Федерации и обеспечению их функционирования, утвержденные приказом ФСТЭК России от 21 декабря 2017 г. N 235
[9]
Требования по безопасности информации к средствам контейнеризации (выписка), утвержденные приказом ФСТЭК России от 4 июля 2022 г. N 118
[10]
Требования по безопасности информации, устанавливающие уровни доверия к средствам технической защиты информации и средствам обеспечения безопасности информационных технологий (выписка), утвержденные приказом ФСТЭК России от 2 июня 2020 г. N 76
[11]
Методика оценки уровня критичности уязвимостей программных, программно-аппаратных средств, утвержденная ФСТЭК России 28 октября 2022 г.
[12]
Меры защиты информации в государственных информационных системах, утвержденные ФСТЭК России 11 февраля 2014 г.
УДК 004.89:006.354
ОКС 35.240.99
Ключевые слова: искусственный интеллект, критическая информационная инфраструктура, общие положения