Профессиональные справочные системы для специалистов
25.09.2025
ФСТЭК разработает стандарт безопасности для систем искусственного интеллекта

Федеральная служба по техническому и экспортному контролю (ФСТЭК) разрабатывает новый стандарт по безопасности систем искусственного интеллекта. Планируется, что проект документа будет представлен на общественное обсуждение до конца 2025 года. Об этом сообщил первый заместитель директора службы Виталий Лютиков на форуме BIS-2025.

Новый стандарт призван дополнить действующие требования к безопасной разработке программного обеспечения, которые не учитывают специфические угрозы, характерные для ИИ. Как отмечают эксперты, текущие нормативы охватывают лишь общие практики безопасности. Новый же документ должен стать подробным методическим руководством, описывающим меры защиты на всех этапах жизненного цикла систем искусственного интеллекта - от сбора и разметки данных до хранения моделей и обеспечения их целостности.

Особенность ИИ-систем, в отличие от классического программного обеспечения, заключается в том, что их модели работают по принципу "черного ящика", что усложняет их тестирование. Поэтому кибербезопасность должна быть встроена как в процесс создания, так и в эксплуатацию таких систем. Среди ключевых угроз, которые должен учитывать стандарт, эксперты называют "отравление" данных для обучения, инъекции вредоносных промтов и эксплуатацию так называемых "галлюцинаций" моделей.

Ожидается, что требования стандарта будут обязательными для разработчиков, работающих с государственным сектором и критической инфраструктурой. В перспективе они могут стать отраслевой нормой и для коммерческих компаний. Специалисты подчеркивают, что без подобных правил возрастает риск инцидентов, когда ИИ, обученный на некорректных данных, может принимать ошибочные решения с серьезными последствиями.

В мире сегодня существует более 150 отраслевых стандартов по ИИ, однако российский документ, по замыслу разработчиков, должен быть более универсальным и применимым во всех сферах. Что касается влияния на развитие технологий, эксперты полагают, что новые требования могут либо не оказать на него заметного воздействия, либо несколько замедлить его. Однако мировой опыт, например, внедрения решений OpenAI в государственные структуры США, показывает, что успешная адаптация к подобным регуляторным нормам возможна.


Источник:
https://www.computerra.ru/