Российские власти переработали законопроект о регулировании искусственного интеллекта после критики со стороны бизнеса и экспертного сообщества. Из новой версии убрали часть наиболее спорных требований, которые могли ограничить разработчиков и усложнить запуск AI-продуктов.
Главное изменение касается данных для обучения моделей. Ранее обсуждалась идея, что «суверенные» и «национальные» ИИ-системы должны обучаться только на российских датасетах, однако после доработки это требование исключили. Теперь разработчики смогут использовать разные источники данных, если продукт соответствует российскому законодательству.
Требования к разработчикам стали мягче
Из документа также убрали норму, по которой создавать и обучать такие модели должны были исключительно граждане России внутри страны. В обновлённой версии ключевым условием становится участие российского юридического лица в разработке.
Это должно снизить давление на компании, поскольку современная AI-разработка часто строится на международных библиотеках, открытых инструментах и смешанных командах. Представители рынка ранее предупреждали, что слишком жёсткие критерии могут ухудшить качество российских моделей и затормозить развитие отрасли.
Онлайн-сервисы не обяжут становиться ОРИ
Ещё одно важное изменение касается крупных онлайн-сервисов. Из законопроекта убрали требование для платформ с аудиторией более 500 тысяч пользователей регистрироваться как организаторы распространения информации.
Ранее такая норма могла затронуть мессенджеры, соцсети и другие цифровые сервисы, поскольку статус ОРИ связан с установкой специальных технических средств для доступа спецслужб к пользовательским данным. Отказ от этого пункта должен уменьшить регуляторную нагрузку на бизнес.
Ответственность будут определять по действующим законам
Авторы законопроекта также отказались от детального распределения ответственности между участниками AI-рынка. Вместо этого в документе планируется сделать отсылку к уже существующим нормам законодательства.
Бизнес ранее опасался, что преждевременное введение жёсткой ответственности может привести к росту затрат, замедлению запуска новых сервисов и переносу части AI-проектов в другие юрисдикции.
Статусы моделей нужны для поддержки, а не запретов
В правительстве подчёркивают, что категории «национальных» и «суверенных» моделей должны использоваться прежде всего для механизмов господдержки. Отсутствие такого статуса не будет означать запрет на применение других AI-решений.
Отдельно отмечается, что законопроект не запрещает использование иностранных моделей в России. Такие системы смогут работать на рынке при соблюдении требований российского законодательства, а при выполнении стандартов безопасности даже претендовать на статус доверенных.
Доверенные модели будут важны для госсектора
Обязательное использование доверенных AI-решений предполагается не для всего коммерческого рынка, а главным образом для государственных систем, критической информационной инфраструктуры и социально значимых сервисов.
Для обычного бизнеса подтверждение «доверенности» модели должно остаться добровольным. Это снижает риск резкого роста затрат для компаний, которые уже используют искусственный интеллект в коммерческих продуктах.
Законопроект продолжат дорабатывать
Работа над документом продолжается на базе АНО «Цифровая экономика». Власти планируют дополнительно уточнить различия между категориями моделей и определить конкретные инструменты поддержки отечественных разработчиков.
Обновлённый подход показывает, что государство пытается найти баланс между технологическим суверенитетом и свободой развития AI-рынка. Вместо прямых запретов акцент постепенно смещается на поддержку российских решений, безопасность и соответствие национальному законодательству.