14.05.2026

Российские ведомства присматриваются к зарубежным нейросетям, несмотря на курс на суверенный ИИ

Российские органы власти начали включать искусственный интеллект в свои программы цифровой трансформации на 2026–2028 годы, но первые планы показали неоднозначную картину. Несмотря на официальную ставку на технологический суверенитет, часть ведомств рассматривает для рабочих задач не только отечественные разработки, но и зарубежные open-source-модели. Среди них упоминаются китайская Qwen, семейство Llama и другие решения, которые можно развернуть в закрытом контуре без обращения к внешним облачным сервисам.

Главный вывод из этой ситуации заключается в том, что российский государственный сектор ищет не идеологически чистую, а практически работающую модель внедрения ИИ. Ведомствам нужны инструменты для обработки обращений граждан, анализа документов, распознавания речи, перевода текстов, поиска изображений, оценки рисков, фильтрации трафика и автоматизации внутренних процессов. Если отечественные решения не всегда закрывают конкретную задачу, чиновники и интеграторы смотрят на уже доступные зарубежные модели, особенно если их можно использовать локально и без передачи данных наружу.

Почему ведомства выбирают разные модели

В программах цифровизации видно, что единого подхода к выбору ИИ пока нет. Многие органы власти ещё не определились с конкретными инструментами, а те, кто уже указал модели, выбрали разные варианты. Одни ориентируются на GigaChat и другие российские разработки, другие рассматривают Qwen, Llama, OPT или просто обозначают категорию зарубежных больших языковых моделей без указания конкретного названия.

Такой разброс объясняется тем, что задачи у ведомств разные. Одному нужно обрабатывать обращения граждан, другому — искать музейные предметы по изображениям, третьему — проверять типовые документы, четвёртому — распознавать аудио и переводить тексты, пятому — создавать систему компьютерного зрения для распознавания автомобилей. Универсальной модели, которая одинаково хорошо закрывает все эти сценарии, пока нет.

Кроме того, ведомства находятся на раннем этапе внедрения. Для многих проектов речь идёт не о промышленной эксплуатации, а о тестировании, сравнении и создании минимально жизнеспособных решений. На таком этапе open-source-модели удобны: их можно быстро развернуть, проверить гипотезу, оценить качество и понять, какие требования нужно предъявлять к будущей системе.

Почему Qwen оказалась заметной в планах

Китайская Qwen от Alibaba стала одной из наиболее часто упоминаемых зарубежных моделей. Её рассматривают для обработки обращений граждан, подготовки уведомлений и работы с документами. Для ведомств важны не только качество ответов, но и технические условия: модель должна быть доступной, достаточно быстрой, бесплатной или свободно распространяемой, а главное — пригодной для локального развёртывания.

Локальное использование становится ключевым требованием. Если модель работает на серверах самого ведомства или интегратора, данные не уходят в зарубежное облако. Это особенно важно для государственных структур, которые работают с персональными данными, служебной информацией, обращениями граждан и внутренними документами. Поэтому иностранное происхождение модели само по себе не всегда считается непреодолимым барьером, если она не подключается к внешнему сервису.

Однако выбор Qwen или другой зарубежной модели может быть временным. Некоторые ведомства прямо говорят, что такие решения используются для тестов и сравнения, а при переходе к промышленной эксплуатации приоритет может сместиться в сторону отечественных разработок. Иными словами, зарубежная модель часто выступает как быстрый инструмент для проверки идеи, а не как окончательный выбор на годы.

Где планируют применять отечественные модели

Российские модели тоже занимают заметное место в планах ведомств. GigaChat рассматривается для проверки типовых документов, поиска информации, распознавания речи, перевода и других прикладных задач. Отечественные разработки также упоминаются в проектах анализа комментариев граждан, подготовки ответов на обращения, обработки документов и расчёта рисков в медицинском страховании.

Для государства отечественные модели привлекательны не только из-за языка и локального контекста. Они лучше соответствуют политике технологического суверенитета и потенциально проще проходят юридические и организационные согласования. Если модель создана российской компанией, развёрнута внутри страны и адаптирована под российские данные, её легче представить как безопасную для государственных процессов.

Но у отечественных моделей есть и вызовы. Им нужно конкурировать с сильными зарубежными open-source-решениями по качеству, скорости, стоимости внедрения, требованиям к железу и удобству настройки. Государственный заказчик может хотеть российский ИИ, но если конкретная задача лучше решается другой моделью, возникает практический конфликт между суверенной политикой и эффективностью.

Почему закрытый контур стал главным компромиссом

Закрытый контур — это главный компромисс между использованием зарубежных моделей и требованиями безопасности. Смысл в том, что модель разворачивается на внутренних серверах, не имеет доступа к внешней сети и не отправляет данные разработчику или облачному провайдеру. Такой подход снижает риск утечки персональной и служебной информации.

Для многих задач это действительно важное решение. Если ведомство обрабатывает обращения граждан, документы, аудиозаписи, кадастровые данные или медицинские риски, отправлять такие данные в зарубежный облачный сервис было бы крайне рискованно. Локальное развёртывание позволяет использовать возможности модели, не отдавая ей контроль над инфраструктурой и данными.

Однако закрытый контур не снимает всех вопросов. Даже если данные не уходят наружу, сама модель остаётся сложным «чёрным ящиком». Нельзя автоматически считать её безопасной только потому, что она лежит на внутреннем сервере. Нужно понимать, откуда взялись веса, на каких данных обучалась модель, какие ограничения в неё встроены, как она реагирует на чувствительные темы и нет ли в ней скрытых дефектов.

Почему зарубежная модель остаётся риском

Использование зарубежных open-source-моделей в государственном секторе несёт несколько типов риска. Первый — технический. Модель может содержать уязвимости, ошибки сериализации, скрытые зависимости, подозрительные компоненты или проблемы с лицензией. Перед внедрением её нужно проверять так же внимательно, как критически важное программное обеспечение.

Второй риск — смысловой. Языковая модель не просто обрабатывает текст, а интерпретирует его. Если она обучалась на данных из другой культурной, правовой и политической среды, она может иначе понимать российские документы, обращения граждан, конфликтные ситуации, санкционные темы, территориальные вопросы или государственную лексику. Такая ошибка может быть незаметной, но влиять на качество решений.

Третий риск — управленческий. Если ведомство привыкает к зарубежной модели, вокруг неё строятся процессы, инструкции, интеграции и рабочие сценарии. Позже заменить её на отечественную систему может оказаться сложнее, чем кажется. Поэтому даже тестовое использование может постепенно создавать зависимость, если не продумать стратегию миграции.

Почему полностью суверенный ИИ пока выглядит недостижимым

Полностью независимый ИИ означает не только российскую модель. Это модель, обученная российскими специалистами на контролируемых данных, с использованием российского программного стека, российской операционной системы, российского железа и собственной вычислительной инфраструктуры. В реальности такой полный контур пока крайне трудно собрать.

Современные нейросети зависят от глобальной экосистемы: открытых библиотек, англоязычных данных, зарубежных исследований, графических ускорителей, фреймворков, инструментов оптимизации и международного опыта. Даже если модель создаётся российской компанией, она редко существует в полной изоляции от мировой технологической базы. Иначе её качество может оказаться слишком низким.

Поэтому эксперты всё чаще говорят о более практичном понимании суверенитета. Важнее не абсолютная «чистота происхождения», а контроль над эксплуатацией: где работает модель, какие данные она получает, кто управляет инфраструктурой, как проверяется её поведение и можно ли заменить её при необходимости. Такой подход менее идеологичен, но гораздо ближе к реальным возможностям.

Как ИИ может изменить работу ведомств

Если внедрение будет успешным, нейросети могут серьёзно изменить внутреннюю работу органов власти. Они способны быстрее сортировать обращения граждан, извлекать данные из документов, искать ошибки в типовых формах, готовить черновики ответов, расшифровывать аудио, переводить тексты, анализировать жалобы, выявлять повторяющиеся проблемы и помогать сотрудникам в рутинных задачах.

Особенно полезным ИИ может быть там, где ведомства сталкиваются с большим потоком однотипной информации. Например, обращения граждан часто содержат похожие проблемы, но написаны разным языком. Модель может группировать такие обращения, выделять причины недовольства, находить повторяющиеся темы и помогать быстрее направлять запросы в нужные подразделения.

Но важно, чтобы нейросеть оставалась помощником, а не самостоятельным чиновником. В государственных процессах ошибка может иметь серьёзные последствия: неверно обработанный документ, неправильно понятая жалоба, ошибочный перевод или неточная оценка риска могут затронуть права человека. Поэтому окончательные решения должны оставаться за ответственными специалистами.

Почему нужен отдельный закон об ИИ

Сейчас в России нет полноценного специального закона, который подробно регулирует использование ИИ государственными органами. Обсуждается системный подход с категориями моделей, реестрами, требованиями безопасности и проверками. Это необходимо, потому что ведомства уже начинают планировать внедрение ИИ, а единые правила пока только формируются.

Без таких правил каждое ведомство будет выбирать решения по-своему. Одни будут ориентироваться на отечественные модели, другие — на зарубежные open-source, третьи — на интеграторов, четвёртые — на собственные разработки. В результате может появиться разнородная и плохо согласованная ИИ-инфраструктура, где качество и безопасность зависят от отдельных решений конкретных команд.

Реестр проверенных моделей мог бы снизить хаос, но важно, чтобы он не стал чисто формальной процедурой. Проверка должна включать не только происхождение модели, но и качество на российских сценариях, устойчивость к ошибкам, безопасность данных, прозрачность обновлений, лицензионную чистоту и возможность локального развёртывания.

Почему ведомствам придётся учиться управлять ИИ

Внедрить нейросеть — это не просто скачать модель и подключить её к документам. Нужны правила работы, тестовые наборы, контроль качества, аудит ошибок, обучение сотрудников, ограничение доступа к данным и понятная ответственность. Если модель выдаёт неверный ответ, ведомство должно понимать, кто проверяет результат и кто отвечает за последствия.

Особенно важны тесты на реальных сценариях. Модель, которая хорошо отвечает на общие вопросы, может плохо справляться с ведомственной терминологией, юридическими формулировками, региональными названиями, редкими документами или специфическими обращениями граждан. Поэтому качество ИИ нужно проверять не на рекламных демонстрациях, а на рабочих задачах конкретного органа власти.

Также придётся решать вопрос обновлений. Модель может улучшаться, но каждое обновление меняет её поведение. В государственном секторе нельзя просто заменить веса и надеяться, что всё станет лучше. Нужно повторное тестирование, контроль совместимости, проверка безопасности и документирование изменений.

Заключение

Планы российских ведомств по использованию нейросетей показывают, что государственный сектор вступает в практическую фазу внедрения ИИ. Но эта фаза оказывается сложнее лозунга о суверенных технологиях. В реальных проектах ведомства рассматривают и отечественные модели, и зарубежные open-source-решения, включая Qwen, Llama и другие системы, если их можно развернуть локально и использовать без передачи данных наружу.

Главный вопрос теперь заключается не в том, иностранная модель или российская, а в том, насколько она безопасна, проверяема, управляема и пригодна для конкретной государственной задачи. Полностью независимый ИИ пока остаётся труднодостижимым идеалом, поэтому ближайшие годы, вероятно, пройдут в режиме компромисса: закрытые контуры, локальное развёртывание, сравнение моделей, постепенная замена экспериментальных решений и формирование правил допуска ИИ к государственным данным.

Добавить комментарий