09.05.2026

ИИ-модели стали лучше находить и использовать уязвимости в реалистичных киберполигонах

Anthropic сообщила о новых результатах тестирования Claude в реалистичных киберполигонах. Исследования показали, что современные AI-модели стали заметно увереннее выполнять сложные многоэтапные задачи в смоделированных корпоративных сетях и уже не всегда нуждаются в специальных инструментах, которые раньше помогали им превращать общие планы в конкретные технические действия.

Главный вывод работы заключается в том, что барьер для автономного применения ИИ в киберсценариях быстро снижается. Если раньше модель могла продвинуться в таких испытаниях только при поддержке специально созданного набора инструментов, то теперь Claude Sonnet 4.5 в отдельных случаях справляется с задачами, используя стандартную среду и общедоступные средства для тестирования безопасности.

Claude стал самостоятельнее в киберполигонах

Anthropic продолжила эксперименты на моделируемых сетях, которые ближе к реальным корпоративным инфраструктурам, чем обычные учебные CTF-задания. Такие полигоны включают десятки узлов, разные сервисы, сетевые связи и сценарии, имитирующие реальные инциденты.

Раньше модели могли полностью пройти подобные сценарии только с помощью специального киберинструментария. Он выступал посредником между высокоуровневой логикой модели и практическими действиями внутри сети. Теперь Sonnet 4.5 в части испытаний смог работать без такой прослойки, что показывает заметный рост прикладных возможностей AI-систем.

Симуляция Equifax стала главным примером

Особое внимание Anthropic уделила полигону, воспроизводящему один из самых известных инцидентов в истории кибербезопасности — утечку данных Equifax. В этой симуляции модель смогла получить доступ к смоделированной персональной информации, используя только стандартную оболочку и обычные инструменты тестирования.

Важный момент заключается в том, что модель распознала известную уязвимость и смогла построить вокруг неё рабочую стратегию. Для защитников это тревожный сигнал: уже опубликованные и давно закрываемые уязвимости могут становиться особенно опасными, если организации медлят с установкой обновлений.

Результаты пока не стоит преувеличивать

Anthropic подчёркивает, что Claude не проходит такие испытания стабильно каждый раз. В симуляции Equifax модель Sonnet 4.5 успешно завершила сценарий только в двух попытках из пяти. Кроме того, в большинстве проверенных сетей она всё ещё не могла значительно продвинуться без специализированного набора инструментов.

Однако сама динамика важнее единичного результата. За относительно короткое время модели перешли от зависимости от вспомогательных систем к частичной самостоятельной работе в сложной среде. Это говорит о быстром развитии возможностей AI-агентов в кибербезопасности.

Прогресс ИИ повышает значение базовой защиты

Один из главных практических выводов исследования связан не с будущими гипотетическими атаками, а с обычной дисциплиной безопасности. Если AI-модель способна быстро распознавать известные уязвимости и строить вокруг них сценарии действий, то задержки с обновлениями становятся ещё опаснее.

Компании, которые не устанавливают патчи, неправильно настраивают сервисы или оставляют старые уязвимые компоненты, фактически расширяют пространство для автоматизированных атак. Чем умнее становятся модели, тем меньше времени может оставаться между появлением публичной информации об уязвимости и её массовым использованием.

Защитникам тоже нужны AI-инструменты

Anthropic рассматривает результаты не только как предупреждение, но и как аргумент в пользу развития защитных AI-систем. Если атакующие инструменты становятся быстрее и автономнее, то специалисты по безопасности должны получать сопоставимые возможности для анализа инфраструктуры, поиска слабых мест и приоритизации исправлений.

ИИ может помогать защитникам быстрее проверять конфигурации, выявлять известные уязвимости, анализировать логи, моделировать возможные сценарии атак и оценивать, какие проблемы нужно закрывать в первую очередь. Без таких инструментов разрыв между скоростью атак и скоростью защиты может увеличиваться.

Кибербезопасность входит в новую фазу

Исследование Anthropic показывает, что AI-модели постепенно переходят от роли консультантов к роли более самостоятельных участников киберпроцессов. Пока их возможности нестабильны и ограничены, но направление развития очевидно: модели становятся лучше в планировании, анализе сетей и использовании уже известных технических слабостей.

Для индустрии это означает необходимость заранее пересматривать подход к защите. Организациям придётся быстрее закрывать уязвимости, внимательнее следить за внешней поверхностью атаки и внедрять инструменты, которые позволяют реагировать на угрозы не вручную и эпизодически, а постоянно.

Реалистичные тесты становятся важнее обычных бенчмарков

Обычные тесты не всегда показывают, насколько AI-модель опасна или полезна в реальной киберсреде. Поэтому Anthropic делает акцент на полигонах, которые имитируют настоящие сети, сложные цепочки действий и реальные ошибки инфраструктуры.

Такие испытания помогают лучше понять, где проходят текущие границы возможностей моделей. Они показывают не только то, может ли ИИ ответить на теоретический вопрос, но и способен ли он последовательно действовать в сложной технической среде.

AI меняет баланс сил в киберпространстве

Пока Claude Sonnet 4.5 не является универсальным автономным киберагентом, но уже показывает направление, в котором движется отрасль. С каждой новой версией модели становятся быстрее, увереннее и практичнее в задачах, которые раньше требовали узкой экспертной подготовки.

Это не означает, что ИИ уже заменяет специалистов по безопасности или профессиональных атакующих. Но это означает, что киберпространство становится более автоматизированным, а скорость действий в нём будет расти. В таких условиях выигрывать будут те организации, которые заранее укрепляют базовую защиту и используют ИИ не только как источник риска, но и как инструмент обороны.

Добавить комментарий