09.05.2026

ИИ помог смоделировать атаки на критическую инфраструктуру за часы вместо недель

Anthropic рассказала об эксперименте, в котором Claude использовали для защиты критической инфраструктуры. Проект был проведён совместно с Тихоокеанской северо-западной национальной лабораторией PNNL и был посвящён ускорению киберучений на сложной модели водоочистного предприятия.

Главная идея исследования заключалась не в том, чтобы показать атакующие возможности ИИ ради самих атак, а в том, чтобы проверить, может ли нейросеть помогать защитникам быстрее находить слабые места в инфраструктуре и оценивать эффективность мер безопасности.

Claude использовали для имитации действий атакующего

Исследователи сосредоточились на adversary emulation — воспроизведении поведения конкретного атакующего или конкретного сценария атаки. Такой подход нужен защитникам для того, чтобы понять, какие уязвимости есть в системе, где слепые зоны мониторинга и насколько хорошо инфраструктура выдерживает сложные цепочки действий.

Обычно подобная работа требует значительного времени и участия опытных специалистов. В эксперименте PNNL разработала специальную надстройку для Claude, которая переводила команды на естественном языке в более сложные технические действия внутри тестовой сети.

Модель работала на симуляции водоочистного объекта

Испытание проходило не в обычной учебной среде, а на киберфизической модели водоочистного предприятия. Такие полигоны особенно важны, потому что критическая инфраструктура отличается от обычных IT-сетей: здесь цифровые системы связаны с физическими процессами, оборудованием и реальными последствиями ошибок.

По оценке PNNL, использование Claude позволило восстановить и воспроизвести сценарий атаки примерно за три часа. Без такой автоматизации аналогичная работа могла бы занять несколько недель.

ИИ ускоряет работу защитников

Главная ценность эксперимента — скорость итераций. Если команда безопасности может быстро воспроизвести атаку, затем изменить защитные настройки и снова проверить результат, она получает гораздо более быстрый цикл улучшения безопасности.

Это особенно важно для объектов вроде водоснабжения, энергетики, транспорта и промышленности, где задержка с устранением уязвимости может привести не только к утечке данных, но и к физическому ущербу.

Claude проявил неожиданную гибкость

В одном из запусков модель столкнулась с тем, что заранее подготовленный инструмент для обхода защитного механизма Windows UAC сработал нестабильно. Вместо того чтобы просто остановиться на неудачной попытке, Claude выбрал другой известный способ обхода и продолжил выполнение сценария.

Для исследователей это стало важным наблюдением. Даже если модель действует в контролируемом полигоне, её способность адаптироваться к неудаче показывает, что будущие AI-системы могут становиться всё более изобретательными как в защитных, так и в потенциально опасных сценариях.

Такие эксперименты подчёркивают двойственный характер ИИ

Anthropic отдельно отмечает, что развитие моделей может помогать не только защитникам. Чем сильнее становятся AI-системы, тем больше людей смогут выполнять сложные технические действия, которые раньше требовали высокой квалификации.

Именно поэтому эксперименты с безопасным и контролируемым применением ИИ в киберзащите становятся особенно важными. Если атакующие получают более мощные инструменты, защитники должны развивать сопоставимые возможности для поиска уязвимостей, проверки инфраструктуры и быстрого реагирования.

Партнёрство лабораторий и AI-компаний становится важным

Проект показал, что для таких исследований нужны обе стороны. Anthropic предоставила доступ к Claude, а PNNL — экспертность и реалистичную киберфизическую среду, которую сложно воспроизвести внутри обычной AI-компании.

Такая модель сотрудничества может стать основой для будущих проектов в сфере национальной безопасности. Критическая инфраструктура требует реалистичных тестов, а современные ИИ-модели дают возможность проводить их быстрее и чаще.

Защита инфраструктуры станет одним из ключевых направлений AI-безопасности

Эксперимент с водоочистным объектом показывает, что искусственный интеллект может стать важным инструментом для оборонительной кибербезопасности. Он способен ускорять моделирование атак, помогать находить слабые места и проверять, насколько хорошо работают защитные меры.

При этом такие технологии требуют осторожного обращения. Чем эффективнее ИИ становится в киберсценариях, тем важнее использовать его в контролируемых условиях, с понятными ограничениями и с акцентом на защиту критически важных систем.

Добавить комментарий