Anthropic рассказала об эксперименте, в котором Claude использовали для защиты критической инфраструктуры. Проект был проведён совместно с Тихоокеанской северо-западной национальной лабораторией PNNL и был посвящён ускорению киберучений на сложной модели водоочистного предприятия.
Главная идея исследования заключалась не в том, чтобы показать атакующие возможности ИИ ради самих атак, а в том, чтобы проверить, может ли нейросеть помогать защитникам быстрее находить слабые места в инфраструктуре и оценивать эффективность мер безопасности.
Claude использовали для имитации действий атакующего
Исследователи сосредоточились на adversary emulation — воспроизведении поведения конкретного атакующего или конкретного сценария атаки. Такой подход нужен защитникам для того, чтобы понять, какие уязвимости есть в системе, где слепые зоны мониторинга и насколько хорошо инфраструктура выдерживает сложные цепочки действий.
Обычно подобная работа требует значительного времени и участия опытных специалистов. В эксперименте PNNL разработала специальную надстройку для Claude, которая переводила команды на естественном языке в более сложные технические действия внутри тестовой сети.
Модель работала на симуляции водоочистного объекта
Испытание проходило не в обычной учебной среде, а на киберфизической модели водоочистного предприятия. Такие полигоны особенно важны, потому что критическая инфраструктура отличается от обычных IT-сетей: здесь цифровые системы связаны с физическими процессами, оборудованием и реальными последствиями ошибок.
По оценке PNNL, использование Claude позволило восстановить и воспроизвести сценарий атаки примерно за три часа. Без такой автоматизации аналогичная работа могла бы занять несколько недель.
ИИ ускоряет работу защитников
Главная ценность эксперимента — скорость итераций. Если команда безопасности может быстро воспроизвести атаку, затем изменить защитные настройки и снова проверить результат, она получает гораздо более быстрый цикл улучшения безопасности.
Это особенно важно для объектов вроде водоснабжения, энергетики, транспорта и промышленности, где задержка с устранением уязвимости может привести не только к утечке данных, но и к физическому ущербу.
Claude проявил неожиданную гибкость
В одном из запусков модель столкнулась с тем, что заранее подготовленный инструмент для обхода защитного механизма Windows UAC сработал нестабильно. Вместо того чтобы просто остановиться на неудачной попытке, Claude выбрал другой известный способ обхода и продолжил выполнение сценария.
Для исследователей это стало важным наблюдением. Даже если модель действует в контролируемом полигоне, её способность адаптироваться к неудаче показывает, что будущие AI-системы могут становиться всё более изобретательными как в защитных, так и в потенциально опасных сценариях.
Такие эксперименты подчёркивают двойственный характер ИИ
Anthropic отдельно отмечает, что развитие моделей может помогать не только защитникам. Чем сильнее становятся AI-системы, тем больше людей смогут выполнять сложные технические действия, которые раньше требовали высокой квалификации.
Именно поэтому эксперименты с безопасным и контролируемым применением ИИ в киберзащите становятся особенно важными. Если атакующие получают более мощные инструменты, защитники должны развивать сопоставимые возможности для поиска уязвимостей, проверки инфраструктуры и быстрого реагирования.
Партнёрство лабораторий и AI-компаний становится важным
Проект показал, что для таких исследований нужны обе стороны. Anthropic предоставила доступ к Claude, а PNNL — экспертность и реалистичную киберфизическую среду, которую сложно воспроизвести внутри обычной AI-компании.
Такая модель сотрудничества может стать основой для будущих проектов в сфере национальной безопасности. Критическая инфраструктура требует реалистичных тестов, а современные ИИ-модели дают возможность проводить их быстрее и чаще.
Защита инфраструктуры станет одним из ключевых направлений AI-безопасности
Эксперимент с водоочистным объектом показывает, что искусственный интеллект может стать важным инструментом для оборонительной кибербезопасности. Он способен ускорять моделирование атак, помогать находить слабые места и проверять, насколько хорошо работают защитные меры.
При этом такие технологии требуют осторожного обращения. Чем эффективнее ИИ становится в киберсценариях, тем важнее использовать его в контролируемых условиях, с понятными ограничениями и с акцентом на защиту критически важных систем.