Проблема агентской безопасности: Почему ваши ИИ-агенты — это угроза кибербезопасности

23

Стремительное внедрение ИИ-агентов создало опасную «ситуацию чрезвычайного положения в сфере управления». В то время как 79% организаций уже интегрировали ИИ-агентов в свои рабочие процессы, наблюдается колоссальный разрыв между внедрением и безопасностью: только 14,4% компаний имеют полное одобрение безопасности для своих парков агентов, и лишь 26% установили формальные политики управления ИИ.

В центре этого кризиса лежит структурный изъян в том, как создается большинство агентов. Индустрия сейчас отходит от «монолитной» модели — где рассуждения, выполнение задач и конфиденциальные учетные данные находятся в одном уязвимом контейнере — в сторону двух конкурирующих архитектур с нулевым доверием (Zero Trust ).

Проблема монолита: Кошмар «радиуса поражения»

Большинство корпоративных ИИ-агентов на данный момент следуют монолитному шаблону. В такой конфигурации один процесс управляет всем сразу: он рассуждает (модель), вызывает инструменты, исполняет код и владеет высокоуровневыми учетными данными (такими как токены OAuth и API-ключи).

Это создает огромные риски безопасности:
Единая точка отказа: Одна атака типа «инъекция промпта» (prompt injection ) может предоставить злоумышленнику доступ ко всему контейнеру.
Утечка учетных данных: Поскольку токены находятся в той же среде, где агент запускает непроверенный код, атакующий может легко их похитить.
Отсутствие подотчетности: Данные показывают, что 68% организаций не могут отличить активность агента от действий человека в своих логах, что делает форензику (расследование инцидентов) практически невозможной.

Ставки очень высоки. Недавние отчеты, такие как кампания по атаке на цепочку поставок ClawHavoc, демонстрируют, насколько быстро злоумышленники могут эксплуатировать агентные фреймворки. При времени взлома, достигающем всего 27 секунд, окно для ручного вмешательства практически отсутствует.


Два пути к нулевому доверию: Anthropic против Nvidia

По мере того как индустрия осознает, что «доверять» агенту — не вариант, два крупнейших игрока представили конкурирующие архитектуры для решения этой проблемы. Они подходят к минимизации «радиуса поражения» с противоположных сторон.

1. Anthropic: Модель «разделения властей»

Архитектура Managed Agents от Anthropic использует структурное разделение, чтобы гарантировать, что «мозг» никогда не касается «ключей». Она разделяет агента на три отдельных, не доверяющих друг другу компонента:
* Мозг: Движок рассуждений (Claude) и механизм маршрутизации.
* Руки: Одноразовые Linux-контейнеры, в которых непосредственно исполняется код.
* Сессия: Внешний журнал событий, работающий только на добавление (append-only ), который отслеживает всё происходящее.

Преимущество в безопасности: Учетные данные никогда не попадают в песочницу исполнения. Когда агенту нужно использовать инструмент, он отправляет запрос прокси-серверу, который извлекает токен из защищенного хранилища. Сам агент никогда не видит реальных учетных данных. Если атакующий скомпрометирует «руки», он окажется в пустой комнате, где нечего красть.

2. Nvidia: Модель «укрепленной песочницы»

NemoClaw от Nvidia использует другой подход. Вместо разделения компонентов она оборачивает весь монолитный агент в пять слоев интенсивного мониторинга и ограничений.
* Изоляция на уровне ядра: Использование таких инструментов, как Landlock и seccomp, для создания песочницы исполнения.
* Верификация намерений: Движок политик перехватывает каждое действие, предложенное агентом, прежде чем оно будет передано хост-системе.
* Приватная маршрутизация: Конфиденциальные запросы направляются на локальные модели, чтобы предотвратить утечку данных.

Компромисс: Хотя NemoClaw обеспечивает высокую прозрачность, она требует большего контроля со стороны человека. «Наблюдаемость» достигается ценой автономности; каждое действие, выходящее за рамки строгой политики, требует ручного подтверждения, что может стать дорогим и медленным процессом при масштабировании.


Критическое различие: Близость учетных данных

Самый важный вопрос для директоров по безопасности: Насколько близко учетные данные находятся к среде исполнения?

Характеристика Anthropic (Managed Agents) Nvidia (NemoClaw)
Стратегия Структурное удаление: Учетные данные хранятся во внешнем хранилище. Политика контроля: Данные внедряются в песочницу, но ограничены политиками.
Профиль риска Атакующему нужно провести сложную «двухшаговую» атаку, чтобы добраться до данных. Атакующий в песочнице имеет прямой доступ к переменным окружения (токенам).
Устойчивость Высокая: Если контейнер упадет, сессия сохранится во внешней среде. Ниже: Если песочница даст сбой, состояние агента будет потеряно.

Это различие критически важно при столкновении с косвенной инъекцией промпта (когда агентом манипулируют через чтение отравленного веб-сайта или API). В модели Anthropic внедренная инструкция может обмануть «мозг», но не может добраться до «хранилища». В модели Nvidia внедренный контекст находится вплотную к среде исполнения, что создает более широкую поверхность для атаки.

🛡️ Чек-лист безопасности при развертывании ИИ

Чтобы успешно пройти этот переходный период, организациям следует приоритизировать следующее:

  1. Аудит на наличие монолитов: Немедленно выявите любых агентов, которые хранят токены OAuth или API-ключи внутри своих сред исполнения.
  2. Требуйте изоляцию в тендерах (RFP): При покупке ИИ-инструментов спрашивайте, структурно удаляют ли они учетные данные (как Anthropic) или просто ограничивают их через политики (как Nvidia).
  3. Тестируйте отказоустойчивость: Перед запуском в продакшн симулируйте сбой песочницы. Если агент не может возобновить задачу из внешнего лога, ваши длительные рабочие процессы рискуют потерей данных.
  4. Планируйте штат: Если вы выбираете модель с высокой степенью контроля, как NemoClaw, убедитесь, что у вас есть бюджет на операторов, которые будут подтверждать действия агента.

Заключение: Эра «неконтролируемых» ИИ-агентов заканчивается. По мере того как разрыв между скоростью внедрения и готовностью систем безопасности сокращается, победителями станут те, кто относится к ИИ-агентам не как к доверенным пользователям, а как к высокоинтеллектуальным, но высокорисковым объектам, требующим непрерывной структурной проверки.