IV. Безопасность
9
Угрозы безопасности
Prompt injection, каналы атак, защита ключей
AI-агент — мощный инструмент, и важно понимать возможные риски. Главный принцип: защита строится на архитектуре, а не на промпт-запретах.
Prompt injection
Prompt injection — внедрение инструкций через текст, который агент читает. Модель не может достоверно отличить команду владельца от команды злоумышленника.
Каналы атаки:
Веб-страница со скрытым текстом в HTML
Пересланное сообщение с вредоносными инструкциями
Документ из ненадёжного источника
Защита ключей
Системные ключи
Anthropic API, токен бота, OpenRouter, Deepgram
- ✓Хранятся в .env
- ✓Агент НЕ может прочитать файл
- ✓printenv заблокирован
Ключи сервисов
GitHub, Vercel и другие
- ✓Агент использует для работы
- ✓Значения фильтруются из ответов
- ✓Показываются как [REDACTED]
Семь слоёв защиты
1Агент не видит системные ключи
2Секретные файлы недоступны для чтения
3Опасные команды заблокированы
4Ключи вырезаются из ответов в чате
5Опасные операции требуют подтверждения
6ОС ограничивает процесс бота (sandbox)
7Файлы личности защищены от подмены
Рекомендации на старте
- Ограничивайте токены: GitHub — fine-grained на конкретный репо
- Используйте тестовые аккаунты и ключи в первую неделю
- Не пересылайте тексты из ненадёжных источников напрямую
- Обновления системы приходят автоматически