My Friend AI
IV. Безопасность
9

Угрозы безопасности

Prompt injection, каналы атак, защита ключей

AI-агент — мощный инструмент, и важно понимать возможные риски. Главный принцип: защита строится на архитектуре, а не на промпт-запретах.

Prompt injection

Prompt injection — внедрение инструкций через текст, который агент читает. Модель не может достоверно отличить команду владельца от команды злоумышленника.

Каналы атаки:

Веб-страница со скрытым текстом в HTML
Пересланное сообщение с вредоносными инструкциями
Документ из ненадёжного источника

Защита ключей

Системные ключи

Anthropic API, токен бота, OpenRouter, Deepgram

  • Хранятся в .env
  • Агент НЕ может прочитать файл
  • printenv заблокирован

Ключи сервисов

GitHub, Vercel и другие

  • Агент использует для работы
  • Значения фильтруются из ответов
  • Показываются как [REDACTED]

Семь слоёв защиты

1Агент не видит системные ключи
2Секретные файлы недоступны для чтения
3Опасные команды заблокированы
4Ключи вырезаются из ответов в чате
5Опасные операции требуют подтверждения
6ОС ограничивает процесс бота (sandbox)
7Файлы личности защищены от подмены

Рекомендации на старте

  • Ограничивайте токены: GitHub — fine-grained на конкретный репо
  • Используйте тестовые аккаунты и ключи в первую неделю
  • Не пересылайте тексты из ненадёжных источников напрямую
  • Обновления системы приходят автоматически