prompt injection

  1. Сергей Попов

    Статья Безопасность LLM: полная карта атак на языковые модели, prompt injection и регуляторные требования к ИИ в 2026 году

    You must be registered for see element. По данным «Информзащиты», около 70% организаций уже столкнулись с атаками через LLM. При этом большинство команд безопасности продолжают оценивать языковые модели по лекалам классических веб-приложений - ищут SQL-инъекции там, где работает совершенно иная...
  2. Кудрин Евгений

    Статья LLM Jailbreak: Методологии тестирования устойчивости модели к Prompt Injection

    You must be registered for see element. Если кратко, LLM Jailbreak — это способ заставить модель делать то, чего она вроде бы делать не должна. Ситуация из серии: “а давай ты сам себе отключишь сигнализацию — мне просто посмотреть”. Prompt Injection — источник этого безобразия: вмешательство в...
  3. Кудрин Евгений

    Prompt Injection: атаки на LLM-приложения и защита

    You must be registered for see element. В современном мире нейросети везде: от чат-ботов до RAG-систем и аналитики. Миллионы запросов в день — звучит круто, но хакеры уже потирают руки. Давайте начистоту: prompt injection — это, пожалуй, самая забавная но одновременно и очень опасная дыра в...
  4. Кудрин Евгений

    SecAI: защита ML и LLM-продуктов от prompt injection и data poisoning

    You must be registered for see element. В мире, где каждая компания спешит встроить LLM в продукт, злоумышленники уже нашли слабые места. Две самые опасные атаки, с которых всё начинается, — Prompt Injection и Data Poisoning. Обычные фильтры и сканеры безопасности против них Эти уязвимости...
  5. Luxkerr

    Статья Red Team против AI-продукта: как тестировать безопасность LLM-сервиса

    You must be registered for see element. AI Red Teaming для LLM‑продукта начинается с понимания простой вещи: модель почти никогда не является единственной точкой риска. Риск живёт в системе вокруг неё - в том, какие данные подмешиваются в контекст, какие инструменты доступны, как устроены...
  6. Luxkerr

    News Первый AI-вымогатель PromptLock: как работает и чем опасен

    You must be registered for see element. Исследователи компании ESET You must be registered for see element. об обнаружении первого в мире рафинированного ими программного обеспечения-вымогателя, использующего искусственный интеллект. Зловред под названием PromptLock представляет собой инъекцию...