llm security

  1. Кудрин Евгений

    Prompt Injection: атаки на LLM-приложения и защита

    You must be registered for see element. В современном мире нейросети везде: от чат-ботов до RAG-систем и аналитики. Миллионы запросов в день — звучит круто, но хакеры уже потирают руки. Давайте начистоту: prompt injection — это, пожалуй, самая забавная но одновременно и очень опасная дыра в...
  2. Luxkerr

    Статья Red Team против AI-продукта: как тестировать безопасность LLM-сервиса

    You must be registered for see element. AI Red Teaming для LLM‑продукта начинается с понимания простой вещи: модель почти никогда не является единственной точкой риска. Риск живёт в системе вокруг неё - в том, какие данные подмешиваются в контекст, какие инструменты доступны, как устроены...