защита llm

  1. Сергей Попов

    Статья Безопасность LLM: полная карта атак на языковые модели, prompt injection и регуляторные требования к ИИ в 2026 году

    You must be registered for see element. По данным «Информзащиты», около 70% организаций уже столкнулись с атаками через LLM. При этом большинство команд безопасности продолжают оценивать языковые модели по лекалам классических веб-приложений - ищут SQL-инъекции там, где работает совершенно иная...
  2. samhainhf

    Статья Prompt Jailbreak vs Prompt Injection: В чем разница?

    You must be registered for see element. Если вы хотя бы немного следите за миром больших языковых моделей (LLM), вы наверняка сталкивались с терминами "промпт-инъекция" (prompt injection) о которой я говорил в прошлой статье, и "джейлбрейк" (jailbreak). Их используют разработчики...