ai red team

  1. Сергей Попов

    Статья Claude vs GPT-4o в банковском пентесте: 4 кейса и приоритизация Nuclei

    За последний год я перестроил свой рабочий пайплайн так, что LLM-агенты участвуют минимум в трёх этапах каждого проекта. Не потому что хайп - а потому что на внешнем пентесте банковского приложения Claude за 4 минуты корректно выстроил приоритизацию 187 находок Nuclei, на которую раньше уходило...
  2. Сергей Попов

    Статья Полтора года LLM-агентов в пентесте: где экономят часы и где галлюцинируют

    Начну интересно, с неудобной правды. Полтора года я интегрирую LLM-агенты в свой рабочий процесс - от разведки до написания PoC. И картина, которую вижу, кардинально отличается от маркетинговых обещаний. GPT-4 действительно умеет вещи, которые ещё два года назад казались фантастикой. Но он же...
  3. Сергей Попов

    Статья ИИ в пентесте: реальные техники использования LLM в атакующих операциях

    Без маркетинговой мишуры. Я последние полтора года интегрирую LLM в свои пентест-цепочки - от разведки до генерации PoC. Результат неоднозначный: в одних задачах LLM сокращает time-to-exploit в разы, в других - галлюцинирует и жрёт время впустую. Эта статья - конкретика: какие техники работают...
  4. Luxkerr

    Статья Red Team против AI-продукта: как тестировать безопасность LLM-сервиса

    AI Red Teaming для LLM‑продукта начинается с понимания простой вещи: модель почти никогда не является единственной точкой риска. Риск живёт в системе вокруг неё - в том, какие данные подмешиваются в контекст, какие инструменты доступны, как устроены права, и как ответы превращаются в действия...