llm

  1. К

    SecAI: защита ML и LLM-продуктов от prompt injection и data poisoning

    You must be registered for see element. В мире, где каждая компания спешит встроить LLM в продукт, злоумышленники уже нашли слабые места. Две самые опасные атаки, с которых всё начинается, — Prompt Injection и Data Poisoning. Обычные фильтры и сканеры безопасности против них Эти уязвимости...
  2. ashakiro

    Pentest AI: запись на бету

    Всем привет Я тут сделал ассистента при пентестах, скоро хочу запускать бета тест You must be registered for see element. Если интересно, форма записи в гугл форме внутри. Буду рад ответить на вопросы если есть