prompt injection

  1. Luxkerr

    Статья Red Team против AI-продукта: как тестировать безопасность LLM-сервиса

    You must be registered for see element. AI Red Teaming для LLM‑продукта начинается с понимания простой вещи: модель почти никогда не является единственной точкой риска. Риск живёт в системе вокруг неё - в том, какие данные подмешиваются в контекст, какие инструменты доступны, как устроены...
  2. Luxkerr

    News Первый AI-вымогатель PromptLock: как работает и чем опасен

    You must be registered for see element. Исследователи компании ESET You must be registered for see element. об обнаружении первого в мире рафинированного ими программного обеспечения-вымогателя, использующего искусственный интеллект. Зловред под названием PromptLock представляет собой инъекцию...