Безопасность ИИ и LLM

Prompt injection, adversarial ML, model extraction, data poisoning, LLM jailbreak, AI red teaming, безопасность машинного обучения. Исследования и практика.