Безопасность ИИ и LLM

Prompt injection, adversarial ML, model extraction, data poisoning, LLM jailbreak, AI red teaming, безопасность машинного обучения. Исследования и практика.
У
Ответы
0
Просмотры
3 тыс.
Удалённый пользователь 70458
У