• 🚨 29 мая стартует курс «Пентест Active Directory: от теории к практике» от Академии Кодебай

    🔍 Изучите реальные техники атак на инфраструктуру Active Directory: от первоначального доступа до полной компрометации.
    🛠️ Освойте инструменты, такие как BloodHound, Mimikatz, CrackMapExec и другие.
    🧪 Пройдите практические лабораторные работы, имитирующие реальные сценарии атак.
    🧠 Получите знания, которые помогут вам стать востребованным специалистом в области информационной безопасности.

    После старта курса запись открыта еще 10 дней Подробнее о курсе ...

News Ученые представили новый метод анализа уязвимостей нейросетей

1743018900174.webp


Российские исследователи GLiRA — метод стресс-тестирования нейросетей, который помогает выявлять утечки приватных данных.

Специалисты из Института AIRI, ИЦДИИ ИСП РАН, Сбера, МТУСИ и Сколтеха предложили новый подход к проверке защищенности нейросетевых моделей. Их метод GLiRA позволяет определить, использовались ли конкретные данные при обучении модели, даже если ее внутренняя структура неизвестна (атака в условиях «черного ящика»).

Почему это важно?
С развитием больших языковых моделей, применяемых в медицине, финансах и других sensitive-сферах, растет риск утечек персональных данных. Например, если нейросеть обучалась на медицинских снимках без должной анонимизации, злоумышленник может выяснить, присутствовал ли в обучающей выборке рентген конкретного человека. Это раскрывает факт обращения за медицинской помощью и создает угрозу конфиденциальности.

Как работает GLiRA?
Метод основан на дистилляции знаний — процессе, при котором атакующая сторона, не зная архитектуры модели, анализирует ее ответы и создает «теневые» копии. Эти копии помогают понять, как исходная система принимает решения, и выявить уязвимости.

Результаты тестирования
В ходе экспериментов GLiRA показал на 7% более высокую точность по сравнению с существующими аналогами. Это открытие позволит улучшить защиту нейросетей, моделируя реалистичные сценарии атак и разрабатывая более надежные механизмы безопасности.

Исследование проводилось в два этапа: сначала ученые проанализировали современные методы дистилляции знаний, а затем адаптировали их для обучения теневых моделей. Результаты работы могут быть полезны для компаний, работающих с большими данными и искусственным интеллектом.​
 
Мы в соцсетях:

Обучение наступательной кибербезопасности в игровой форме. Начать игру!

Курс AD