• 🔥 Бесплатный курс от Академии Кодебай: «Анализ защищенности веб-приложений»

    🛡 Научитесь находить и использовать уязвимости веб-приложений.
    🧠 Изучите SQLi, XSS, CSRF, IDOR и другие типовые атаки на практике.
    🧪 Погрузитесь в реальные лаборатории и взломайте свой первый сайт!
    🚀 Подходит новичкам — никаких сложных предварительных знаний не требуется.

    Доступ открыт прямо сейчас Записаться бесплатно

Статья ИИ в кибербезопасности: помощник хакера или миф? Обзор возможностей искусственного интеллекта в ИБ

1749335569768.webp


ИИ стал не просто трендом в кибербезопасности, а настоящим оружием, которое меняет правила игры. Его используют как для атаки, так и для защиты. Но, как и с любым инструментом, в руках хорошего специалиста ИИ может помочь, а в руках злоумышленников — навредить. В этой статье разберём, что реально происходит в мире ИИ и безопасности, и почему не стоит считать ИИ магической палочкой от всех проблем.

ИИ в атакующих действиях: реальная угроза или преувеличение?​

Теперь, когда слово ИИ в кибербезопасности стало модным, давайте разберёмся, как оно реально используется в атаках и что из этого выходит. Реально ли ИИ помогает хакерам? Или это просто ещё один маркетинговый ход?

Фишинг: персонализация до уровня мистификации​


Фишинг — это не новость, правда? Кто из нас не получал тот самый e-mail с обещанием «бесплатной доставки» или «срочного обновления данных»? Кажется, эти письма давно потеряли свою актуальность. Но что, если я скажу, что теперь ИИ способен создавать фишинговые письма, которые не только выглядят как реальная переписка, но и могут даже подражать вашему стилю общения?

ИИ использует модели NLP (Natural Language Processing) вроде BERT и GPT, чтобы максимально адаптировать письма под вас. Злоумышленники могут анализировать ваши привычки, интересы и поведение в сети, чтобы создать письмо, которое будет почти невозможно отличить от настоящего. Кто сказал, что фишинг — это всегда очевидно подозрительные письма с ссылками «кликни, если не хочешь потерять доступ»? ИИ взял эту технику и сделал её персонализированной. В результате такие письма становятся гораздо более правдоподобными, а фильтры теряют свою эффективность.

Недавний случай фишинга в Великобритании показывает, насколько опасными могут быть такие атаки. В июне 2025 года налоговая служба Великобритании (HMRC) обнаружила несанкционированный доступ к онлайн-аккаунтам, что привело к украденным данным около 100,000 человек. Мошенники использовали украденные данные для доступа к налоговым аккаунтам, что в итоге привело к финансовым потерям на сумму £47 миллионов. Подробнее об этом можно узнать в . Этот инцидент ещё раз подтверждает, как фишинг может быть использован для кражи личных данных и как важно быть осторожным в отношении подозрительных онлайн-сообщений.

Но и это ещё не всё. В последние годы активно используются дипфейки — фальшивые видеозаписи и аудиофайлы, созданные с помощью ИИ. Например, в 2019 году произошло мошенничество с дипфейком, когда злоумышленники подделали голос CEO одной компании, чтобы провести перевод на сумму $243,000. Этот случай показал, как технологии ИИ могут обманывать не только на текстовом уровне, но и с помощью фальшивых аудиофайлов.

Вместо текста злоумышленники записали видео с фальшивым голосом, который был почти неотличим от настоящего. Этот инцидент стал хорошим примером того, как дипфейки могут быть использованы для фишинговых атак, усиливая их эффективность.

Кроме того, ИИ помогает обходить CAPTCHA и спам-фильтры. Используя adversarial NLP, атакующие могут манипулировать системами защиты, делая их бессильными перед продвинутыми фишинговыми атаками. ИИ обучается находить уязвимости в CAPTCHA и обходить их, что добавляет новый слой сложности для фильтров.

Поиск уязвимостей: ИИ для ускоренного анализа​


Теперь переходим от текстовых атак к более техническим штукам. Как насчёт поиска уязвимостей в системах? Это была всегда рутинная работа для специалистов, но ИИ тут всё меняет. Злоумышленники теперь могут использовать Machine Learning и fuzzing-техники для того, чтобы автоматизировать процесс поиска слабых мест в приложениях. Вместо того чтобы искать уязвимости вручную, ИИ делает это за них, причём значительно быстрее и точнее.

ML-усиленный American Fuzzy Lop (AFL) использует ИИ для fuzzing — генерации случайных данных, чтобы выявить уязвимости. И что важно, AFL с ИИ может адаптироваться и улучшать результаты с каждым новым тестом. Появляется возможность находить ошибки в коде намного быстрее, что даёт злоумышленникам огромное преимущество.

Кроме того, графовые нейронные сети (GNN) анализируют структуру программного кода и помогают находить уязвимости, которые сложно выявить стандартными методами. Например, GNN могут выявить неочевидные ошибки в коде, что делает их мощным инструментом для обнаружения уязвимостей.

С помощью таких технологий атакующие могут анализировать большие объемы данных для создания эффективных эксплойтов. Более того, злоумышленники могут использовать данные из даркнета для обучения своих ИИ-моделей. Например, эксплойты для CVE становятся основой для тренировки ИИ, что помогает атакующим создавать более точные и эффективные эксплойты для обхода защиты. Этот процесс ускоряет атаки и делает их более результативными.

Оптимизация атак: ИИ, который подбирает самые выгодные векторы​


Что если ИИ не только помогает искать уязвимости, но и подбирает самые эффективные способы их использования? Обучение с подкреплением (reinforcement learning) позволяет ИИ автоматически подбирать векторы атаки в зависимости от ситуации.

В реальных атаках DeepExploit и AI-powered Metasploit используют RL для автоматизации pentesting. Эти инструменты позволяют не только сканировать систему на наличие уязвимостей, но и выбирать наилучшие методы атак, исходя из текущего состояния системы. Это позволяет атакующим существенно ускорить процесс, повысив точность и эффективность.

ИИ с RL анализирует, какие методы атаки были успешными, и подбирает новые стратегии. Он может даже адаптировать свои действия в зависимости от того, как система реагирует на атаку, что делает его самообучающимся инструментом. Так что, в отличие от человека, который может быть ограничен опытом или знаниями, ИИ может принимать решения и адаптироваться в реальном времени.

Однако есть и ограничения. Высокая вычислительная стоимость дипфейков и RL может быть ограничивающим фактором для мелких групп хакеров, так как для реализации таких атак требуются мощные вычислительные ресурсы и огромные объёмы данных.

ИИ в защите: как он помогает предотвратить угрозы?​

ИИ играет важную роль не только в атакующих действиях, но и в защите от угроз. В отличие от атакующих действий, где ИИ используется для обмана и обхода системы, в защите ИИ помогает обнаруживать, анализировать и нейтрализовать угрозы в реальном времени.

Системы обнаружения вторжений: ИИ в роли защитника​


Один из самых очевидных примеров применения ИИ в защите — это система обнаружения вторжений (IDS), основанные на машинном обучении. Эти системы анализируют сетевой трафик и могут автоматически выявлять аномалии, которые могут быть индикаторами атаки. Например, если злоумышленник пытается использовать необычные порты или протоколы для атаки, система с использованием ИИ может сразу же обнаружить этот трафик как аномальный.

В отличие от традиционных систем IDS, которые работают по заранее заданным шаблонам атак, системы на базе ИИ могут обучаться на реальных данных и выявлять новые, ранее неизвестные виды атак. Это делает их гораздо более гибкими и эффективными в условиях постоянно меняющихся угроз.

Пример того, как это работает:
Python:
import numpy as np
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# Пример данных для обучения
data = np.array([[1, 1, 0], [0, 1, 1], [1, 0, 0], [0, 0, 1], [1, 1, 1], [0, 0, 0]])  # Пример сетевых данных
labels = np.array([1, 0, 1, 0, 1, 0])  # 1 - угроза, 0 - безопасно

# Разделение на обучающую и тестовую выборки
X_train, X_test, y_train, y_test = train_test_split(data, labels, test_size=0.33)

# Обучение модели
model = RandomForestClassifier()
model.fit(X_train, y_train)

# Прогнозирование на тестовых данных
y_pred = model.predict(X_test)
print("Точность модели:", accuracy_score(y_test, y_pred))

Такой случайный лес позволяет системе анализировать данные и классифицировать трафик как угрозу или безопасность. Это помогает оперативно выявлять подозрительные действия и предотвращать атаки.

Поведенческая аналитика: ИИ, который следит за пользователями​


Кроме систем IDS, ИИ также используется для поведенческой аналитики. Это позволяет отслеживать действия пользователей и выявлять подозрительные паттерны. Например, если сотрудник выходит из системы на нескольких устройствах одновременно, ИИ может сразу же зафиксировать это как аномальную активность.

Пример работы с ИИ для анализа поведения:
Python:
from sklearn.cluster import KMeans
import numpy as np

# Пример данных о действиях пользователей
user_data = np.array([[1, 5, 100], [2, 7, 110], [3, 6, 120], [50, 20, 200]])  # 4 пользователя

# Использование KMeans для кластеризации нормального поведения
model = KMeans(n_clusters=2)
model.fit(user_data)

# Предсказание группы для нового пользователя
new_user = np.array([[4, 8, 115]])  # Поведение нового пользователя
prediction = model.predict(new_user)

if prediction == 0:
    print("Поведение пользователя нормально.")
else:
    print("Предположительно аномальное поведение.")

Эта система использует кластеризацию для разделения нормального и аномального поведения. Если действия пользователя отклоняются от привычных, система сразу же фиксирует это как подозрительное.

Мифы об ИИ в кибербезопасности: что не так?​

С развитием технологий ИИ в кибербезопасности появилось много мифов и неоправданных ожиданий. Один из них — что ИИ полностью заменит специалистов по безопасности. ИИ действительно помогает в анализе данных, автоматизации защиты и ускорении процессов, но не заменяет специалистов он не может. Знания и опыт экспертов в области безопасности, а также их способность адаптироваться к новыми угрозам, остаются незаменимыми.

Кроме того, ИИ не может предсказать все атаки. Атаки становятся всё более сложными и многоступенчатыми, и ИИ не всегда успевает адаптироваться к новым угрозам. Эффективность ИИ напрямую зависит от качества данных, а не все данные доступны и могут быть использованы для обучения.

Заключение: реальность и перспективы ИИ в кибербезопасности​

ИИ стал неотъемлемой частью кибербезопасности, и его роль в защите и атаке будет только расти. Однако важно помнить, что ИИ — это не панацея. Он требует качественных данных, настроек и адаптации. Защитные системы и атакующие ИИ находятся в постоянной гонке технологий, где каждое новое преимущество может быть нивелировано.

ИИ — это мощный инструмент, но не решение всех проблем. Когда его используют правильно, он становится не только мощным помощником, но и ключом к эффективной защите от угроз.
 
Последнее редактирование:
ИИ способен создавать фишинговые письма, которые не только выглядят как реальная переписка, но и могут даже подражать вашему стилю общения?
То есть, если мне придёт письмо от самого себя, с моим стилем общения, я с большей вероятностью перейду по ссылке?)
А откуда атакующий возьмёт террабайты моих переписок, чтобы подстроиться под мой стиль?) Не совсем понятен тут вектор атаки

В результате такие письма становятся гораздо более правдоподобными, а фильтры теряют свою эффективность.
А можно какие-то примеры?
Решающую роль играет не правдоподобность, а исследование личности. Чем больше информации об атакуемом получилось собрать, тем выше вероятность найти правильный вектор атаки.
 
То есть, если мне придёт письмо от самого себя, с моим стилем общения, я с большей вероятностью перейду по ссылке?)
А откуда атакующий возьмёт террабайты моих переписок, чтобы подстроиться под мой стиль?) Не совсем понятен тут вектор атаки
Имеется ввиду, когда человек уже видит вашу переписку. Условно письмо с аккаунта вашего товарища (если того взломали).

Решающую роль играет не правдоподобность, а исследование личности. Чем больше информации об атакуемом получилось собрать, тем выше вероятность найти правильный вектор атаки.
Не спорю, в LLM-фишинге изучение личности играет важную роль. Мне кажется это взаимодополняющие факторы, тут просто признаю неточность в статье.

А можно какие-то примеры?
Не хотел перегружать статью, в следующий раз отнесусь к вопросу посерьезнее.

Спасибо за критику! :)
 
Мы в соцсетях:

Взломай свой первый сервер и прокачай скилл — Начни игру на HackerLab

Курс AD