News ИИ прогрессирует: языковые модели взламывают сети автономно

1753740032783.webp


Исследователи из Университета Карнеги-Меллон и компании Anthropic : большие языковые модели (LLM) способны самостоятельно проводить кибератаки. В эксперименте ИИ, без вмешательства человека, изучил структуру корпоративной сети, выявил уязвимости и выполнил атаку: от проникновения до эксплуатации слабых мест. Процесс шел в реальном времени, демонстрируя пугающую "самостоятельность" модели.

Открытие вызывает тревогу: такие технологии могут быть использованы хакерами для автоматизированных атак, которые сложно отследить. Однако LLM также перспективны для защиты — их можно обучить находить уязвимости до злоумышленников, усиливая кибербезопасность. Результаты опубликованы на arXiv и сайте исследовательской группы.

Эксперты призывают пересмотреть подходы к киберзащите, подчеркивая необходимость новых стандартов и этических ограничений для ИИ. Технология пока лабораторная, но ее развитие может изменить ландшафт кибервойны. "Будущее за проактивной защитой, где ИИ опережает хакеров", — считают ученые.
 
Мы в соцсетях:

Взломай свой первый сервер и прокачай скилл — Начни игру на HackerLab

🚀 Первый раз на Codeby?
Гайд для новичков: что делать в первые 15 минут, ключевые разделы, правила
Начать здесь →
🔴 Свежие CVE, 0-day и инциденты
То, о чём ChatGPT ещё не знает — обсуждаем в реальном времени
Threat Intel →

HackerLab