Исследователи из Университета Карнеги-Меллон и компании Anthropic
Ссылка скрыта от гостей
: большие языковые модели (LLM) способны самостоятельно проводить кибератаки. В эксперименте ИИ, без вмешательства человека, изучил структуру корпоративной сети, выявил уязвимости и выполнил атаку: от проникновения до эксплуатации слабых мест. Процесс шел в реальном времени, демонстрируя пугающую "самостоятельность" модели.Открытие вызывает тревогу: такие технологии могут быть использованы хакерами для автоматизированных атак, которые сложно отследить. Однако LLM также перспективны для защиты — их можно обучить находить уязвимости до злоумышленников, усиливая кибербезопасность. Результаты опубликованы на arXiv и сайте исследовательской группы.
Эксперты призывают пересмотреть подходы к киберзащите, подчеркивая необходимость новых стандартов и этических ограничений для ИИ. Технология пока лабораторная, но ее развитие может изменить ландшафт кибервойны. "Будущее за проактивной защитой, где ИИ опережает хакеров", — считают ученые.