Последние
С развитием новых технологий, таких как ChatGPT, даже люди с минимальными навыками программирования могут создавать фишинговые веб-сайты для кражи личных данных и финансовых мошенничеств. Для этого достаточно знать определенные команды или самостоятельно их подобрать, чтобы создать поддельный сайт, привлекающий жертв.
В ответ на эту угрозу, многие чат-боты уже блокируют опасные запросы, но исследователи из Арлингтона выявили некоторые уязвимости. Они разработали приложение, которое позволяет ботам на основе искусственного интеллекта лучше распознавать и игнорировать потенциально опасные команды.
"Эти инструменты очень мощные, и мы показываем, как злоумышленники могут злоупотреблять ими", отметила доцент Техасского университета Ширин Нилизаде, одна из соавторов приложения.
Результаты исследования группы экспертов по информационной безопасности вызвали широкий резонанс в данной отрасли. Их работа была отмечена на симпозиуме IEEE по безопасности и конфиденциальности (IEEE S&P 2024), где они получили заслуженную награду за выдающиеся достижения.
Эти новые разработки в области обнаружения и блокировки опасных команд в чат-ботах на основе искусственного интеллекта являются важным шагом в обеспечении безопасности онлайн-среды. Однако необходимо продолжать улучшать эти технологии, чтобы минимизировать риски и защитить пользователей от потенциальных киберугроз.
Ссылка скрыта от гостей
в области чат-ботов, работающих на основе искусственного интеллекта, вызвали серьезную тревогу среди экспертов по информационной безопасности. Они предупреждают, что такие боты могут стать оружием в руках злоумышленников, если не будут приняты соответствующие меры.С развитием новых технологий, таких как ChatGPT, даже люди с минимальными навыками программирования могут создавать фишинговые веб-сайты для кражи личных данных и финансовых мошенничеств. Для этого достаточно знать определенные команды или самостоятельно их подобрать, чтобы создать поддельный сайт, привлекающий жертв.
В ответ на эту угрозу, многие чат-боты уже блокируют опасные запросы, но исследователи из Арлингтона выявили некоторые уязвимости. Они разработали приложение, которое позволяет ботам на основе искусственного интеллекта лучше распознавать и игнорировать потенциально опасные команды.
"Эти инструменты очень мощные, и мы показываем, как злоумышленники могут злоупотреблять ими", отметила доцент Техасского университета Ширин Нилизаде, одна из соавторов приложения.
Результаты исследования группы экспертов по информационной безопасности вызвали широкий резонанс в данной отрасли. Их работа была отмечена на симпозиуме IEEE по безопасности и конфиденциальности (IEEE S&P 2024), где они получили заслуженную награду за выдающиеся достижения.
Эти новые разработки в области обнаружения и блокировки опасных команд в чат-ботах на основе искусственного интеллекта являются важным шагом в обеспечении безопасности онлайн-среды. Однако необходимо продолжать улучшать эти технологии, чтобы минимизировать риски и защитить пользователей от потенциальных киберугроз.