News "Уязвимости в чат-боте ChatGPT и как он может выдавать чужие конфиденциальные данные случайным пользователям."

people-generating-images-using-artificial-intelligence-laptop.jpg
После проведения международной группы ученых, было обнаружено, что чат-бот ChatGPT, разработанный корпорацией OpenAI, содержал серьезные уязвимости, позволяющие злоумышленникам получить доступ к чувствительным данным пользователя. Одним из ключевых моментов исследования стал специальный запрос, который, казалось бы, просто просил бота повторять стихотворение бесконечно. Но в реальности, при таком запросе чат-бот начинал выдавать не только стихи, но и личные данные, такие как имена, телефонные номера, адреса электронной почты, даты рождения пользователей, и даже конфиденциальные данные различных организаций.

После обнаружения этой уязвимости, ученые связались с ответственными лицами в OpenAI, и уровень уязвимости был доведен до их внимания. В результате, была разработана и опубликована патч-программа, выслеживающая подобные запросы и блокирующая доступ к чувствительным данным. Благодаря принятым мерам, уязвимость была устранена еще 30 августа 2023 года, исключив возможность дальнейшего использования злоумышленниками.

Хотя проблема была решена, это случай явно показывает, насколько важно обеспечить безопасность и конфиденциальность данных пользователей в разработках искусственного интеллекта.​
 
Последнее редактирование:
Мы в соцсетях:

Обучение наступательной кибербезопасности в игровой форме. Начать игру!