После проведения
После обнаружения этой уязвимости, ученые связались с ответственными лицами в OpenAI, и уровень уязвимости был доведен до их внимания. В результате, была разработана и опубликована патч-программа, выслеживающая подобные запросы и блокирующая доступ к чувствительным данным. Благодаря принятым мерам, уязвимость была устранена еще 30 августа 2023 года, исключив возможность дальнейшего использования злоумышленниками.
Хотя проблема была решена, это случай явно показывает, насколько важно обеспечить безопасность и конфиденциальность данных пользователей в разработках искусственного интеллекта.
Ссылка скрыта от гостей
международной группы ученых, было обнаружено, что чат-бот ChatGPT, разработанный корпорацией OpenAI, содержал серьезные уязвимости, позволяющие злоумышленникам получить доступ к чувствительным данным пользователя. Одним из ключевых моментов исследования стал специальный запрос, который, казалось бы, просто просил бота повторять стихотворение бесконечно. Но в реальности, при таком запросе чат-бот начинал выдавать не только стихи, но и личные данные, такие как имена, телефонные номера, адреса электронной почты, даты рождения пользователей, и даже конфиденциальные данные различных организаций.После обнаружения этой уязвимости, ученые связались с ответственными лицами в OpenAI, и уровень уязвимости был доведен до их внимания. В результате, была разработана и опубликована патч-программа, выслеживающая подобные запросы и блокирующая доступ к чувствительным данным. Благодаря принятым мерам, уязвимость была устранена еще 30 августа 2023 года, исключив возможность дальнейшего использования злоумышленниками.
Хотя проблема была решена, это случай явно показывает, насколько важно обеспечить безопасность и конфиденциальность данных пользователей в разработках искусственного интеллекта.
Последнее редактирование: