• 🔥 Бесплатный курс от Академии Кодебай: «Анализ защищенности веб-приложений»

    🛡 Научитесь находить и использовать уязвимости веб-приложений.
    🧠 Изучите SQLi, XSS, CSRF, IDOR и другие типовые атаки на практике.
    🧪 Погрузитесь в реальные лаборатории и взломайте свой первый сайт!
    🚀 Подходит новичкам — никаких сложных предварительных знаний не требуется.

    Доступ открыт прямо сейчас Записаться бесплатно

News "Уязвимости в чат-боте ChatGPT и как он может выдавать чужие конфиденциальные данные случайным пользователям."

people-generating-images-using-artificial-intelligence-laptop.jpg
После проведения международной группы ученых, было обнаружено, что чат-бот ChatGPT, разработанный корпорацией OpenAI, содержал серьезные уязвимости, позволяющие злоумышленникам получить доступ к чувствительным данным пользователя. Одним из ключевых моментов исследования стал специальный запрос, который, казалось бы, просто просил бота повторять стихотворение бесконечно. Но в реальности, при таком запросе чат-бот начинал выдавать не только стихи, но и личные данные, такие как имена, телефонные номера, адреса электронной почты, даты рождения пользователей, и даже конфиденциальные данные различных организаций.

После обнаружения этой уязвимости, ученые связались с ответственными лицами в OpenAI, и уровень уязвимости был доведен до их внимания. В результате, была разработана и опубликована патч-программа, выслеживающая подобные запросы и блокирующая доступ к чувствительным данным. Благодаря принятым мерам, уязвимость была устранена еще 30 августа 2023 года, исключив возможность дальнейшего использования злоумышленниками.

Хотя проблема была решена, это случай явно показывает, насколько важно обеспечить безопасность и конфиденциальность данных пользователей в разработках искусственного интеллекта.​
 
Последнее редактирование:
Мы в соцсетях:

Взломай свой первый сервер и прокачай скилл — Начни игру на HackerLab

Похожие темы