• 15 апреля стартует «Курс «SQL-injection Master» ©» от команды The Codeby

    За 3 месяца вы пройдете путь от начальных навыков работы с SQL-запросами к базам данных до продвинутых техник. Научитесь находить уязвимости связанные с базами данных, и внедрять произвольный SQL-код в уязвимые приложения.

    На последнюю неделю приходится экзамен, где нужно будет показать свои навыки, взломав ряд уязвимых учебных сайтов, и добыть флаги. Успешно сдавшие экзамен получат сертификат.

    Запись на курс до 25 апреля. Получить промодоступ ...

Проблема Setoolkit - не создает клон сайта

B

bycat

99.png


Зависло и все я и перезагрузку делал не работает фишинг, не создается клон страницы, не появляются файлы в папки var/www/

 

ghostphisher

местный
Grey Team
07.12.2016
2 602
3 413
BIT
0
1) проверить, не запущен ли Апач или иной сервис на 80 порту
2) проверить работу сети
3) больше информации о том как делаем, на чем делаем...а то потом всплывают виртуалки с натами...
 
  • Нравится
Реакции: nikos

kot-gor

Grey Team
07.09.2016
529
705
BIT
0
у меня всё работает.. только проверил....кали последняя с обновлениями.Что то, делаете не так.
 
B

bycat

09.png

08.png


Сделал фейк начил тестить пароль не приходит появляется вот это каракатица.
Скажите как сделать фейк в самой глобальнной сети постоянный не зависимо выключен компьютер или нет?​
 
Последнее редактирование модератором:

kot-gor

Grey Team
07.09.2016
529
705
BIT
0
Если будете копировать шаблон сайта через setoolkit, то ваш фэйк не более полусуток проживет, дальше он попадет в черный список индексации гугла.Если хотите что бы немного дольше ваше творение прожило, то шаблон нужно делать ручками.
 
B

bycat

где мне взять такой шаблон фейка?
 
N

n01n02h

где мне взять такой шаблон фейка?
wget-ом выкачай
Код:
wget -r -k -l 7 -p -E -nc http://site.com/
После выполнения данной команды в директорию site.com будет загружена локальная копия сайта . Чтобы открыть главную страницу сайта нужно открыть файл index.html.
Рассмотрим используемые параметры:
-r—указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
-k—используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
-p—указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
-l—определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, в примере мы установили 7). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
-E—добавлять к загруженным файлам расширение .html.
-nc—при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.
 
D

dbn13612b3

то же самое,не копирует страницу,тока на виртуалке работаю,что делать?
 
Мы в соцсетях:

Обучение наступательной кибербезопасности в игровой форме. Начать игру!