А смысл есть? Там в 99% случаев друг у дружки передирают и компонуют в "супер-пупер"-great-листы )) К гадалке не ходи, что там около трети - повторы!
Возьми и проверься хотя бы встроенными средствами, не поленись.
Это достаточно просто сделать с помощью
sort и
uniq.
Берешь свой BIG_LIST.txt и сортируешь, и проверяешь, удаляя дубликаты
Код:
sort BIG_LIST.txt | uniq -u > REZ.txt
А потом сравни хотя бы по размеру файлы BIG_LIST.txt b REZ.txt ))
Тщательно переработанный DICT-лист - это большая редкость, ибо они уже будут стоить N-ное количество битков.
Может лучше самому задаться вопросом создания собственных?
Тем более, что сам можешь разделить по тематике, инструментарию, аппаратуре и по целям.
Вся необходимая информация есть там, где ее и
нужно брать -
***Скрытый текст***
- и примеров и самих словарей более, чем предостаточно. И даже обновляются. Наверняка часть твоих "сборок" содержит их. И хорошо, если в единственном числе

А в качестве инструмента для создания собственных могу посоветовать
Mentalist (графический инструмент для генерации пользовательских слов и может выводить как полный список слов, так и правила, совместимые с Hashcat и John the Ripper.)
***Скрытый текст***
Удобная штучка.