собраные все словари которые ты когда либо встречал кроме
вот
https://databases.today/search.php
но я уже сделал отдельно словарь по сайту
с LOGIN_PASS.7z
сейчас скачал базу на 600гиг чищю планирую собрать все в кучу чтобы удалить дубли но чтобы сделать такую фичу нада 1.5 - 2 терабайта жесткого
чтобы сделать словарик все что было где то в 500 гиг может получиться
А если облако подключить, китайское там ведь дают и больше, но тоже наверное нужно чтобы скорость синхронизации была высокая. И подключался как сетевой диск. Так ведь?
Фильтр Блума позволяет выявлять дубли, при этом не нужно ничего собирать в кучу, ни сортировать.
Так наверное у него поделены они, и он хочет собрать в кучу их все и почистить для этого надо такой размер диска. ПОмимо 600-та там ещё скорее всего есть.