![]() |
Автоматизация поиска уязвимостей...
Всем добрый день...
Сегодня думал чем заняться после того как успешно сдал математику... (вчера был экзамен) Вобщем написал утилиту, лоадер/гугл-парсер. http://img380.imageshack.us/img380/7...9202112ez3.jpg 1. Парсит гугл (пока только 1 страницу, 100 результатов, если будет продвижение, сделаю парсинг по страницам) 2. По идее передает работу плагинам, а именно циклом foreach начинает пробегать по всем элементам listView'a и передавать ссылку; 3. Если что-то нашли, интерфейс Check (реализованный в плагине) вернул true, то соответствующая строка изменяет цвет на розовый. Реализовано: 1. Парсинг гугла; (Регулярное выражение - (?<=<(\S|\s)*)((?<=(href=('|"")+))|(?<=(href=))[^('|"")])([^'>""\s)]*)(?=('|""|[\S])?) ); 2. Поддержка плагинов; 3. Демо пример плагина SQL-Injection (сделал сам, потом начал искать текста ошибок, в гугле вбил "ошибки во время sql injection" получил 1 ссылку - http://www.rsdn.ru/article/inet/SqlInjectionSearch.xml). Ряд вопросов: 1. Необходим более опытный программист, который поможет разрулить с бизнес логикой; 2. Нужна грамотная реализация поддержки плагинов. Кто поможет? Планируется: 1. Реализация ведения лога путем добавления своего обработчика Exception'ов. При catch'ах генерация нового исключения с описанием ошибки; 2. Добавление многопоточности (Web); 3. Использование PE библиотеки от MS; 4. Выставление критериев поиска; 5. Собственные настройки для плагинов; 6. Визуальное сопровождение работы. "Подводные камни" 1. Автоматически из списка ссылок (при парсинге гугла) исключаются ссылки содержащие в себе "google", не содержащие в себе "http"; 2. При компиляции библиотека Core копируется в папку Plugins, проверял, по сути она там не нужна. Требования: .NET Framework 3.5 7Zip для распаковки архива Бинарник - http://www.sendspace.com/file/b6tbxi 8Kb Исходник - http://www.sendspace.com/file/pb4s69 32Kb |
Цитата:
|
ребят, давайте лучше идею подскажу и думаю эта тулза будет понастоящему полезна каждому.
1) помимо поиска сделать чтото на подобии http://madnet.name/tools/madss/ а) Поиск доступной для просмотра PHPINFO информации б) Вывод директорий сайта, запрещенных к индексированию в) Вывод списка Сайтов на сервере aka (ReverseIP) г) Служебная информация о сервере 2) поиск определённого скрипта на каждом сайте с реверса. 3) всё это можно добавить как плагин к http://code.google.com/p/awebtool/downloads/list + читаем wiki |
Цитата:
|
мне больше нравится http://mywhois.name/rip.php?search=[ip or DN]
|
PHP код:
|
парни - гугл - жеще стал и уже жавно - можно по запросу 200 линков (две страницы по сто) и банит за слишком частые - так что соксы в руки
|
>парни - гугл - жеще стал и уже жавно - можно по запросу 200 линков (две страницы по сто) и банит за слишком частые - так что соксы в руки
низачот) спокойно 1к линков по одному запросу+слишком частые зачем? 12-15 секунд между запросами для антибана достаточно. |
Цитата:
|
ссылка битая, может у кого завалялся? хотелось бы посмотреть.
|
| Время: 14:13 |