Antichat снова доступен.
Форум Antichat (Античат) возвращается и снова открыт для пользователей.
Здесь обсуждаются безопасность, программирование, технологии и многое другое.
Сообщество снова собирается вместе.
Новый адрес: forum.antichat.xyz
 |
|
Автоматизация поиска уязвимостей... |

11.01.2009, 18:46
|
|
Reservists Of Antichat - Level 6
Регистрация: 12.02.2006
Сообщений: 891
Провел на форуме: 1892597
Репутация:
836
|
|
Автоматизация поиска уязвимостей...
Всем добрый день...
Сегодня думал чем заняться после того как успешно сдал математику... (вчера был экзамен)
Вобщем написал утилиту, лоадер/гугл-парсер.
1. Парсит гугл (пока только 1 страницу, 100 результатов, если будет продвижение, сделаю парсинг по страницам)
2. По идее передает работу плагинам, а именно циклом foreach начинает пробегать по всем элементам listView'a и передавать ссылку;
3. Если что-то нашли, интерфейс Check (реализованный в плагине) вернул true, то соответствующая строка изменяет цвет на розовый.
Реализовано:
1. Парсинг гугла; (Регулярное выражение - (?<=<(\S|\s)*)((?<=(href=('|"")+))|(?<=(href=))[^('|"")])([^'>""\s)]*)(?=('|""|[\S])?) );
2. Поддержка плагинов;
3. Демо пример плагина SQL-Injection (сделал сам, потом начал искать текста ошибок, в гугле вбил "ошибки во время sql injection" получил 1 ссылку - http://www.rsdn.ru/article/inet/SqlInjectionSearch.xml).
Ряд вопросов:
1. Необходим более опытный программист, который поможет разрулить с бизнес логикой;
2. Нужна грамотная реализация поддержки плагинов.
Кто поможет?
Планируется:
1. Реализация ведения лога путем добавления своего обработчика Exception'ов. При catch'ах генерация нового исключения с описанием ошибки;
2. Добавление многопоточности (Web);
3. Использование PE библиотеки от MS;
4. Выставление критериев поиска;
5. Собственные настройки для плагинов;
6. Визуальное сопровождение работы.
"Подводные камни"
1. Автоматически из списка ссылок (при парсинге гугла) исключаются ссылки содержащие в себе "google", не содержащие в себе "http";
2. При компиляции библиотека Core копируется в папку Plugins, проверял, по сути она там не нужна.
Требования:
.NET Framework 3.5
7Zip для распаковки архива
Бинарник - http://www.sendspace.com/file/b6tbxi 8Kb
Исходник - http://www.sendspace.com/file/pb4s69 32Kb
__________________
*********************************
*Я не волшебник ٩(๏̯͡๏)۶, только учусь...*
*********************************
Программы на заказ
Times to fly...
|
|
|

11.01.2009, 19:24
|
|
Leaders of Antichat - Level 4
Регистрация: 02.06.2005
Сообщений: 1,411
Провел на форуме: 10605912
Репутация:
4693
|
|
Сообщение от BlackSun
Чем вам "стандартное" гугление не нравится? все время надо с пупырышками, усиками и прочей поебенью .. скромное имхо.
Кстати да, имхо подобные тулзы имеют смысл если результаты будут в файлик выводиться. Т.к. иначе разницы между рассматриванием выдачи гугла или тулзы - нет.
__________________
Я отдал бы немало за пару крыльев,
Я отдал бы немало за третий глаз
За руку на которой четырнадцать пальцев
Мне нужен для дыхания другой газ..
Мой блог: http://qwazar.ru/.
|
|
|

12.01.2009, 19:38
|
|
Крёстный отец :)
Регистрация: 22.06.2005
Сообщений: 1,330
Провел на форуме: 5302668
Репутация:
2054
|
|
ребят, давайте лучше идею подскажу и думаю эта тулза будет понастоящему полезна каждому.
1) помимо поиска сделать чтото на подобии http://madnet.name/tools/madss/
а) Поиск доступной для просмотра PHPINFO информации
б) Вывод директорий сайта, запрещенных к индексированию
в) Вывод списка Сайтов на сервере aka (ReverseIP)
г) Служебная информация о сервере
2) поиск определённого скрипта на каждом сайте с реверса.
3) всё это можно добавить как плагин к http://code.google.com/p/awebtool/downloads/list + читаем wiki
__________________
Лучший способ защиты - это нападение!!!
|
|
|

12.01.2009, 22:04
|
|
Members of Antichat - Level 5
Регистрация: 25.02.2007
Сообщений: 495
Провел на форуме: 3244717
Репутация:
1980
|
|
поиск определённого скрипта на каждом сайте с реверса.
http://search.msn.com/results.aspx?q=ip:[ip] [keyword]
|
|
|

13.01.2009, 05:57
|
|
Members of Antichat
Регистрация: 03.09.2005
Сообщений: 594
Провел на форуме: 3606217
Репутация:
685
|
|
мне больше нравится http://mywhois.name/rip.php?search=[ip or DN]
|
|
|

16.01.2009, 23:15
|
|
Динозавр
Регистрация: 10.01.2008
Сообщений: 2,841
Провел на форуме: 9220514
Репутация:
3338
|
|
PHP код:
<?php
// Парсер url после выдачи гугла по запросу
$handler=fopen('log.txt','w'); // если не хотим терять старые данные - то "a+"
$limit = 0;
$zapros = "antichat"; // Наш запрос для поиска
$page_start = 0; // Стартовая страница из расчета 100 результатов выдачи на страницу
$page_end = 200; // Последняя страница из расчета 100 результатов выдачи на страницу
function parse_serp($engine, $query, $limit)
{
if ($limit<100) {$request = 'http://www.google.com/ie?hl=ru&num=100&start=' . $limit. '&lr=&q='.urlencode(trim($query));}
if ($limit>=100) {$request = 'http://www.google.com/ie?q=' . urlencode(trim($query)) . '&num=100&hl=ru&lr=&start=' . $limit . '&sa=N';}
$pattern = '/<a title="(.*)" href=(.*)>(.*)<\/a>/isU';
$result = file_get_contents($request);
if(preg_match_all($pattern, $result, $matches))
{
for ($i=0; $i<count($matches[0]); $i++)
{
$link = $matches[2][$i];
$serp[] = $link;
}
}
return $serp;
}
for ($i=$page_start;$i<=$page_end;$i++)
{
$result = parse_serp("google", $zapros, $i);
$log = implode("\r\n",$result);
if($handler) {fwrite($handler,$log);}
$i=$i+100;
if ($i>100) {$i=$i-1;}
}
fclose($handler);
echo "Все данные были сохранены в log.txt";
?>
|
|
|

17.01.2009, 13:17
|
|
Постоянный
Регистрация: 09.07.2006
Сообщений: 937
Провел на форуме: 1948091
Репутация:
1686
|
|
парни - гугл - жеще стал и уже жавно - можно по запросу 200 линков (две страницы по сто) и банит за слишком частые - так что соксы в руки
|
|
|

17.01.2009, 17:34
|
|
Участник форума
Регистрация: 08.05.2007
Сообщений: 164
Провел на форуме: 466673
Репутация:
784
|
|
>парни - гугл - жеще стал и уже жавно - можно по запросу 200 линков (две страницы по сто) и банит за слишком частые - так что соксы в руки
низачот)
спокойно 1к линков по одному запросу+слишком частые зачем? 12-15 секунд между запросами для антибана достаточно.
|
|
|

26.04.2010, 21:31
|
|
Познающий
Регистрация: 26.12.2006
Сообщений: 31
Провел на форуме: 95909
Репутация:
10
|
|
>парни - гугл - жеще стал и уже жавно - можно по запросу 200 линков (две страницы по сто) и банит за слишком частые - так что соксы в руки
низачот)
спокойно 1к линков по одному запросу+слишком частые зачем? 12-15 секунд между запросами для антибана достаточно.
А никто не задумывался над использованием гугл апи - и банов не будет и изобретение велосипеда можно отложить на другие компоненты софтины?
|
|
|

27.04.2010, 06:35
|
|
Познающий
Регистрация: 02.12.2009
Сообщений: 37
Провел на форуме: 195146
Репутация:
15
|
|
ссылка битая, может у кого завалялся? хотелось бы посмотреть.
|
|
|
|
 |
|
|
Здесь присутствуют: 1 (пользователей: 0 , гостей: 1)
|
|
|
|