Antichat снова доступен.
Форум Antichat (Античат) возвращается и снова открыт для пользователей.
Здесь обсуждаются безопасность, программирование, технологии и многое другое.
Сообщество снова собирается вместе.
Новый адрес: forum.antichat.xyz

07.06.2009, 09:13
|
|
Участник форума
Регистрация: 27.04.2008
Сообщений: 224
Провел на форуме: 140661
Репутация:
313
|
|
Discovery-плагины
webDiff
Смысл плагина в сравнении двух директорий - локальной и удалённой. Идея в том, что бы имитировать работу linux-команды "diff".
Плагин имеет 4 параметра:
- localDir
- remotePath
- banUrl
- content
Он будет считывать файлы внутри "localDir", и запрашивать их в удалённой директории "remotePath". Совпадения и ошибки записываются отдельно и сохраняются. Сравнение содержимого файлов происходит только если параметр "content" установлен в true и их расширение не находится в опции "banUrl".
Параметр "banUrl" содержит список расширений, файлы с которыми не нужно проверять. Например, ASP, PHP, и т.д. файлы
sitemapReader
Плагин ищет файл sitemap.xml и обрабатывает его.
Файл sitemap.xml используется администраторами для того чтобы дать поисковому пауку Google больше информации о сайте. При обработке этого файла плагин находит новые ссылки и дополнительную информацию.
detectReverseProxy
Плагин пытается определить, стоит ли исследуемый хост за прокси-сервером. Суть процедуры проверки состоит в посылке запроса удалённому серверу и анализе заголовков ответа. Если в них найден заголовок "Via" то плагин сообщает о наличие прокси-сервера.
phpEggs
Плагин пытается найти документированные "пасхальные яйца" в PHP и определить версию интерпритатора на основе их содержимого. Вот примеры "пасхальных яиц":
- http://php.net/?=PHPB8B5F2A0-3C92-11d3-A3A9-4C7B08C10000 ( PHP Credits )
- http://php.net/?=PHPE9568F34-D428-11d2-A769-00AA001ACF42 ( PHP Logo )
- http://php.net/?=PHPE9568F35-D428-11d2-A769-00AA001ACF42 ( Zend Logo )
- http://php.net/?=PHPE9568F36-D428-11d2-A769-00AA001ACF42 ( PHP Logo 2 )
spiderMan
Плагин представляет из себя локальный прокси-сервер который может быть использован для передачи информации фреймворку о исследуемом приложении в том случае если на сайте много Flash-объектов или Java-апплетов. Когда Вам потребуется исследовать с помощью w3af такое приложение то запускайте этот плагин и используйте браузер, настроенный на работу с локальным прокси-сервером.
Плагин будет извлекать информацию из данных передающихся между пользователем и сервером, и искать в них информацю которую можно передать на исследование audit-плагинам. Дополнительно spiderMan поддерживает функцию сохранения cookies приходящих от сервера для будущего использования их другими плагинами. Так что если Вы исследуйте приложение которое передаёт информацию о сессии в cookies то Вам нужно включить этот плагин, авторизоваться и потом уже запускать остальные плагины.
Имеется 2 параметра:
- listenAddress
- listenPort
urlFuzzer
Плагин пытается найти новые ссылки основываясь на исходящих запросах. Например если исходящий запрос проходит по ссылке
- http://a/a.html
То плагин запросит:
- http://a/a.html.tgz
- http://a/a.tgz
- http://a/a.zip
... и т.д.
Если код ответа на запрос не 404 то плагин рапортует о нахождении архива. Вообщем он ищет резервные копии файлов, исходные коды и т.д.
Имеет одну опцию:
- fuzzImages
userDir
Плагин пытается найти домашние директории пользователей основываясь на информации полученной другими плагинами. Например, если запрашиваемый URL
- http://test/
И другой плагин нашёл следующие email-аккаунты:
- test@test.com
- f00b4r@test.com
То userDir произведёт следующие запросы:
- http://test/~test/
- http://test/test/
- http://test/~f00b4r/
- http://test/f00b4r/
Если код ответа на них не 404 error то мы нашли новую ссылку и знаем что такой пользователь существует в системе атакуемого сервера. Так же плагин определяет операционную систему и установленные приложения проверяя особые имена пользователей.
findvhost
Плагин использует заголовок "Host" для того что бы найти дополнительные виртуальные хосты. Плагин пригодится в ситуации если на одном и том же сервере есть публичных хост и приватный. Тогда, если сервер настроен не правильно, плагин сможет раскрыть приватных хост. Пожалуйста, помните о том что данный плагин не использует никаких технологий связанных с DNS.
fingerprint_os
Плагин определяет семейство операционной системы через веб-сервер (Windows, Unix, и т.д.).
На данный момент алгоритм работы этого плагина очень тривиален, потому что используется только один способ определения: разделитель директорий Windows. Например, если есть адрес http://host.tld/abc/def.html то плагин пробует запросить ссылку http://host.tld/abc\def.html и если ответы на обе из них совпали - на сервере стоит Windows.
findBackdoor
Плагин ищет веб-шеллы в директории сайта.
Например запрашивается ссылка
- http://host.tld/w3af/f00b4r.php
Тогда плагин проверит следующие адреса:
- http://host.tld/w3af/c99.php
- http://host.tld/w3af/cmd.php
- http://host.tld/w3af/webshell.php
...
wordnet
Плагин пытается найти новые ссылки с использованием WordNet.
Рассмотрим следующий пример. Плагин отловил следующую ссылку:
- http://a/index.asp?color=blue
Он берёт значение параметра color (blue) и ищет связанные с ним по смыслу слова в базе данных WordNet. Находятся слова "black" и "white". Тогда плагин запрашивает два адреса:
- http://a/index.asp?color=black
- http://a/index.asp?color=white
Если код ответа на эти запросы не 404, и они не имеют одного и того же содержимого, то считается что найдены новые ссылки. Более подробную информацию о WordNet Вы можете найти на http://wordnet.princeton.edu/
zone_h
Плагин ищет сайт в базе дефейсов zone-h.org. Это может оказаться полезным т.к. в некоторых случаях, при дефейсе, взломщик сообщает какую уязвимость он использовал. Возможно, она ещё не закрыта.
performance_testing
К сожалению, описания этого плагина нет.
robotsReader
Плагин ищет файл robots.txt и обрабатывает его.
Файл является разграничителем доступа поисковиков к разным частям сайта.
Исследовав его Вы можете узнать много новой информации о сайте
sharedHosting
Плагин пытается найти дополнительную информацию если приложение установлено на хостинге. Плагин устраивает поиск по запросу "ip:1.2.3.4" где 1.2.3.4 это IP-адрес веб-сервера.
Имеет одну опцию:
- resultLimit
Она указывает сколько ссылок надо обработать из результатов поиска MSN.
afd
Плагин посылает специальные запросы на удалённый веб-сервер для того что бы выяснить, защищена ли удалённая сеть IPS или WAF.
afd определяет сброс TCP-соединений и различные http-фильтры. Например, если afd запрашивает определённую страницу через запрещённый метод, то запрос будет заблокирован фильтром. В случае с приложениями класса "Web Application Firewalls" (типа mod_security) всё немного сложнее. Сначала afd запрашивает страницу без добавления каких-либо параметров. После этого он обращается по тому же адресу, но с дополнительным случайным параметром. Если ответы на эти 2 запроса разные то возможно на стороне сервера находится какой-то фильтр.
allowedMethods
Плагин ищет доступные HTTP-методы передачи данных. Имеется 2 параметра:
- execOneTime
- reportDavOnly
Если "execOneTime" установлен в true, то проверка осуществляется только обращаясь к корню сайта. Если "reportDavOnly" установлен в true, плагин сообщает только если найдены DAV-методы.
Плагин сначала пытается использовать метод OPTIONS для того что бы перебрать все доступные методы. Если этого сделать не удаётся то он использует обычный перебор методов.
phpinfo
Плагин ищет файлы с "PHP Info" в директориях и под-директориях взятых из найденных ссылок. Файл "PHP Info" содержит информацию о PHP - версии, модулях, системе на которой он стоит и т.д. Например, если будет найден следующий адрес:
- http://localhost/w3af/index.php
То плагин попытается запросить:
- http://localhost/w3af/phpinfo.php
- http://localhost/phpinfo.php
- ...
- http://localhost/test.php?mode=phpinfo
importResults
Плагин импортирует результаты работы других программ которые ищут ссылки на сайтах. Он считывает указанный ему файл, в котором содержится информация о ссылках разделенная запятой, в формате HTTP-METHOD,URI,POSTDATA.
У плагина существует всего один параметр:
- input_file
findCaptchas
Плагин пытается найти различные CAPTCHA-изображения в HTML-документе. Суть его работы в том что бы запросить одну и ту же страницу два раза и сравнить контрольные суммы изображений. Если у какой-то картинки они разные то возможно что это CAPTCHA.
serverStatus
Плагин ищет "server-status"-файл используемый веб-сервером Apache, и обрабатывает его. После этого плагин может найти новые ссылки или ранее неизвестные домены на этом сервере.
oracleDiscovery
Плагин ищет некоторые ссылки используемые "Oracle Application Server" и обрабатывает информацию полученную по ним.
yahooSiteExplorer
Плагин ищет новые ссылки на сайте с помощью "Yahoo Site Explorer". Он производит поиск по фразе "domain.com" и делает запросы по всем найденным ссылкам.
У плагина есть всего один параметр:
- resultLimit
frontpage_version
Плагин ищет информационный файл о сервере FrontPage. Если находит, то пытается узнать версию сервера и установленные дополнения. Файл распологается внутри корневой директории. Пример:
- http://localhost/_vti_inf.html
detectTransparentProxy
Плагин пытается обнаружить "прозрачный" прокси-сервер. Процедура обнаружения достаточно проста. Плагин пытается подключиться к диапазону IP-адресов и если все подключения возвращают открытый сокет то на той стороне работает "прозрачный" прокси-сервер.
dnsWildcard
Плагин запрашивает домены www.site.com и site.com и пытается сравнить результат. Выясняя при этом какой шаблон DNS-конфигураций используется на сайте.
webSpider
Плагин представляет из себя классического web-паука. Он бродит по сайту и извлекает все ссылки и адреса форм.
Имеет 3 опции:
- onlyForward
- ignoreRegex
- followRegex
- urlParameter
Параметры IgnoreRegex и followRegex могут использоваться для того чтобы показать пауку какие ссылки (не)нужно посещать (типа "logout" или "Перезагрузить устройство").
По умолчанию в опции ignoreRegex ничего не содержится, а followRegex содержит '.*' (следовать по всем ссылкам). Регулярное выражение должно быть совместимым с языком Python.
fingerMSN
Плагин ищет почтовые адреса в поисковике MSN.
Плагин имеет один конфигурационный параметр:
- resultLimit
Он производит поиск по фразе "@domain.com", запрашивает все найденные ссылки и пытается найти в них почтовые адреса.
googleSets
Плагин ищет ссылки используя "Google Sets".
Имеется 2 параметра:
- resultLimit
- setResults
Вот самый простой пример который демонстрирует работу плагина. Допустим фреймворк нашёл ссылки:
- http://a/index.asp?color=blue
- http://a/index.asp?color=red
Тогда плагин произведёт поиск слов в "Google Sets", связанных со словами "blue" и "red". Результатом этого поиска будет слова "black" и "white". И плагин осуществит следующие запросы:
- http://a/index.asp?color=black
- http://a/index.asp?color=white
Если эти запросы не вернут ошибку с кодом 404 и не будут одинакового содержания, то ссылки добавятся в общую базу.
digitSum
Плагин пытается найти новые ссылки путём изменения номеров, идущих после основного имени файла.
Имеется 2 параметра:
- fuzzImages
- maxDigitSections
Для того чтобы лучше понять работу плагина приведу следующий пример. Возьмём следующую ссылку:
- http://host.tld/index1.asp
Тогда плагин запросит документы:
- http://host.tld/index0.asp
- http://host.tld/index2.asp
Если сервер ответит не ошибкой с кодом 404, то ссылка подобрана правильно.
halberd
Плагин пытается обнаружить существование узла балансировки HTTP-нагрузки.
domain_dot
Плагин ищет неправильную настройку виртуальных хостов отправляя серверу специально сформированный запрос с точкой в конце доменного имени. Например, если сходный адрес http://host.tld/, то плагин запросит http://host.tld./ .
В некоторых случаях при неправильной конфигурации сервера атакующий может прочитать исходные коды веб-приложения запрашивая некоторые файлы по такому адресу. Например:
- http://host.tld./login.php
MSNSpider
Плагин ищет новые ссылки на сайте через поискового паука MSN.
Имеет один конфигурационный параметр:
- resultLimit
Так же плагин производит поиск по запросу "@domain.com" и ищет все email адреса на сайте.
fingerprint_WAF
Плагин пытается опознать ПО класса "Web Application Firewall that". Помните о том что изначально эта программа должны быть обнаружена плагином discovery.afd
serverHeader
Плагин осуществляет GET-запрос к серверу и извлекает из ответа содержимое заголовка "Server". Затем он его помещает общую базу знаний. Ничего особенного плагин из себя не представляет. Для получения более детальной информации Вы можете использовать hmap-плагин.
wsdlFinder
Плагин ищет веб-сервисы на сайте запрашивая каждый существующий файл с добавлением "?WSDL" к его имени.
pykto
Плагин представляет из себя сканнер nikto, портированный на python.
Он использует базу данных из nikto (scan_database) для поиска уязвимых ссылок. Плагин имеет семь параметров:
- updateScandb
- cgiDirs
- adminDirs
- nukeDirs
- dbFile
- extra_db_file
- mutateTests
- genericScan
crossDomain
Ищет файл crossdomain.xml, который используется Flash, и обрабатывает его.
Этот файл представляет собой список доменов, которым разрешён доступ к атакуемому сайту. Исследовав его Вы можете получить больше представлений о взаимоотношении разных доменов с сайтом.
fingerPKS
Плагин ищет почтовые адреса в PGP PKS серверах.
googleSpider
Плагин ищет новые ссылки на сайте с помощью Google. Поиск происходит с помощью запроса "site:domain.com" и просмотра всех найденных ссылок.
Существует два конфигурационных параметра:
- resultLimit
- key
hmap
Плагин опознаёт удалённый веб-сервер, его тип, версию и установленные исправления. Идентификация происходит не только через заголовок "Server". По сути плагин представляет из себя обёртку для hmap Dustin`a Lee
Имеется один параметр:
- genFpF
Если genFpF установлен в true, то будет сгенерирован специальный опознавательный файл для проверяемого веб-сервера. Такие файлы используются для быстрого опознавания серверов. Если Вы сгенерировали новый файл то отправьте его пожалуйста нам на адрес w3af.project@gmail.com и мы добавим его в фреймворк. Обратите внимание на то что hmap самостоятельно соединяется с веб-сервером, не используя при этом настройки w3af (такие как прокси-сервер например).
phishtank
Плагин проверяет домен в базе phishtank. Если он там есть значит сайт взломан и используется для фишинга.
Есть 2 конфигурационных параметра:
- dbFile
- updateDB
fingerGoogle
Данный плагин ищет почтовые адреса в Google. Имеется 2 опции:
- key
- resultLimit
- fastSearch
Если параметр fastSearch установлен в false, то плагин производит поиск по запросу "@domain.com", обрабатывая затем результат (запрашивая каждую найденную ссылку) и возвращая список найденных E-mail`ов. А если этот параметр установлен в true, то E-mail`ы берутся лишь со страницы результатов поиска. Найденные ссылки при этом не посещаются.
dotNetErrors
Плагин запрашивает специально сформированные ссылки которые могут вызвать сообщения об ошибках ASP.NET с интересной информацией типа ASP.NET-версии. Вот пара примеров при запросе которых должна быть сгенерирована ошибка.
- default|.aspx
- default~.aspx
archiveDotOrg
Данный плагин ищет исследуемый сайт на archive.org и обрабатывает результаты. Позволяет найти новые ссылки. Это машина времени!
ghdb
Плагин ищет в приложении уязвимости с помощью Google.
Имеет 3 параметра:
- resultLimit
- updateGHDB
- key
Действие происходит с использованием "google hack database", автором которой является jhonny.
|
|
|
|
|
Здесь присутствуют: 1 (пользователей: 0 , гостей: 1)
|
|
|
|