Как правильно проводить сбор информации целевого веб ресурса.

Как правильно проводить сбор информации целевого веб ресурса.

Life-Hack

Всем привет, сегодня речь пойдет о самой на первый взгляд такой простой теме как сбор информации.


Обратимся к теории.

Сбор информации заключает в себе получение большого количества данных о цели, которые пригодятся в использовании в дальнейшем. В данной статье мы будем рассматривать сбор информации о целевом веб ресурсе, инструменты которые позволяют собрать информацию, некоторые техники. Так вот, как вы наверняка знаете сбор информации делится на 2 этапа. Это активный и пассивный. Во время пассивного сбора наша цель даже не подозревает о действиях которые мы осуществляем(т.е. не знает что мы собираем информацию о ней). Чаще всего этот этап проходит при сборе с сторонних ресурсов(к примеру с google). А при активномсканировании вы уже взаимодействуете с целью(ищите открытые порты).


План сбора информации.

В течении всей статьи будем приддерживатся простенького плана в котором мы из пассивного сбора информации плавно переходим в активный:

  1. Информация из различных источников(пассивный)
  2. Основная информация о цели(активный)
  3. Информация о сети(активный)


Пассивный сбор информации(1)

​В этом пункте мы будем пользоваться различными сервисами и гуглом. А именно, будем использовать дорки.

Для тех кто ни разу не имел дела с дорками поясняю. Это специальные параметры поиска вернее сказать что-то вроде дополнительных опций и ограничений вывода при осуществлении запроса. Перейдем к делу. 

Когда вы осуществляете запрос в гугл то в ответ видите миллионы различных ресурсов. Допустим я хотел бы научится взламывать wifi и прописал в строке поиска

Взлом wifi 

Вывело 120000 доступных результатов. Но что если мы введем

Взлом wifi site:codeby.net

Теперь количество результатов снизилось. Оператор site как бы говорит "искать информацию на данном сайте". А что если я хотел бы прочитать какие-либо файлы определенного формата. К примеру .pdf 

Книги filetype:pdf

Вы правильно поняли если предположили что filetype в качестве результата выдает файлы определенного формата. Допустим я хотел бы поискать какие-либо текстовые файлы. Тогда просто объединим

site:codeby.net filetype:txt

Как видим мы нашли файл robots.txt

inurl - ищет текст в url'е сайта

intitle - ищет текст в заголовке сайта


Наверное каждый из нас когда-либо искал уязвимые к SQL инъекции ресурсы используя дорки. Так вот давайте найдем сайты с следующим текстом в URL: .php?id=

inurl:.php?id=

А теперь попробуем найти данные в заголовке

intitle:"Kali linux"

Уметь искать информацию с использованием дорков очень полезно. Так как на пассивный поиск без использования прочих поисковиков уйдет немало времени.


Активный сбор информации(2)

​Наконец мы пришли к очень интересному пункту. Это сбор основной информации о целевом ресурсе. Сюда входят такие данные как:

  • информация о доменах
  • информация о поддоменах
  • контактная информация
  • местонахождение
  • диапазон IP адресов
  • CMS

Некоторые сервисы(Перечень следующих сервисов не является рекламой! Не в коем случае!)

  1. 2ip - сервис который даст вам достаточно информации о вашей цели. В числе информации IP, cms, местонахождения и.т.п.
  2. Echosec - данный сервис показывает все посты созданы в социальных сетях(полезно для поиска сотрудников целевого веб ресурса)
  3. Atchive - этот сервис сохраняет копии практически всех сайтов.
  4. NetCraft - сервис дает вам информацию о DNS, выводить диапазон IP адресов, поддомены и др.
  5. Ripe.net - сервис дает информацию о диапазоне IP адресов.

Чем нам могут понадобится поддомены и диапазоны ip? В частности тем, что если не получилось пробиться через один домен(веб ресурс) то в дальнейшем используя те же поддомены можно пробиться через них. Что же, для получения информации о домене можно использовать такую утилиту как - whois

whois site.com

Нашему взору представляется очень много информации. Если повезет то можно и увидеть email и имя которые были указаны при регистрации DNS. А если мы введем IP вместо доменного имени, то получаем диапазон ip адресов

Для автоматизации сбора информации существует целый фреймворк - recon-ng

git clone https://github.com/jorik041/recon-ng

Вообще recon-ng уже входит в состав Kali. Давайте найдем поддомены google.ru

> load google_site_web
> set source google.com
> run

Используя сервисы описанные выше и инструменты которые присутствуют в статье, можно получить уйму информации. Но также ее нужно отсортировать. Для этого нам понадобится Maltego. Его уже описывали - здесь.

CMS. Чаще всего cms можно опеределить заглянув в meta тегв коде страницы целевого веб ресурса.

Также определить cms можно сервисом 2ip. Вот пример определения cms одного веб сайта

Активный сбор информации(3)

​В этом пункте мы поговорим о получении информации о сети. То есть информацию о

  • открытых портах
  • dns записях
  • активных хостах
  • ОС системы
  • версии ПО и ОС

Начнем с портов. Вот тут нам пригодится очень полезный инструмент который известен очень многим. Это nmap. В этом пункте мы будем опираться на него. Давайте же про сканируем целевую систему на открытые порты. Nmap сканирует "популярные" порты. Такие как 80, 23, 443 и.т.п. В качестве примера про сканирую свой роутер

nmap 192.168.1.1

Чтобы про сканировать нужный вам порт существует такая опция как -p. Пример использования

nmap 192.168.1.2 -p 4444

Теперь попробуем узнать ОС целевой системы. На этот случай nmap обладает опцией -O

nmap 192.168.1.2 -O

А для определения версий ОС и ПО при этом получить много полезной информации можно использовав данную команду

nmap SITE.ru -sV -A -v -O

С этим мы определились. Перейдем к активным хостам. У нас имеется полученный ранее диапазон. Воспользуемся fping

fping -Asg 95.213.8.0/24 -r 3 >> ip.lst
cat ip.lst | grep alive

Как видим живых хостов много. В итоге у меня получился огромный список живых хостов.

DNS. Попробуем получить информацию из mx и ns записей.


NS записи - показывают какие DNS обслуживают данную зону.

MX записи - определяют почтовые серверы обслуживающие данную зону.


Для этого у нас есть nslookup.

Для определения ns записей пишем следующее

nslookup
> set q=ns
> google.com 

Где google.com - ваш домен. Для mx записей картина такая же как и была

nslookup
> q=mx
> google.com

Вывод.

Так вот, сбор информации является немаловажной частью в пентесте web ресурсов, и даже не именно web ресурсов а вообще систем, сетей и прочего. Всем спасибо! До встречи в следующей части) Источник



Report Page