Парсеры поисковых системОписаниеПарсеры позиций в поисковых системахОписаниеПарсеры подсказок поисковых системОписаниеПарсеры кейвордовОписаниеРегистрация аккаунтовОписаниеПарсеры параметров сайтов и доменовОписаниеПарсеры различных сервисовОписаниеПарсеры магазиновОписаниеПарсеры контентаОписание

a-parser.com

 

Начальная

Windows Commander

Far
WinNavigator
Frigate
Norton Commander
WinNC
Dos Navigator
Servant Salamander
Turbo Browser

Winamp, Skins, Plugins
Необходимые Утилиты
Текстовые редакторы
Юмор

File managers and best utilites

Net::HTTP - Скачивает указанную страницу, поддерживает многостраничный парсинг. Браузер парсер


простой парсинг сложных сайтов / Хабр

imageКаждый, кто пишет парсеры, знает, что можно распарсить сто сайтов, а на сто-первом застрять на несколько дней. Структура очередного отмороженного сайта может быть сколь угодно сложной, и, когда дело касается сжатых javascript-ов и ajax-запросов, расшифровать их и извлечь информацию с помощью обычного curl-а и регекспов становится дороже самой информации.

Грубо говоря, проблема в том, что в браузере работает javascript, а на сервере его нет. Нужно либо писать интерпретатор js на одном из серверных языков (jParser и jTokenizer), либо ставить на сервер браузер, посылать в него запросы и вытаскивать итоговое dom-дерево.

В древности в таких случаях мы строили свой велосипед: на отдельной машине запускали браузер, в нем js, который постоянно стучался на сервер и получал от него задания (джобы), сам сайт грузился в iframe, а скрипт извне отправлял dom-дерево ифрейма обратно на сервер.

Сейчас появились более продвинутые средства — xulrunner (crowbar) и watir. Первый — безголовый firefox. У crowbar есть даже ff-плагин для визуального выделения нужных данных, который генерит специальный парсер-js-код, однако там не поддерживаются cookies, а допиливать неохота. Watir позиционируется разработчиками как средство отладки, но мы будем его использовать по прямому назначению и в качестве примера вытащим какие-нибудь данные с сайта travelocity.com.

Watir — это ruby gem, через который идет взаимодействие с браузером. Есть версии для разных платформ — watir, firewatir и safariwatir. Несмотря на подробный мануал по установке, у меня возникли проблемы как в винде, так и в убунте. В windows (ie6) watir не работает на ruby 1.9.1. Пришлось поставить версию 1.8.6, тогда заработало. В убунте — для того, чтобы работал FireWatir (или обычный watir через firefox), в браузер нужно поставить плагин jssh. Но версия, предлагаемая для FireWatir на странице установки не заработала с моим FireFox 3.6 на Ubuntu 10.04.

Чтобы проверить, работает у вас jssh или нет, нужно запустить firefox -jssh, а потом послать что-нибудь на 9997 порт (telnet localhost 9997). Если порт не открывается, либо происходит аварийное завершение работы firefox (как у меня), значит нужно собрать свой jssh, подробная инструкция о сборке находится здесь.

Начнем писать парсер отелей с travelocity.com. Для примера выберем цены комнат во всех отелях по направлению New York, NY, USA на сегодня. Будем работать с FireWatir на Ubuntu 10.4.

Запускаем браузер и грузим страницу с формой:

require "rubygems"<br>require "firewatir"<br>ff = FireWatir::Firefox.new<br>ff.goto("http://www.travelocity.com/Hotels")<br> Заполняем форму нужными значениями и делаем submit:

ff.text_field(:id,"HO_to").val("New York, NY, USA")<br>ff.text_field(:id,"HO_fromdate").val(Time.now.strftime("%m/%d/%Y"))<br>ff.text_field(:id,"HO_todate").val(Time.tomorrow.strftime("%m/%d/%Y"))<br>ff.form(:name,"formHO").submit<br> Ждем окончания загрузки:

ff.wait_until{ff.div(:id,"resultsList").div(:class,"module").exists?}<br> wait_until — очень важная инструкция. При сабмите формы на сайте делается несколько редиректов, а после — ajax запрос. Нужно дождаться финальной загрузки страницы, и только ПОСЛЕ этого работать с dom-деревом. Как узнать, что страница загрузилась? Нужно посмотреть, какие элементы появляются на странице после выполнения ajax. В нашем случае после запроса к /pub/gwt/hotel/esf/hotelresultlist.gwt-rpc в resultsPage появляется несколько элементов <div>. Ждем, пока они не появятся. Замечу, что некоторые команды, например text_field, submit, уже включают в себя wait_until, поэтому перед ними данная команда не нужна.

Теперь делаем переход по страницам:

while true do<br> ff.wait_until{ff.div(:id,"resultsList").div(:class,"module").exists?}<br> ...<br> next_link = ff.div(:id,"resultcontrol-top").link(:text,"Next")<br> if (next_link.exists?) then next_link.click else break end<br>end<br> Там, где в коде стоит многоточие, находится непосредственное вытаскивание данных. Возникает искушение применить watir и в этом случае, к примеру, пробежать по всем дивам в resultsList такой командой:

ff.div(:id,"resultsList").divs.each.do |div|<br> if (div.class_name != "module") then next end<br> ...<br>end<br> И из каждого дива вытащить название отеля и цену:

m = div.h3(:class,"property-name").html.match(/propertyId=(\d+)[^<>]*>([^<>]*)<\/a[^<>]*>/)<br>data["id"] = m[1] unless m.nil?<br>data["name"] = m[2] unless m.nil?<br>data["price"] = div.h4(:class,"price").text<br> Но так делать не следует. Каждая команда watir-а к элементам dom-дерева — это лишний запрос к браузеру. У меня работает около секунды. Гораздо эффективнее за ту же секунду за раз выдернуть весь dom и мгновенно распарсить обычными регулярками:

ff.div(:id,"resultsList").html.split(/<div[^<>]*class\s*=\s*["']?module["']?[^<>]*>/).each do |str|<br>m = str.match(/<a[^<>]*propertyId=(\d+)[^<>]*>([\s\S]*?)<\/a[^<>]*>/)<br> data["id"] = m[1] unless m.nil?<br> data["name"] = m[2] unless m.nil?<br> m = str.match(/<h4[^<>]*class\s*=\s*["']?price["']?[^<>]*>([\s\S]*?)<\/h4[^<>]*>/)<br> data["price"] = m[1] unless m.nil?<br>end<br> Советую применять watir только там, где это необходимо. Заполнение и сабмит форм, ожидание, пока браузер не выполнит js код, и затем — получение финального html-кода. Да, доступ к значениям элементов через watir кажется надежнее, чем парсинг потока кода без dom-структуры. Чтобы вытащить внутренность некоторого дива, внутри которого могут быть другие дивы, нужно написать сложночитаемое регулярное выражение. Но все равно это гораздо быстрее. Если таких дивов много, самое простое решение — несложной рекурсивной функцией разбить весь код по уровням вложенности тегов. Я писал такую штуку в одном своем классе на php.

habrahabr.ru

Net::HTTP - Скачивает указанную страницу, поддерживает многостраничный парсинг. | A-Parser

  • Собираемые данные(top)

    • Код ответа сервера
    • Описание ответа сервера
    • Заголовки ответа сервера
    • Контент
    • Прокси использованные при данном запросе
    • Массив со всеми страницами (используется при работе опции Use Pages)

    Возможности(top)

    • Опция Check content - проверяет, если регулярное выражение не сработало, то страница будет загружена заново с другим прокси
    [​IMG]
    • Опция Use Pages - позволяет перебрать указанное количество страниц с определенным шагом. $pagenum - переменная, содержащая текущий номер страницы при переборе. Ее нужно использовать для подстановки в нужное место.
    [​IMG]
    • Опция Check next page - RegEx который определяет существует ли следующая страница или нет, и если существует - переходит на нее, в рамках указанного лимита (0 - без ограничений)
    [​IMG]
    • Опция Page as new query - передает переход на следующую страницу как новый запрос, тем самым позволяя убрать ограничение на количество страниц для перехода
    [​IMG]

    Варианты использования(top)

    Запросы(top)

    В качестве запросов необходимо указывать ссылки на страницы:

    Нажмите, чтобы раскрыть...

    Возможные настройки(top)

    Общие настройки для всех парсеровПараметрЗначение по умолчаниюОписание
    Good statusAllВыбор какой ответ с сервера будет считается успешным. Если при парсинге будет другой ответ от сервера, то запрос будет повторен с другим прокси
    Good code RegEx-Возможность указать регулярное выражения для проверки кода ответа
    MethodGETМетод запроса
    POST body-Контент для передачи на сервер при использовании метода POST. Поддерживает переменные $query - url запроса, $query.orig - исходный запрос и $pagenum - номер страницы при использовании опции Use Pages
    Cookies-Возможность указать cookies для запроса
    User agentMozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1)Заголовок User-Agent при запросе страниц
    Additional headers-Возможность указать произвольные заголовки запроса, с поддержкой возможностей шаблонизатора и использованием переменных из конструктора запросов
    Read only headersЧитать только заголовки. Позволяет в некоторых случаях экономить трафик, если нет необходимости обрабатывать контент.
    Detect charset on contentВозможность распознавать кодировку на основе содержимого страницы
    Emulate browser headersВозможность эмулировать заголовки браузера
    Max redirects count7Максимальное кол-во редиректов по которым будет переходить парсер
    Max cookies count16Максимальное число Cookie для сохранения
    Bypass CloudFlareАвтоматический обход проверки CloudFlare на браузер

a-parser.com

Универсальный парсер выдачи поисковых систем яндекс, гугл, рамблер. Программа учета рабочего времени. CyberMake.ru

  • Базы для XRumer AllSubmitter AddNews PostNews
  • Базы DLE, WordPress, Joomla, uCoz, phpBB, Drupal, vBulletin, IPB и другие
  • Поиск базы Gold DLE (Data Life Engine)
  • SEO Оптимизация сайта c WebParser Plus SEO
  • Рассылка комментариев по DLE сайтам
  • Поиск SQL-Инъекций двумя методами
программа для сбора баз ссылок сайтов поисковой выдачи скачать программу бесплатно
  • Наша программа WebParser, предназначена для парсинга поисковых систем: Яндекс(Yandex), Гугл(Google), Яху(Yahoo), Нигма(Nigma), Метабот(Metabot)
  • Вы можете парсить без прокси, алгоритм программы в автоматическом режиме может распознавать каптчи поисковых систем Яндекс, Гугл (через сервисы распознавания каптч)
  • Вы с легкостью сможете напарсить поисковые выдачи яндекса и google вместе взятых, тем самым собрать большие базы для своих нужд
  • С нашим парсером поисковых систем можно собрать базы DLE (DataLife Engine) - сайтов для постинга новостей
  • Встроенный анализ CMS сайтов поможет с легкостью отсеять все лишние CMS и оставить только нужную вам базу сайтов
  • Парсер яндекса, парсер гугла(google), парсер dle сайтов, ucoz, phpbb и др. - все это есть в нашем замечательном программном продукте WebParser
Cовместима с Windows 7, Vista, XP, 2003, 2000 + All Windows SERVERS ( + Dedicated )

Скачать WebParser

WebParser последней версии с установщиком Скачать

Обзор WebParser

Быстрый и качественный сбор:
  • Телефонов
  • Почтовых адресов
  • Сбор баз E-Mail
  • Поиск контактов
  • Поиск информации о компаниях и организациях
Программа для сбора контактов адресов телефонов email информации об организациях скачать бесплатно программу
  • Универсальный комплекс для маркетинга и сбора данных
  • Поиск потенциальных клиентов
  • Поиск данных для продвижения, рекламы, продажи
  • Создание телефонных справочников, E-Mail справочников, справочников адресов
  • Встроенный полнофункциональный WebParser Professional для профессионального парсинга поисковых систем
  • Все это есть в нашем замечательном программном продукте BlackSpider
Cовместима с Windows 7, Vista, XP, 2003, 2000 + All Windows SERVERS ( + Dedicated )

Скачать BlackSpider

Обзор BlackSpider

расчет платы за негативное воздействие на окружающую среду и учет природопользовательской документацииь Скачать Расчет платы MPR-Personal

Обзор Расчет платы MPR-Personal

учет рабочего времени программа скачать   Скачать WorkTimer

  Обзор WorkTimer

программа для хранения дынных datakeeper скачать программу бесплатно   Скачать DataKeeper

  Обзор DataKeeper

CyberMake обладает авторскими правами на программы, размещенные на данном сайте, в том числе на:

WebParser (Универсальный парсер поисковых систем)MPR (Реестр Объектов Негативного Воздействия)BlackSpider (Программа сбора данных с интегрированным парсером)WorkTimer (Учет рабочего времени)DataKeeper (Безопасное хранение данных)WebAuditor (Работа с сайтами)

Парсер яндекс, парсер выдачи, парсер гугла, парсер dle сайтов, парсер поисковых систем, парсер поисковой выдачи, учет рабочего времени, безопасное хранение данных, cбор данных, телефонов, адресов, email, контактов, почтовых адресов, информации о компаниях и организациях, маркентиг, программа blackspider, универсальный сборщик данных с веб-сайтов и поисковых систем, интегрированный парсер поисковых систем, поиск потенциальных клиентов, для продвижения, рекламы, продажи, создания телефонных, e-mail справочников, справочников адресов Внимание! Запрещена загрузка программ, разработанных компанией CyberMake на любые сайты, включая файло-обменники.

С уважением,Компания CyberMake.

Мы в Google+

cybermake.ru

AftParser - бесплатный парсер - Личный блог Гарри

aftp

Плагин парсера, написанный мной на самой заре моего «пути». Вполне достойная разработка, хотя в данный момент уровень говнокода в ней просто зашкаливает, что не мешает ей исправно трудиться на благо сетевого пролетариата. Используя этот парсер вы можете сделать свою собственную читалку rss лент или наполнить свой сайт кучей наворованных статей.Внимание: Как настроить AftParser можно прочитать тут.

Нововведения:
  1. Убрана возможность вставлять картинки из гугла в посты. К сожалению API гугла, позволяющее искать картинки более недоступно.
  2. Добавлена обработка ошибок
  3. Добавлена поддержка tidy
  4. Улучшен парсер rss лент

Скачать:

Желающие могут скачать плагин, перейдя во ссылке:

(если вы обновляете парсер, то посмотрите инструкцию по установке)

Aftparser Скачано: 5207, размер: 1.6 MB, дата: 28.Мар.2017

Зачем я написал этот парсер?

Делал изначально для себя, с элементарной целью — заработать на Sape. В 2013 году она еще была актуальным способом поднять пару кредитов, особенно для студента. Сейчас сапа уже не актуальна, вы, к превеликому прискорбию, не сможете там даже деньги, потраченные на домен окупить. Яндекс очень быстро банит молодые сайты, если на них начинают продавать ссылки. Даже не пытайтесь, короче. Ну хотя, все познается в сравнении, вдруг вам повезет =)

Почему выложил за бесплатно?

Потому что парсер стал неактуален. Году эдак в 2008 я был бы сказочно рад такому плагину. Еще бы! К сожалению в 2008 я только-только купил свой первый компьютер.(в конце 2007го) Разумеется тогда я понятия не имел ни о каком php и только-только начинал постигать этот неизведанный мир интернетов. Но… кто знает, вдруг вам он поможет начать свое дело в сети. Маловероятно конечно, но вдруг!

Можно ли заработать на копипасте? (мини-кейс)

Разумеется. Посмотрите вокруг. Вбейте в гугл и найдите кучу варезников — сайтов по тематике «скачать бесплатно», например. Копипаст — один из столпов интернета, тут 70% всей информации — не уникально. Но тут есть весьма существенная проблема. Дело в том, что вы не сможете получить прибыль с сайта на копипасте СРАЗУ. Только через год или полтора, причем это я описываю вам удачный вариант развития событий. Если вам вот прям срочно сегодня или через пол года нужны деньги — мой плагин вам никак не поможет, только навредит.

Ну и еще. Как говорит Кейсуха: «копипаст должен быть вкусным». Собирайте данные с разных источников. Хорошо оформляйте. Представьте, что вы готовите не сайт, а кулинарный шедевр. И будет вам счастье. Но не сразу, а через год-полтора.

Еще лучше будет, если вы спарсите, например 200 статей по какой-нибудь тематике и уникализируете их своими руками. В день можно переписывать по 20 статей, особенно если вы студент и у вас полно времени до сессии. За 10 дней вы получите вполне годный сайт с хорошим контентом, который начнет приносить трафик уже через полгода. Главное не лениться.

Если уж совсем в лом — просто поменяйте названия скопированных статей на близкие по тематике. Причем новое название должно быть чуть длиннее старого. Если вы скопировали плагином статью, например, с названием «здоровое питание», поменяйте его на «Здоровье и питание» или «Польза здорового питания». Тогда ваша статья будет собирать трафик по этим ключам и таким образом где-то даже сможет вылезти в топ по поиску. Если же оставлять старые заголовки то ваш сайт всегда будет ниже в поиске, чем сайт, с которого вы взяли статью.

Мифы о копипасте

Многие сеошники распространяют такой фэйк:

Если в скопированной статье вставлять ссылку на источник — не получишь бана.

Это голимый пи*дежь. Не ведитесь на это, нечего буржуям трафик наращивать, пусть идут в самую глубокую «марианскую впадину». Никаких ссылок на источник делать не надо!

Так-же скажу вам, что за копипаст не дают бана (АГС). Могут исключить из основной выдачи поисковика, это да, но бан вы не получите.

Трафик

В среднем с 3000 страниц я получил пять хомяков через пол года и около 50ти через год(а потом получил ручные санкции от гугла из-за своей криворукости). При этом никаких дополнительных работ по уникализации я не делал.

Мало, согласен. Поэтому уникализируйте статьи и заголовки, как я писал выше. Тогда трафик вполне может перевалить и за 800 хомяков в сутки. Но тут уж как повезет, знаете ли.

Похожее

aftamat4ik.ru

Парсеры | A-Parser - парсер для профессионалов SEO

SE::GoogleSE::GoogleПарсер поисковой выдачи Google
SE::Google::MobileSE::Google::MobileУниверсальный парсер поисковой выдачи Google
SE::Google::ModernSE::Google::ModernУлучшеный парсер поисковой выдачи Google
SE::YandexSE::YandexПарсер поисковой выдачи Яндекса
SE::AOLSE::AOLПарсер поисковой выдачи search.aol.com
SE::BingSE::BingПарсер поисковой выдачи Bing
SE::BaiduSE::BaiduПарсер поисковой выдачи Baidu
SE::DogpileSE::DogpileПарсер поисковой выдачи Dogpile
SE::DuckDuckGoSE::DuckDuckGoПарсер поисковой выдачи DuckDuckGo
SE::MailRuSE::MailRuПарсер поисковой выдачи Mail.ru
SE::QIPSE::QIPПарсер поисковой выдачи Яндекса через search.qip.ru
SE::SeznamSE::SeznamПарсер чешской поисковой системы seznam.cz
SE::YahooSE::YahooПарсер поисковой выдачи Yahoo
SE::YouTubeSE::YouTubeПарсер поисковой выдачи YouTube
SE::AskSE::AskПарсер американской поисковой выдачи Google через Ask.com
SE::ComcastSE::ComcastПарсер американской поисковой выдачи Google через Comcast.net
SE::RamblerSE::RamblerПарсер поисковой выдачи Рамблера
SE::IxquickSE::IxquickПарсер поисковой выдачи Ixquick
SE::Google::positionSE::Google::positionПроверка позиций сайтов по ключевым словам в Google
SE::MailRu::positionSE::MailRu::positionПроверка позиций сайтов по ключевым словам в Mail.ru
SE::Yandex::positionSE::Yandex::positionПроверка позиций сайта по ключевым словам в Яндексе
SE::QIP::positionSE::QIP::positionПроверка позиций сайтов по ключевым словам в QIP
SE::AOL::SuggestSE::AOL::SuggestПарсер подсказок AOL
SE::Google::SuggestSE::Google::SuggestПарсер подсказок Google
SE::Yandex::SuggestSE::Yandex::SuggestПарсер подсказок Yandex
SE::Bing::SuggestSE::Bing::SuggestПарсер подсказок Bing
SE::Yahoo::SuggestSE::Yahoo::SuggestПарсер подсказок Yahoo
SE::Yandex::WordStatSE::Yandex::WordStatПарсер ключевых слов и статистики показов с сервиса wordstat.yandex.ru
SE::Yandex::WordStat::ByDateSE::Yandex::WordStat::ByDateПарсер статистики показов WordStat по месяцам и неделям
SE::Yandex::WordStat::ByRegionSE::Yandex::WordStat::ByRegionПарсер статистики ключевых слов по регионам и городам в WordStat
SE::Yandex::Direct::FrequencySE::Yandex::Direct::FrequencyПроверка частотности ключевых слов через Яндекс.Директ
SE::Google::TrendsSE::Google::TrendsПарсер популярных кейвордов по версии Google
SE::Yandex::RegisterSE::Yandex::RegisterРегистрирует аккаунты в Yandex
SE::Google::TrustCheckSE::Google::TrustCheckПроверка сайта на trust (доверие) гугла(дополнительный блок ссылок в выдаче)
SE::Google::CompromisedSE::Google::CompromisedПроверка наличия надписи This site may be hacked в гугле
SE::Google::SafeBrowsingSE::Google::SafeBrowsingПроверка домена в блеклисте гугла (подпись harm в выдачи)
SE::Bing::LangDetectSE::Bing::LangDetectОпределение языка сайта через поисковик Bing
SE::Yandex::TICSE::Yandex::TICПроверка тематического индекса цитирования домена в Яндексе
Net::WhoisNet::WhoisОпределяет зарегистрирован ли домен, дату создания домена, а так же дату окончания регистрации и NS сервера
Net::DNSNet::DNSПарсер резолвит домены в IP адреса
Rank::CMSRank::CMSОпределение более 600 видов CMS на основе признаков. Определяет все популярные форумы, блоги, CMS, гестбуки, вики и множество других типов движков
Rank::AlexaRank::AlexaПарсер Alexa Rank
Rank::Alexa::APIRank::Alexa::APIБыстрый чекер алексы через API
Rank::ArchiveRank::ArchiveПарсер даты первого и последнего кэширования сайта в веб архиве(archive.org)
Rank::LinkpadRank::LinkpadПарсер беклинков и статистики с сервиса linkpad.ru(бывший solomono)
Rank::MajesticSEORank::MajesticSEOПарсер количества бек-линков с сервиса majesticseo.com
Rank::MustatRank::MustatПарсер оценки трафика на сайте, также стоимости и рейтинга домена
Rank::OpenSiteExplorerRank::OpenSiteExplorerПроверяет рейтинг домена или страницы по OpenSiteExplorer
Rank::OpenSiteExplorer::ExtendedRank::OpenSiteExplorer::ExtendedРасширенная версия парсера Rank::OpenSiteExplorer, парсит 39 различных параметров
Rank::SEMrushRank::SEMrushПроверяет рейтинг SEMrush
Rank::SEMrush::KeywordRank::SEMrush::KeywordСобирает трафик, конкуренцию и другие параметры по ключевому слову из SEMrush
Rank::MegaIndexRank::MegaIndexПарсер статистики по сайту megaindex.com
Rank::Social::SignalRank::Social::SignalПарсер социальных сигналов
SE::Bing::TranslatorSE::Bing::TranslatorПереводчик текста через сервис www.bing.com/translator/
SE::Google::TranslateSE::Google::TranslateПереводчик через сервис Google
SE::Yandex::TranslateSE::Yandex::TranslateПереводит текст через переводчик Яндекса
SE::Bing::ImagesSE::Bing::ImagesПарсер картинок с поисковика Bing
SE::Google::ImagesSE::Google::ImagesПарсер картинок Google Images по ключевым словам
SE::Google::ByImageSE::Google::ByImageПарсер картинок Google Images по ссылке
SE::Yandex::DirectSE::Yandex::DirectПарсер объявлений по кейворду через сервис direct.yandex.ru
SE::Yandex::CatalogSE::Yandex::CatalogПарсер сайтов по Яндекс.Каталогу
SE::Yandex::ImagesSE::Yandex::ImagesПарсер Яндекс Картинок
Util::AntiGateUtil::AntiGateРаспознавание каптчи через сервисы поддерживающие AntiGate API
Util::ReCaptcha2Util::ReCaptcha2Парсер для распознавание рекаптчи
SEO::pingSEO::pingМассовая отправка Ping запросов в сервисы поддерживающие Weblog API(Google Blog Search, Feed Burner, Ping-o-Matic и т.п.)
Check::RosKomNadzorCheck::RosKomNadzorПроверка сайта в базе Роскомнадзора
SE::Bing::AddURLSE::Bing::AddURLДобавление ссылок в индекс Бинга
SE::Yandex::SpellerSE::Yandex::SpellerПроверка страниц на ошибки в тексте через Яндекс.Спеллер
GooglePlay::AppsGooglePlay::AppsПарсер приложений Google Play
Shop::AmazonShop::AmazonПарсер поисковой выдачи amazon.com
Shop::Yandex::MarketShop::Yandex::MarketПарсер Яндекс.Маркет
Shop::AliExpressShop::AliExpressПарсер поисковой выдачи AliExpress
Check::BackLinkCheck::BackLinkПроверяет нахождение обратной ссылки(ссылок) по базе сайтов
HTML::LinkExtractorHTML::LinkExtractorПарсер внешних и внутренних ссылок с указанного сайта, может проходить по внутренним ссылкам до выбранного уровня
HTML::TextExtractorHTML::TextExtractorПарсер текстовых блоков, позволяет собирать контент с произвольных сайтов
HTML::TextExtractor::LangDetectHTML::TextExtractor::LangDetectОпределение языка страницы, без использования сторонних сервисов
HTML::EmailExtractorHTML::EmailExtractorПарсер e-mail адресов со страниц сайтов
Net::HTTPNet::HTTPЗагружает данные по заданной ссылке, на основе этого парсера можно создавать любые парсеры используя регулярные выражения для извлечения информации

Смотрите также

 

..:::Новинки:::..

Windows Commander 5.11 Свежая версия.

Новая версия
IrfanView 3.75 (рус)

Обновление текстового редактора TextEd, уже 1.75a

System mechanic 3.7f
Новая версия

Обновление плагинов для WC, смотрим :-)

Весь Winamp
Посетите новый сайт.

WinRaR 3.00
Релиз уже здесь

PowerDesk 4.0 free
Просто - напросто сильный upgrade проводника.

..:::Счетчики:::..