Санкт-Петербург,
пр. Энгельса, 29

Для упрощения работы веб-мастера по наполнению сайта часто используется специальный программный сценарий — скрипт, который носит название парсер или граббер. Парсер предназначен для автоматизации сбора и наполнения веб-страницы текстовой информацией. Этот скрипт ищет в интернете информацию по заданной тематике и копирует ее на сайт владельца парсера. Обновление контента происходит без участия веб-мастера. Таким образом, специалист избавлен от необходимости вручную искать текст и размещать его на своем сайте.

Да, с парсером веб-мастеру больше не нужно выполнять рутинную работу. Но не все так гладко с использованием скрипта. Текстовая информация должна отвечать двум основным требования поисковых систем:

— Актуальность.

— Уникальность.

C актуальностью, как правило, проблем не возникает — в этом отношении парсер отличный помощник. Если программный сценарий четко прописан и настроен, сайт будет постоянно пополняться актуальным свежим контентом. Чаще всего парсер используют для новостной информации. Однако, граббер может пригодиться и при ведении блога. Здесь его важность объясняется именно возможностью постоянно обновлять контент.

Но об уникальности такого текста, само собой, речи быть не может. Парсер автоматизированным способом, естественно, перерабатывать текст методом рерайтинга он не может. Он только копирует исходный текст и помещает на нужный сайт. В этом и заключается проблема использования грабберов — поисковики строго отслеживают повторяющийся, неуникальный текст. Сайт, даже с небольшим объемом такого заимствованного контента, не сможет подняться на верхние позиции в выдаче. А при большом количестве копированного чужого контента на каждой странице сайта его деятельность закончится плачевно — сайт будет исключен из базы поиска. Такова обратная сторона использования парсера.

Получается следующая ситуация: актуальный, значимый сайт с постоянным обновлением контента при ранжировании располагается в самом низу выдачи. А все из-за низкой уникальности текстовой информации. Зачем тогда использовать парсеры? Кроме продвижения веб-сайт в поисковой системе, где парсеры не приносят видимого эффекта, можно развитие сайта может происходить, например, в сетевых сообществах. На подобных сайтах пользователей мало интересует, насколько уникален контент. Им, в отличие от поисковых роботов, нужна просто актуальная и полная информация на некоторую тему. Хорошо отлаженная работа парсера дает целевой аудитории возможность ознакомиться с актуальной, полезной информацией. От пользователя требует только посетить сайт, и, если содержание его удовлетворит, то посетит его еще не раз. Так можно получить хороший результат роста пользовательского трафика.

В таком случае положение сайта при выдаче поисковиком принципиального значения иметь не будет. Чтобы успешно действовать в этом направлении необходим объединяющий граббер. Этот скрипт специально создан для поиска и копирования на портал разнородной текстовой информации с десятка сайтов. Веб-мастеру так проще работать, а пользователю — искать нужный контент, как правило, новостной — разные по тематике новости находятся на одном сайте.