Проект для вебмастеров по качественной SEO оптимизации, продвижении и раскрутке сайтов в сети
Авторизация

Следует ли пытаться повторять всё то, что делает конкурент?


Старая мечта поисковых оптимизаторов работать по формуле «посмотри на конкурента и сделай так же» оказывается всё более несбыточной. В первую очередь это относится к контенту документов. На ранжирование влияют сотни факторов. Представители поисковых систем говорят о тысячах, но всё же важных из них не может быть так уж много. Нам хватит и 200-300 факторов. Сайт хорошо попал в «матрицу», его семантическое ядро вызывает ассоциацию с определённым запросом. Правда, до какой степени «хорошо» именно в плане контента мы не знаем. Он мог оказаться в ТОР-1 совсем по другим причинам, к примеру, владельцы провели несколько конкурсов и ресурс успел получить пару десятков естественных ссылок, а сама его тематика не вызывает никаких сомнений у ПС, поэтому выросла и степень доверия. Владельцы ресурса сделали так, что люди сами по себе показали высокий уровень активности, а на нём установлены системы аналитики ПС, а значит никто не собирается что-то скрывать.


Часто мы повторяем основное — создаём такое же семантическое ядро, добиваемся точно такого же распределения по элементам разметки страниц, с помощью специального софта узнаём анкоры входящих ссылок и размещаем их на сходных по параметрам «донорах», но сайт наш в выдаче не растёт. Тогда раздаётся возглас «Всё дело в поведенческих факторах!». В традициях SEO очень любят новые тренды. То все регистрировали сайты в web directory, то покупали ссылки в SAPE, и делали это в промышленных масштабах, то увлеклись поведенческими факторами. Но есть одна беда. Конкурент-то на самом деле придумал что-то важное: полезное или интересное. И люди приходили туда сами по себе. Даже заходя со страниц социальных сетей потом искали сайт уже с помощью ПС. Такого великолепия у нас попросту нет. Поэтому направляются стопы наши к сервисам по накрутке поведенческих факторов, а потом мы с удивлением видим, что сайт попал под фильтр и получил существенную пессимизацию.


Попробуем поставить себя на место инженеров Google. Современных вычислительных мощностей вполне достаточно для того, чтобы провести анализ и выявить попытки точного повторения ситуации у конкурента. Вдруг 100 ссылок появились на сайтах с такими же параметрами, вдруг анкоры у них очень уж напоминают анкоры входящих ссылок другого. Текст документов другой, в вот семантика такая же. Не есть ли это совокупность признаков искусственного продвижения?


И ещё одна тревожная мысль. А что если конкурент держит ТОП-1 последний месяц? Мы повторим его ситуацию. Но он уже под фильтром, только пока это видно разве что люфтом в одно-две позиции, которые можно заметить с помощью использования каких-то специальных инструментов. Но потом, когда пройдёт большой апдейт выдачи всё кардинально поменяется.


Попытки слепого повторения не к добру ещё и по той причине, что полностью противоречат маркетинговому функционалу сайта. Никто не сможет написать яркий, красивый, продающий текст и при этом заведомо вставить в него 50 слов по разу и 50 по много раз. Речь сейчас идёт не просто о ключевых словах. В разумных пределах они даже нужны самому автору, но до тех пор, пока помогают фокусировать речь и не растекаться мыслью по древу. Точно так же разговор не относится к спаму и переспаму. Сейчас сложился другой подход. Спам-то он как раз исключает, но не исключает насыщения текста словами так, как у конкурента. Никто и никогда не видел красивого результата, но ТЗ такого рода появляются всё чаще и чаще.


Итак, наша проблема не в том, что ПС ужесточили отсев продвигаемых сайтов, а в том, что очень редко мы готовы работать в рамках естественной маркетинговой активности.

Жми Like - ПОМОГАЙ РАЗВИВАТЬ РЕСУРС!!!


Рекомендуем также посмотреть:
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Авторизация